Oövervakad inlärning och principalkomponenter

Lästips: OH-bilderna

Vad kan man förvänta sig att oövervakad inlärning kan klara?

Vad händer om man använder Hebbs synapsregel i en oövervakad inlärningssituation?

Hur kan man förhindra att vikterna växer obegränsat?

Vad har korrelationsmatrisens största egenvärde med informationsinnehåll att göra?

Hur kan man förhindra att flera neuron väljer att representera samma sak?

Hur fungerar Oja's utvidgade metod (Generalized Hebbian Algorithm)?

Vad är poängen med Sangers modifierade GHA-metod?

Varför är APEX-metoden mer biologiskt rimlig?

Hur kan kaskadkoppling av självorganiserande steg skapa en egen intressant struktur?

Vad menas med Independent Component Analysis?