News Detailansicht

Neues Lernschema für neuronale Netzwerke
Vor einem Angriff der Katze nimmt die Maus Gerüche und Geräusche wahr. Lernt sie nach einem missglückten Angriff, diese aus unzähligen anderen Reizen herauszufiltern und der Katze zuzuordnen, kann sie beim nächsten Angriff schneller die Flucht ergreifen.
© Shutterstock/Eric Isselee

Blätterrascheln, das Knacken eines Astes – für eine Maus sind dies zunächst harmlose Sinneseindrücke. Nicht aber, wenn kurz darauf eine Katze aus dem Gebüsch stürzt – dann waren es Hinweise auf eine lebensbedrohliche Gefahr. Robert Gütig vom Max-Planck Institut für experimentelle Medizin in Göttingen hat nun herausgefunden, wie das Gehirn Sinneswahrnehmungen mit verzögert auftretenden Ereignissen verknüpfen kann. Dazu hat der Forscher ein Lernschema für ein Computermodell entwickelt. Die virtuellen Zellen können darin lernen, zwischen vielen unterschiedlichen Reizen zu unterscheiden, indem sie ihre Aktivität an die Häufigkeit der Hinweisreize anpassen. Das funktioniert auch dann, wenn zwischen Hinweisreiz und Ereignis eine zeitliche Lücke besteht. Das von Gütig entdeckte Lernschema ist nicht nur für jedes Lebewesen überlebenswichtig, um Reize aus der Umwelt herauszufiltern, es hilft auch bei einer Vielzahl technologischer Lernprobleme. Forscher könnten es zum Beispiel zur Entwicklung von Programmen zur Spracherkennung einsetzen.

In der Tierwelt künden sich Gefahren oft vorher an: verräterische Geräusche, Bewegungen oder ein Geruch können Hinweise auf einen bevorstehenden Angriff eines Räubers sein. Überlebt etwa eine Maus den Angriff einer Katze, hat sie es in Zukunft leichter, wenn sie aus dem missglückten Angriff lernt und die Hinweise beim nächsten Mal frühzeitig deuten kann. Es prasseln jedoch ständig eine Vielzahl sensorischer Eindrücke auf sie ein, von denen die meisten nicht auf eine Gefahr hindeuten. Woher weiß die Maus also, welche Geräusche und Gerüche aus der Umwelt etwa den Angriff einer Katze ankündigen und welche nicht?

Das Mausgehirn steht dabei vor einem Problem: Die entscheidenden Umgebungsreize sind meist zeitlich vom eigentlichen Angriff isoliert. Das Gehirn muss also einen Hinweis und das darauffolgende Ereignis – etwa einem Geräusch und einem Angriff – miteinander verknüpfen, die zeitlich auseinander liegen. Bisherige Theorien konnten nicht befriedigend erklären, wie das Gehirn die Zeit zwischen einem Hinweisreiz und dem eigentlichen Erlebnis überbrückt. Robert Gütig vom Max-Planck-Institut für experimentelle Medizin hat entdeckt, wie das Gehirn dieses Problem lösen kann. Er hat am Computer ein Netzwerk aus Nervenzellen programmiert, das wie ein biologischer Zellverband auf Erregungen reagiert. Das Netzwerk kann lernen, diejenigen Hinweisreize herauszufiltern, die ein späteres Ereignis vorhersagen.
Auf die Häufigkeit kommt es an

Das Netzwerk lernt, indem es gezielt Synapsen zwischen den virtuellen Nervenzellen verstärkt oder abschwächt. Grundlage des Computermodells ist eine synaptische Lernregel, mit der einzelne Nervenzellen ihre Aktivität in Abhängigkeit von einem einfachen Lernsignal erhöhen oder absenken können. Mit dieser Lernregel setzt Gütig ein neues Lernschema um: „Dieses häufigkeitsbasierte Lernschema beruht auf der Idee, die Verbindungen zwischen Zellen so einzustellen, dass die resultierende neuronale Aktivität über einen Zeitraum gesehen proportional zur Häufigkeit der Hinweisreize wird“, erklärt Gütig. Spiegelt also ein Lernsignal das Auftreten und die Stärke bestimmter Ereignisse im Umfeld der Maus wieder, so lernen die Nervenzellen auf jene Reize zu reagieren, die diese Ereignisse vorhersagen.

Gütigs Netzwerke können aber auch dann lernen, auf Umgebungsreize zu reagieren, wenn keine Lernsignale aus der Umgebung vorhanden sind. Hierzu wird die mittlere neuronale Aktivität innerhalb eines Netzwerkes als Lernsignal interpretiert. Einzelne Nervenzellen lernen nun auf solche Reize zu reagieren, die genauso häufig aufgetreten sind wie die, auf welche die anderen Nervenzellen im Netzwerk reagieren. Dieses „selbst überwachte“ Lernen folgt einem anderen Prinzip, als etwa die Hebbsche Lernregel, die bislang häufig in künstlichen neuronalen Netzen zum Einsatz kam. Solche Hebbschen Netze lernen, indem sie die Synapsen zwischen den Zellen verstärken, die gleichzeitig oder kurz nacheinander aktiv sind. „Beim selbst überwachten Lernen muss die Aktivität der Zellen nicht zeitlich synchronisiert sein. Maßgeblich für die Änderung von Synapsen ist nur die Gesamtaktivität in einem bestimmten Zeitraum“, sagt Gütig. Somit können diese Netzwerke auch Sinnesreize verschiedener sensorischer Modalitäten, z.B. Sehen, Hören und Riechen, verknüpfen, deren neuronale Repräsentationen zeitlich erheblich gegeneinander verschoben sein können.

Gütigs Lernschema erklärt nicht nur biologische Prozesse, sondern könnte auch weitreichenden Verbesserungen innerhalb technologischer Anwendungen, z.B. der künstlichen Spracherkennung, den Weg bereiten. „Es wäre damit möglich, die Anforderungen für das Training computergestützter Spracherkennung erheblich zu vereinfachen. Anstatt aufwendig segmentierter Sprachdatenbanken oder komplexer Segmentierungsalgorithmen genügen für häufigkeitsbasiertes Lernen beispielsweise die Untertitel von Nachrichtensendungen“, so Gütig.


*****



Robert Gütig: Spiking neurons can discover predictive features by aggregate-label learning
Science 4 March 2016; DOI: 10.1126/science.aab4113
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
http://science.sciencemag.org/content/351/6277/aab4113

04.03.2016

 

 
top