Artikelaktionen

Sie sind hier: Startseite / Aktuelles / Forschungsnews / Roboter mit Insektenhirn

Roboter mit Insektenhirn

Berliner Forscher entwickeln einen Roboter, der lernen kann sich anhand von Außenreizen in seiner Umgebung zurechtzufinden. Sein Vorbild: das Insektenhirn (Februar 2014).

Roboter, die selbständig ihren Weg durch unbekanntes Terrain finden? Nicht mehr ganz so ferne Zukunftsmusik. Forscher am Bernstein Fokus Neuronale Grundlagen des Lernens, am Bernstein Zentrum Berlin und an der Freien Universität Berlin haben einen Roboter entwickelt, der Umgebungsreize wahrnehmen und lernen kann auf sie zu reagieren. Als Vorbild seines Funktionsprinzips diente den Wissenschaftlern das relativ einfach gestrickte Nervensystem von Honigbienen. Dazu installierten sie eine Kamera auf ein kleines Roboterfahrzeug und schlossen es an einen Computer an. Das Computerprogramm bildete dabei vereinfacht das sensomotorische Netzwerk des Insektengehirns nach. Seine Eingangsdaten erhielt es von der Kamera, die – ähnlich einem Auge – visuelle Informationen aufnehmen und weiterleiten konnte. Das neuronale Netzwerk selbst trieb wiederum die Motoren der Roboterräder an – und konnte somit seine Bewegungsrichtung steuern.

Das Besondere an dem künstlichen Minigehirn ist, dass es nach einfachen Prinzipien lernen kann. „Der netzwerkgesteuerte Roboter ist fähig, bestimmte Außenreize mit Verhaltensregeln zu verknüpfen“, sagt Professor Martin Paul Nawrot, Leiter der Studie und Mitglied des Verbundsprojektes „Insect inspired robots: towards an understanding of memory in decision making“ im Bernstein Fokus. „Ähnlich wie Honigbienen lernen, bestimmte Blütenfarben mit schmackhaftem Nektar zu assoziieren, erlernt der Roboter, sich auf gewisse Farbobjekte hinzubewegen und andere zu meiden.“

In dem Lernexperiment setzten die Wissenschaftler den netzwerkgesteuerten Roboter in die Mitte einer kleinen Arena. An deren Wänden waren rote und blaue Objekte angebracht. Sobald der Roboter mit seiner Kamera ein Objekt mit der gewünschten Farbe – etwa Rot – anvisiert hatte, lösten die Wissenschaftler ein Lichtsignal aus. Dieses Signal aktivierte eine sogenannte „Belohnungs-Nervenzelle“ im künstlichen Netzwerk. Die Verarbeitung der roten Farbe mit der zeitgleichen Belohnung führte nun zu gezielten Veränderungen in dem Teil des Netzwerks, das die Kontrolle über die Roboterräder ausübte. Die Folge: „Sah“ der Roboter ein weiteres rotes Objekt, so bewegte er sich darauf zu. Blaue Gegenstände führten zu einem Rückzug. „Der Roboter löste seine Aufgabe, ein Objekt in der gewünschten Farbe zu suchen und anzufahren, innerhalb weniger Sekunden“, erklärt Nawrot. „Ähnlich wie in Experimenten wie Honigbienen reichte ein einziger Versuchsdurchgang zum Lernen aus.“

Die aktuelle Studie ist als interdisziplinäre Zusammenarbeit zwischen den Arbeitsgruppen „Neuroinformatik“ (Institut für Biologie) um Professor Martin Paul Nawrot und „Intelligente Systeme und Robotik“ (Institut für Informatik) um Professor Raúl Rojas an der Freien Universität Berlin entstanden. Die Wissenschaftler planen nun, das neuronale Netzwerk weiter auszubauen und um weitere Lernformen zu ergänzen. Dadurch wird das Minigehirn noch leistungsfähiger – und der Roboter noch selbstständiger.

Videolink: http://www.youtube.com/watch?v=Qb_R_E4DPYs&feature=youtu.be

Roboter mit Insektenhirn_image_03-02-14

Der Roboter in der Arena. Die kleine Kamera nimmt die Objekte auf und leitet die Informationen per Funk an das neuronale Netzwerk. Dort werden sie verarbeitet und die Bewegungsrichtung kontrolliert.
Copyright: Martin Paul Nawrot.



Ansprechpartner                  





Link

Prof. Martin Paul Nawrot
Freie Universität Berlin
Institut für Biologie – Neurobiologie
Königin-Luise-Straße 1-3,
Raum 201
14195 Berlin 

Tel: +49 (0)30 838 56692
Email: martin.nawrot@fu-berlin.de






L. I. Helgadóttir, J. Haenicke, T. Landgraf, R. Rojas & M. P. Nawrot (2013): Conditioned behavior in a robot controlled by a spiking neural network. 6th International IEEE/EMBS Conference on Neural Engineering (NER), 891 - 894

abgelegt unter: , ,