Wenn die KI greifen lernt
Maschinelles Lernen war schon immer ein zentraler Bestand?teil der Robotik. Der jüngste KI-Boom hat jedoch auch die Roboter ver?ndert. Ihre Gehirne werden nun mit Simulationen in der Cloud schnell und effizient trainiert
H?nde – überall H?nde! Im Soft Robotics Lab sieht es abwechslungsweise wie in einem Gruselkabinett, einer Kinderkrippe oder einer Hightechwerk?st?tte aus. Da sind drahtige, skelettartige Finger, ausgestellt in Vitrinen oder befestigt an bulligen Roboterarmen. Auf Labortischen liegen farbige Plüschtintenfische, Schaumstoffwürfel und weitere Spielzeuge – Objekte zum Trainieren der robotischen Fingerfertigkeit. Daneben ein Heer von Messger?ten, Kabeln oder Sensoren. Neunzehn Robotikerinnen, Computerwissenschaftler, Chemikerinnen und Biologen arbeiten hier interdisziplin?r zusammen. Geleitet wird das Lab von Robert Katzschmann, Professor für Robotik am Departement Maschinenbau und Verfahrenstechnik der ETH Zürich.
Er l?sst sich beim Entwickeln neuer Roboter von Tieren und dem menschlichen K?rper inspirieren. Bei der neusten Generation Roboterh?nde werden zum Beispiel die Finger nicht mehr über Motoren in den Gelenken gesteuert, sondern einzig über künstliche Sehnen, die die Finger über sogenannte W?lzgelenke bewegen. Roboter sollen weich, geschickt und geschmeidig werden. Weg von Metallen, Schrauben und Motoren und hin zu hybriden K?rpern aus festen und weichen Materialien, die vielseitige Aufgaben erledigen und sich an neue Umgebungen anpassen k?nnen.
Roboter auf Mission
Dieser Text ist in der Ausgabe 25/04 des ETH-????Magazins Globe erschienen.
Adaptive H?nde
Dafür nutzt Katzschmann auch die M?glichkeiten von künstlicher Intelligenz (KI), wobei der Robotiker lieber den Begriff ?Maschinelles Lernen? verwendet, denn von einer Intelligenz, die ein Eigenleben besitzt, k?nne man heute noch nicht sprechen. ?Früher haben wir Probleme in der Robotik mit Vereinfachungen, physikalischen Modellierungen und Regelungstechnik gel?st, heute nutzen wir dafür vor allem maschinelles Lernen.? Es hat mittlerweile in praktisch allen Bereichen der Robotik Einzug gehalten: vom Design der Roboter mittels generativen Modellierens in 3D-Simulationen über das Erlernen von F?higkeiten anhand von Videodaten bis hin zur Bewegungssteuerung mit Algorithmen. ?Rund die H?lfte meiner Gruppe arbeitet heute aktiv mit maschinellen Lernmethoden und entwickelt diese weiter?, so Katzschmann.
Herk?mmliche Methoden, wie beispielsweise die Regelungstechnik, sind geeignet für strukturierte Prozesse, etwa bei kontrollierten Arbeitsabl?ufen in Fabriken, die sich tausendfach wiederholen. Bei chaotischen Umgebungen und unstrukturierten Aufgaben kommt man damit jedoch nicht weit. Katzschmann macht ein Beispiel: Das Aussortieren von unterschiedlichen Glasflaschen in Kisten ist für Roboterh?nde bis heute eine grosse Herausforderung, weil die Flaschen unterschiedliche Gr?ssen und Formen haben. Seine Gruppe hat dafür Roboterh?nde mit 21 Freiheitsgraden entwickelt, die durch Verst?rkungs- und Imitationslernen gesteuert werden. Gemeinsam mit den Roboterarmen erreichen die H?nde sogar 28 Freiheitsgrade. Um dem Roboter das Flaschengreifen zu lehren, nutzen die Forschenden einen Handschuh, der mit Bewegungssensoren und einer Kamera bestückt ist und von externen Kameras gefilmt wird. Optional k?nnen auch Aufnahmen einer Virtual-Reality-Brille mit einfliessen. Mit diesem reichhaltigen Datensatz trainieren sie ein sogenanntes Transformer-Modell, das ?hnlich wie ein Large Language Model funktioniert, also dasjenige Modell, auf dem KI beruht. Mit dem trainierten Modell ausgestattet, kann die Roboterhand auch unbekannte Objekte richtig greifen und diese an die beabsichtigte Stelle bewegen. ?Mit herk?mmlichen Methoden h?tten wir zuerst ein Punktwolken-3D-Modell der Umgebung erstellt und jede einzelne Position der Finger zum Greifen einer Flasche programmieren müssen?, erkl?rt Katzschmann. ?Und sobald die Flaschen oder die Kisten leicht verschoben waren, wusste die Roboterhand bereits nicht mehr, was zu tun ist.? Ganz anders heute: ?Das Greifen ist komplett erlernt, die Hand dadurch sehr adaptiv.? Basierend auf dieser Forschung gründete er im Jahr 2024 zusammen mit vier ehemaligen Doktoranden und Masterstudenten das ETH-Spin-off Mimic Robotics. Das junge Unternehmen will mit KI-gesteuerten robotischen H?nden die Welt der Fertigung und Logistik grundlegend ver?ndern.
Lernen in der Cloud
Stelian Coros ist Computerwissenschaftler und entwickelt Algorithmen für Robotik, Visual Computing und computergestützte Fertigung. Er kümmert sich in erster Linie um die Software, also die Gehirne von Robotern. Die Fortschritte beim Deep Learning, einer Form des maschinellen Lernens, das mit künstlichen neuronalen Netzwerken arbeitet, haben seine Forschung im vergangenen Jahrzehnt stark gepr?gt. ?Heute stehen genügend Daten und Rechenleistung zur Verfügung, damit wir Deep Learning in der Robotik für gezielte Anwendungen nutzen k?nnen, zum Beispiel für die automatische Objekterkennung auf Bildern.?
Neuronale Netzwerke sind auch die Basis für eine weitere Form des maschinellen Lernens: das Reinforcement Learning. Dabei lassen Forschende Roboter Dinge ausprobieren, zum Beispiel bestimmte Bewegungsabl?ufe. Dann vergeben sie Punkte, abh?ngig davon, wie weit sich der Roboter zum Beispiel vorw?rtsbewegt hat oder wie nah er dran war, umzufallen. Indem der Roboter versucht, eine gute Bewertung zu erreichen, verbessert er sich kontinuierlich. ?Im Grunde genommen handelt es sich um ein Lernen durch Ausprobieren, so ?hnlich, wie wenn jemand das Tennisspielen erlernt?, sagt Coros. ?Es reicht nicht aus, wenn Roboter sich Youtube-Videos anschauen, in denen gezeigt wird, wie Menschen bestimmte Dinge tun. Die Roboter müssen es selbst tun.? Deshalb erzeugt sein Team viele Daten mit Teleoperation. Dabei werden Bewegungen einer Person auf einen Roboter übertragen. Um menschliche Bewegungen aufzuzeichnen, arbeitet Coros auch mit Technologien, wie sie oft für Animationsfilme genutzt werden. Mit diesen Daten und den passenden Algorithmen k?nnen Roboter Bewegungen sp?ter situativ wiedergeben und sich menschen?hnlich bewegen. Letzteres ist für Coros die Voraussetzung, damit Menschen künftig eng mit Robotern interagieren k?nnen.
Gleichzeitig trainieren
Auch an der Professur für Robotersysteme von Marco Hutter arbeiten die Forschenden mit Reinforcement Learning. Sie nutzen dafür vor allem Simulationen in virtuellen Umgebungen. ?Wir trainieren heute in Simulationen tausende von Robotern gleichzeitig?, sagt Cesar Cadena, Senior Scientist am Robotics Systems Lab von Hutter. ?Damit generieren wir in einer Stunde so viele Daten wie früher in einem Jahr.? M?glich gemacht haben solche Simulationen enorme Fortschritte bei der Entwicklung von Microchips und Grafikprozessoren. Parallelprozessoren k?nnen tausende von Aufgaben gleichzeitig ausführen und sind für KI-Anwendungen zentral. Das Robotics Systems Lab arbeitet deshalb auch direkt mit Nvidia zusammen, einem der weltweit gr?ssten Entwickler von Grafikprozessoren und Chips?tzen. Bereits zwei Doktorarbeiten sind in direkter Zusammenarbeit mit dem Unternehmen mit Sitz in Kalifornien entstanden.
Das virtuelle Reinforcement Learning wird in der Cloud durchgeführt und erfordert sehr hohe Rechenkapazit?ten. Im kontinuierlichen Lernmodus stellt sich dabei zwangsl?ufig die Frage nach der Autonomie. Ein Fabrikroboter kann problemlos dauerhaft mit einer Cloud verbunden sein, um komplexe Arbeitsschritte bestm?glich zu erledigen. Doch was ist mit einem Rettungsroboter, der in einem entlegenen Katastrophengebiet nach ?berlebenden sucht? An Orten, an denen es keine Netzverbindung gibt und die Roboter schnelle Entscheidungen treffen müssen? In solchen F?llen müssen die Forschenden einen Teil der ben?tigten Rechenleistung auf den Roboter übertragen; inklusive der zuvor in der Cloud generierten Daten. ?Wir verlieren dann zwar an Rechenkapazit?t, aber für klar definierte Aufgaben ist das meist immer noch gut genug?, sagt Cadena.
Ziel: Vielseitige Roboter
Wird der aktuelle KI-Boom die Robotik revolutionieren – oder handelt es sich eher um eine Evolution? Letzteres sei der Fall, sagt Coros. ?Die Art der Daten, die für KI und für Roboter von Nutzen sind, unterscheiden sich fundamental.? Das liege vor allem daran, dass Roboter einen K?rper haben und mit diesem lernen. Nur so k?nnen Bewegungsabl?ufe generalisiert werden. Damit wird sichergestellt, dass Roboter in verschiedenen Umgebungen funktionieren. KI hingegen schafft Generalisierbarkeit durch einen unendlichen Fluss an Daten; vor allem Texten, aber auch Bildern und Videos. Bis heute gibt es Teile der Robotik-Community, die versuchen, dasselbe zu tun, um ihre Roboter zu verbessern. Sie sammeln Terabyte um Terabyte an Daten von menschlichen Bewegungsabl?ufen – und trainieren damit ihre Roboter. ?Aber das ist nicht skalierbar?, sagt Coros. Er macht ein Beispiel: Es gebe Gruppen, die entwickelten Roboter, die Hemden falten. Bis ein Roboter dazu im Stande sei, brauche es rund 10?000 Stunden Demonstrationsdaten – und selbst dann mache er noch Fehler. ?Wenn jede einzelne Fertigkeit so viele Daten ben?tigt, dann ist dieses Konzept schlicht nicht skalierbar.?
Seine Gruppe geht deshalb einen anderen Weg. Sie verwendet zwar auch erlernte Daten, aber gleichzeitig auch physikalische Modelle, um Lücken bei den Demonstrationsdaten zu schliessen. Coros nennt als Beispiel einen Roboterarm, der einen Ball wirft: ?Wir verstehen, wie sich ein Ball durch die Luft bewegt, und kennen die physikalischen Gesetze, die diese Bewegung bestimmen.? Der Roboter kann solche Gesetze nutzen, um seinen Wurf so anzupassen, dass der Ball genau an der beabsichtigten Stelle landet. ?Dafür brauchen wir keine grossen Datenmengen.? 2023 gründete Coros mit ehemaligen Doktoranden das Spin-off Flink Robotics. Basierend auf KI-gesteuerter Bildverarbeitung und physikalischen Modellen sollen branchenübliche Roboterarme intelligenter gemacht werden, so dass sie Materialien pr?ziser verpacken, entladen und sortieren k?nnen. Die Schweizerische Post, der erste Kunde des Spin-offs, will mit dieser Technologie den Paketversand automatisieren.
Sehnen statt Motoren
Zurück im Soft Robotics Lab, wo Biologinnen Zellgewebe für Robotersehnen entwickeln und Chemiker künstliche Muskeln mit Elektroimpulsen zum Leben erwecken. Robert Katzschmann ist überzeugt, dass traditionelle, motorgesteuerte Robotiksysteme bezüglich Generalisierbarkeit an Grenzen stossen. Daran ?ndere auch die beste KI nichts. ?Solche Systeme werden nicht die n?tige Anpassungsf?higkeit haben, um mit all den Situationen in der realen Welt umgehen zu k?nnen.? Für ihn ist der K?rper genauso wichtig wie das Gehirn. Er entwickelt deshalb muskuloskelettale Roboter, die sich an der Natur orientieren. ?Die Muskeln bringen die Weichheit und das Skelett die Tragf?higkeit, die wir für komplexe k?rperliche Arbeiten ben?tigen?, sagt Katzschmann. Die Natur habe es geschafft, extrem stabile und vielseitige Systeme ohne Motoren und Metalle zu bauen. ?Sie sollte unser Vorbild sein.?