12/15/2025 | News release | Distributed by Public on 12/16/2025 02:19
Maschinelles Lernen war schon immer ein zentraler Bestandteil der Robotik. Der jüngste KI-Boom hat jedoch auch die Roboter verändert. Ihre Gehirne werden nun mit Simulationen in der Cloud schnell und effizient trainiert
Hände - überall Hände! Im Soft Robotics Lab sieht es abwechslungsweise wie in einem Gruselkabinett, einer Kinderkrippe oder einer Hightechwerkstätte aus. Da sind drahtige, skelettartige Finger, ausgestellt in Vitrinen oder befestigt an bulligen Roboterarmen. Auf Labortischen liegen farbige Plüschtintenfische, Schaumstoffwürfel und weitere Spielzeuge - Objekte zum Trainieren der robotischen Fingerfertigkeit. Daneben ein Heer von Messgeräten, Kabeln oder Sensoren. Neunzehn Robotikerinnen, Computerwissenschaftler, Chemikerinnen und Biologen arbeiten hier interdisziplinär zusammen. Geleitet wird das Lab von Robert Katzschmann, Professor für Robotik am Departement Maschinenbau und Verfahrenstechnik der ETH Zürich.
Er lässt sich beim Entwickeln neuer Roboter von Tieren und dem menschlichen Körper inspirieren. Bei der neusten Generation Roboterhände werden zum Beispiel die Finger nicht mehr über Motoren in den Gelenken gesteuert, sondern einzig über künstliche Sehnen, die die Finger über sogenannte Wälzgelenke bewegen. Roboter sollen weich, geschickt und geschmeidig werden. Weg von Metallen, Schrauben und Motoren und hin zu hybriden Körpern aus festen und weichen Materialien, die vielseitige Aufgaben erledigen und sich an neue Umgebungen anpassen können.
Dieser Text ist in der Ausgabe 25/04 des ETH-Magazins Globe erschienen.
Dafür nutzt Katzschmann auch die Möglichkeiten von künstlicher Intelligenz (KI), wobei der Robotiker lieber den Begriff «Maschinelles Lernen» verwendet, denn von einer Intelligenz, die ein Eigenleben besitzt, könne man heute noch nicht sprechen. «Früher haben wir Probleme in der Robotik mit Vereinfachungen, physikalischen Modellierungen und Regelungstechnik gelöst, heute nutzen wir dafür vor allem maschinelles Lernen.» Es hat mittlerweile in praktisch allen Bereichen der Robotik Einzug gehalten: vom Design der Roboter mittels generativen Modellierens in 3D-Simulationen über das Erlernen von Fähigkeiten anhand von Videodaten bis hin zur Bewegungssteuerung mit Algorithmen. «Rund die Hälfte meiner Gruppe arbeitet heute aktiv mit maschinellen Lernmethoden und entwickelt diese weiter», so Katzschmann.
Herkömmliche Methoden, wie beispielsweise die Regelungstechnik, sind geeignet für strukturierte Prozesse, etwa bei kontrollierten Arbeitsabläufen in Fabriken, die sich tausendfach wiederholen. Bei chaotischen Umgebungen und unstrukturierten Aufgaben kommt man damit jedoch nicht weit. Katzschmann macht ein Beispiel: Das Aussortieren von unterschiedlichen Glasflaschen in Kisten ist für Roboterhände bis heute eine grosse Herausforderung, weil die Flaschen unterschiedliche Grössen und Formen haben. Seine Gruppe hat dafür Roboterhände mit 21 Freiheitsgraden entwickelt, die durch Verstärkungs- und Imitationslernen gesteuert werden. Gemeinsam mit den Roboterarmen erreichen die Hände sogar 28 Freiheitsgrade. Um dem Roboter das Flaschengreifen zu lehren, nutzen die Forschenden einen Handschuh, der mit Bewegungssensoren und einer Kamera bestückt ist und von externen Kameras gefilmt wird. Optional können auch Aufnahmen einer Virtual-Reality-Brille mit einfliessen. Mit diesem reichhaltigen Datensatz trainieren sie ein sogenanntes Transformer-Modell, das ähnlich wie ein Large Language Model funktioniert, also dasjenige Modell, auf dem KI beruht. Mit dem trainierten Modell ausgestattet, kann die Roboterhand auch unbekannte Objekte richtig greifen und diese an die beabsichtigte Stelle bewegen. «Mit herkömmlichen Methoden hätten wir zuerst ein Punktwolken-3D-Modell der Umgebung erstellt und jede einzelne Position der Finger zum Greifen einer Flasche programmieren müssen», erklärt Katzschmann. «Und sobald die Flaschen oder die Kisten leicht verschoben waren, wusste die Roboterhand bereits nicht mehr, was zu tun ist.» Ganz anders heute: «Das Greifen ist komplett erlernt, die Hand dadurch sehr adaptiv.» Basierend auf dieser Forschung gründete er im Jahr 2024 zusammen mit vier ehemaligen Doktoranden und Masterstudenten das ETH-Spin-off Mimic Robotics. Das junge Unternehmen will mit KI-gesteuerten robotischen Händen die Welt der Fertigung und Logistik grundlegend verändern.
Stelian Coros ist Computerwissenschaftler und entwickelt Algorithmen für Robotik, Visual Computing und computergestützte Fertigung. Er kümmert sich in erster Linie um die Software, also die Gehirne von Robotern. Die Fortschritte beim Deep Learning, einer Form des maschinellen Lernens, das mit künstlichen neuronalen Netzwerken arbeitet, haben seine Forschung im vergangenen Jahrzehnt stark geprägt. «Heute stehen genügend Daten und Rechenleistung zur Verfügung, damit wir Deep Learning in der Robotik für gezielte Anwendungen nutzen können, zum Beispiel für die automatische Objekterkennung auf Bildern.»
Neuronale Netzwerke sind auch die Basis für eine weitere Form des maschinellen Lernens: das Reinforcement Learning. Dabei lassen Forschende Roboter Dinge ausprobieren, zum Beispiel bestimmte Bewegungsabläufe. Dann vergeben sie Punkte, abhängig davon, wie weit sich der Roboter zum Beispiel vorwärtsbewegt hat oder wie nah er dran war, umzufallen. Indem der Roboter versucht, eine gute Bewertung zu erreichen, verbessert er sich kontinuierlich. «Im Grunde genommen handelt es sich um ein Lernen durch Ausprobieren, so ähnlich, wie wenn jemand das Tennisspielen erlernt», sagt Coros. «Es reicht nicht aus, wenn Roboter sich Youtube-Videos anschauen, in denen gezeigt wird, wie Menschen bestimmte Dinge tun. Die Roboter müssen es selbst tun.» Deshalb erzeugt sein Team viele Daten mit Teleoperation. Dabei werden Bewegungen einer Person auf einen Roboter übertragen. Um menschliche Bewegungen aufzuzeichnen, arbeitet Coros auch mit Technologien, wie sie oft für Animationsfilme genutzt werden. Mit diesen Daten und den passenden Algorithmen können Roboter Bewegungen später situativ wiedergeben und sich menschenähnlich bewegen. Letzteres ist für Coros die Voraussetzung, damit Menschen künftig eng mit Robotern interagieren können.
Auch an der Professur für Robotersysteme von Marco Hutter arbeiten die Forschenden mit Reinforcement Learning. Sie nutzen dafür vor allem Simulationen in virtuellen Umgebungen. «Wir trainieren heute in Simulationen tausende von Robotern gleichzeitig», sagt Cesar Cadena, Senior Scientist am Robotics Systems Lab von Hutter. «Damit generieren wir in einer Stunde so viele Daten wie früher in einem Jahr.» Möglich gemacht haben solche Simulationen enorme Fortschritte bei der Entwicklung von Microchips und Grafikprozessoren. Parallelprozessoren können tausende von Aufgaben gleichzeitig ausführen und sind für KI-Anwendungen zentral. Das Robotics Systems Lab arbeitet deshalb auch direkt mit Nvidia zusammen, einem der weltweit grössten Entwickler von Grafikprozessoren und Chipsätzen. Bereits zwei Doktorarbeiten sind in direkter Zusammenarbeit mit dem Unternehmen mit Sitz in Kalifornien entstanden.
Das virtuelle Reinforcement Learning wird in der Cloud durchgeführt und erfordert sehr hohe Rechenkapazitäten. Im kontinuierlichen Lernmodus stellt sich dabei zwangsläufig die Frage nach der Autonomie. Ein Fabrikroboter kann problemlos dauerhaft mit einer Cloud verbunden sein, um komplexe Arbeitsschritte bestmöglich zu erledigen. Doch was ist mit einem Rettungsroboter, der in einem entlegenen Katastrophengebiet nach Überlebenden sucht? An Orten, an denen es keine Netzverbindung gibt und die Roboter schnelle Entscheidungen treffen müssen? In solchen Fällen müssen die Forschenden einen Teil der benötigten Rechenleistung auf den Roboter übertragen; inklusive der zuvor in der Cloud generierten Daten. «Wir verlieren dann zwar an Rechenkapazität, aber für klar definierte Aufgaben ist das meist immer noch gut genug», sagt Cadena.
Wird der aktuelle KI-Boom die Robotik revolutionieren - oder handelt es sich eher um eine Evolution? Letzteres sei der Fall, sagt Coros. «Die Art der Daten, die für KI und für Roboter von Nutzen sind, unterscheiden sich fundamental.» Das liege vor allem daran, dass Roboter einen Körper haben und mit diesem lernen. Nur so können Bewegungsabläufe generalisiert werden. Damit wird sichergestellt, dass Roboter in verschiedenen Umgebungen funktionieren. KI hingegen schafft Generalisierbarkeit durch einen unendlichen Fluss an Daten; vor allem Texten, aber auch Bildern und Videos. Bis heute gibt es Teile der Robotik-Community, die versuchen, dasselbe zu tun, um ihre Roboter zu verbessern. Sie sammeln Terabyte um Terabyte an Daten von menschlichen Bewegungsabläufen - und trainieren damit ihre Roboter. «Aber das ist nicht skalierbar», sagt Coros. Er macht ein Beispiel: Es gebe Gruppen, die entwickelten Roboter, die Hemden falten. Bis ein Roboter dazu im Stande sei, brauche es rund 10 000 Stunden Demonstrationsdaten - und selbst dann mache er noch Fehler. «Wenn jede einzelne Fertigkeit so viele Daten benötigt, dann ist dieses Konzept schlicht nicht skalierbar.»
Seine Gruppe geht deshalb einen anderen Weg. Sie verwendet zwar auch erlernte Daten, aber gleichzeitig auch physikalische Modelle, um Lücken bei den Demonstrationsdaten zu schliessen. Coros nennt als Beispiel einen Roboterarm, der einen Ball wirft: «Wir verstehen, wie sich ein Ball durch die Luft bewegt, und kennen die physikalischen Gesetze, die diese Bewegung bestimmen.» Der Roboter kann solche Gesetze nutzen, um seinen Wurf so anzupassen, dass der Ball genau an der beabsichtigten Stelle landet. «Dafür brauchen wir keine grossen Datenmengen.» 2023 gründete Coros mit ehemaligen Doktoranden das Spin-off Flink Robotics. Basierend auf KI-gesteuerter Bildverarbeitung und physikalischen Modellen sollen branchenübliche Roboterarme intelligenter gemacht werden, so dass sie Materialien präziser verpacken, entladen und sortieren können. Die Schweizerische Post, der erste Kunde des Spin-offs, will mit dieser Technologie den Paketversand automatisieren.
Zurück im Soft Robotics Lab, wo Biologinnen Zellgewebe für Robotersehnen entwickeln und Chemiker künstliche Muskeln mit Elektroimpulsen zum Leben erwecken. Robert Katzschmann ist überzeugt, dass traditionelle, motorgesteuerte Robotiksysteme bezüglich Generalisierbarkeit an Grenzen stossen. Daran ändere auch die beste KI nichts. «Solche Systeme werden nicht die nötige Anpassungsfähigkeit haben, um mit all den Situationen in der realen Welt umgehen zu können.» Für ihn ist der Körper genauso wichtig wie das Gehirn. Er entwickelt deshalb muskuloskelettale Roboter, die sich an der Natur orientieren. «Die Muskeln bringen die Weichheit und das Skelett die Tragfähigkeit, die wir für komplexe körperliche Arbeiten benötigen», sagt Katzschmann. Die Natur habe es geschafft, extrem stabile und vielseitige Systeme ohne Motoren und Metalle zu bauen. «Sie sollte unser Vorbild sein.»