Logo von
Übertragung des Tastsinns über das Internet

Übertragung des Tastsinns über das Internet

Letztes Update: 16. August 2024

Was JPEG für Bilder und MP3 für Audio ist, sind haptische Codecs für die Übertragung des Tastsinns über das Internet. Der neue IEEE-Standard 1918.1.1 ermöglicht telechirurgische Anwendungen und neue Gaming-Erlebnisse, indem er haptische Daten effizient codiert und überträgt.

Die Übertragung des Tastsinns über das Internet: Eine Revolution in der digitalen Kommunikation

Die Übertragung des Tastsinns über das Internet ist eine bahnbrechende Entwicklung, die das Potenzial hat, viele Bereiche unseres Lebens zu verändern. Was JPEG für Bilder, MP3 für Audiodateien und MPEG für Videos ist, das sind haptische Codecs für die Übertragung des Tastsinns über das Internet. Unter der Konsortialführung der Technischen Universität München (TUM) wurde nach acht Jahren Normungsarbeit unter dem Namen „Haptic Codecs for the Tactile Internet“ (HCTI) erstmals ein Standard für die Kompression und Übertragung des Tastsinns veröffentlicht. Dieser Standard legt die Basis für Telechirurgie, Telefahren und neue Online-Gaming-Erfahrungen.

Wie funktioniert die Übertragung des Tastsinns über das Internet?

Wenn Audio- oder Videodateien über das Internet geschickt werden, ist der Ablauf aus heutiger Sicht recht einfach: Alle 20 Millisekunden wird ein Datenpaket geschnürt, aus dem die für das menschliche Sehen und Hören irrelevanten Informationen bereits herausgefiltert wurden. Das reduziert die Datenmenge. Informationen werden dabei lediglich in eine Richtung geschickt, zum Empfangenden. Bei der Übertragung von haptischen Informationen spielen Sendende und Empfangende gleichermaßen eine Rolle. Soll etwa ein Roboterarm aus der Ferne bewegt werden, gibt die Nutzerin oder der Nutzer das durch ihre oder seine Bewegung vor. Greift die Hand am Roboterarm etwa einen Tennisball, spürt die Nutzerin oder der Nutzer das aus der Ferne. Informationen müssen in beide Richtungen fließen. Ein globaler Regelkreis entsteht, in dem sich die Kommandos zum Roboter in der entfernten Umgebung und das haptische Feedback, das zurück zum Nutzenden übertragen wird, gegenseitig beeinflussen. Die Übertragung der haptischen Information muss nun idealerweise in einer Millisekunde vonstattengehen, eine Geschwindigkeit, mit der in der physischen Interaktion mit Robotern üblicherweise gearbeitet wird.

Die Rolle der Codecs bei der Übertragung des Tastsinns

Um die zu versendende Datenmenge zu reduzieren, gibt es sogenannte Codecs, die Daten für die Übertragung codieren und decodieren. So wird eine effiziente Übertragung der Daten möglich. „Im erstmals veröffentlichten IEEE-Standard 1918.1.1 wird ein Codec als Standard für den taktilen Datentransfer definiert“, erläutert Prof. Eckehard Steinbach, Leiter des Lehrstuhls für Medientechnik der TUM. Er erfasst also zum einen die Empfindungen für Bewegungen, also für Positionen der Gliedmaßen und Kräfte, die dort wirken, als auch für die Sensibilität der Haut, um etwa Oberflächen von Papier oder Metall spüren zu können. Ergänzt werden diese beiden haptischen Codecs durch ein standardisiertes Protokoll für den Austausch der Geräteeigenschaften, das sogenannte Handshaking, beim Verbindungsaufbau.

So funktioniert HCTI: Bis zu 4.000 Datenpakete pro Sekunde

Anders als in den Bild-, Audio- und Videokompressionsstandards war es für die Übertragung taktiler Information bisher üblich, bis zu 4.000 Mal pro Sekunde Datenpakete in beide Richtungen loszuschicken. „Das stellt sehr hohe Anforderungen an das Kommunikationsnetz, das die Datenpakete transportiert“, erläutert Steinbach. Vorteil der hohen Taktung: Die Teleoperation ist wirklichkeitsnah und die Übertragung ist sehr robust, selbst wenn einzelne Datenpakete verloren gehen. Dennoch wollen die Forschenden die Taktung auf etwa 100 Mal pro Sekunde reduzieren. „Das ist nahe an der Wahrnehmungsschwelle des Menschen“, sagt Steinbach.

Die Entwicklung des Standards

2014 startete eine Arbeitsgruppe innerhalb der IEEE Standardization Association mit Forschenden unter anderem aus dem Imperial College in London, der New York University of Abu Dhabi (NYU Abu Dhabi), der Chinesischen Dalian University sowie dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) unter der Konsortialführung der TUM mit dem Ziel, einen Standard für die haptische Kommunikation zu entwickeln. „Der neue Codec ist so etwas wie JPEG oder MPEG, nur für die Haptik“, erläutert Prof. Steinbach, der die Standardisierungsgruppe die letzten acht Jahre geleitet hat.

Mögliche Anwendungen für den taktilen Standard

Interessant wird der Standard für diverse künftige Anwendungen:

  • Telechirurgie: Chirurgen könnten Operationen aus der Ferne durchführen und dabei das Gefühl haben, direkt am Patienten zu arbeiten.
  • Telefahren: Fahrer könnten Fahrzeuge aus der Ferne steuern und dabei das Gefühl haben, selbst am Steuer zu sitzen.
  • Online-Gaming: Spieler könnten ein immersiveres Erlebnis haben, indem sie die virtuelle Umgebung nicht nur sehen und hören, sondern auch fühlen können.

„Auch bei JPEG, MP3 oder MPEG entstanden viele Anwendungen, nachdem der Standard öffentlich war“, erläutert Prof. Eckehard Steinbach von der TUM, „das erwarte ich auch von unseren neuen haptischen Codecs.“

Weitere Informationen

Im Munich Institute of Robotics and Machine Intelligence (MIRMI) ist Prof. Eckehard Steinbach als einer der Vorstände für die Themen Start-ups und Infrastruktur tätig. Mit dem MIRMI hat die TUM ein Integratives Forschungsinstitut geschaffen, das über führende Expertise in den Bereichen Robotik, Perzeption und Datenwissenschaft verfügt. Executive Director ist Prof. Sami Haddadin.

Eine wichtige Rolle für die Entwicklung des taktilen Internets spielt der Exzellenzcluster CeTi. Im Centre for Tactile Internet with Human-in-the-loop (CeTi) arbeiten Forschende der Technischen Universität München (TUM) und vom Konsortialführer Technischen Universität Dresden seit 2019 gemeinsam an dem Ziel, die Zusammenarbeit zwischen Mensch und Maschine auf ein neues Level zu heben.

Vorarbeit im Sonderforschungsbereich SFR453: Informationen, die in Lichtgeschwindigkeit durch Glasfasernetze geschickt werden, legen maximal 300 Kilometer in einer Millisekunde zurück. Von Deutschland bis nach Japan wären die Daten dann schon 30 Millisekunden unterwegs. Und das ist nur die reine Übertragungszeit. Hinzu kommen weitere Verzögerungen, durch die Darstellung im Endgerät und eingesetzte Sensoren. Um dennoch auch über weite Strecken hinweg eine für den Menschen nicht merkliche Verzögerung in der Datenübertragung möglich zu machen, arbeiteten Forschende der Technischen Universität München (TUM) und dem Institut für Robotik und Mechatronik am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen zusammen. Im von der Deutschen Forschungsgesellschaft (DFG) geförderten Sonderforschungsbereich SFB453 entwickelten sie schon 2008 eine neue Generation von haptischen Codecs, die zwei Dinge zusammenbrachte – die Regelung zur Stabilisierung der „Teleoperation in der Gegenwart von Verzögerungen“ und „wahrnehmungsmodellbasierte Kompression der haptischen Daten“. Dass diese Entwicklungen möglich wurden, ist auch auf die Forschungen vom damaligen DLR-Prof. Gerhard Hirzinger zurückzuführen, dessen Team Daten zwischen der Raumstation ISS und der Erde durch einen Stabilisierungsalgorithmus handhabbar machte.

Die Technische Universität München (TUM) ist mit rund 650 Professuren, 52.000 Studierenden und 12.000 Mitarbeitenden eine der weltweit stärksten Universitäten in Forschung, Lehre und Innovation. Ihr Fächerspektrum umfasst Informatik, Ingenieur-, Natur- und Lebenswissenschaften, Medizin, Mathematik sowie Wirtschafts- und Sozialwissenschaften. Sie handelt als unternehmerische Universität und sieht sich als Tauschplatz des Wissens, offen für die Gesellschaft. An der TUM werden jährlich mehr als 70 Start-ups gegründet, im Hightech-Ökosystem München ist sie eine zentrale Akteurin. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Büros in Brüssel, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder:innen wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006, 2012 und 2019 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings wird sie regelmäßig als beste Universität in der Europäischen Union genannt.

Diese Artikel könnten dich auch interessieren

Die Übertragung des Tastsinns über das Internet ist ein faszinierendes Thema, das die Art und Weise, wie wir digitale Inhalte erleben, revolutionieren könnte. Stellen Sie sich vor, Sie könnten nicht nur sehen und hören, sondern auch fühlen, was auf Ihrem Bildschirm passiert. Diese Technologie könnte besonders für Handwerk Simulatoren realitätsnah testen von großem Nutzen sein. Sie könnten Werkzeuge und Materialien in einer virtuellen Umgebung spüren, was das Training und die Simulationen noch realistischer macht.

Ein weiteres Anwendungsgebiet könnte die Verbesserung der Sicherheit bei Gaming-Events sein. Die Möglichkeit, den Tastsinn zu übertragen, könnte neue Dimensionen in der Cybersecurity für Gaming-Events eröffnen. Stellen Sie sich vor, Sie könnten physische Rückmeldungen erhalten, wenn ein Sicherheitsproblem auftritt. Dies könnte die Reaktionszeit verkürzen und die Sicherheit der Teilnehmer erhöhen.

Auch im Bereich der virtuellen Realität gibt es spannende Entwicklungen. Das MHP virtuelles Training Apple Vision Pro könnte durch die Übertragung des Tastsinns noch immersiver werden. Sie könnten Bewegungen und Objekte in einer virtuellen Umgebung spüren, was das Training realistischer und effektiver macht. Die Zukunft der digitalen Interaktion wird durch diese Technologie neu definiert.