5G-Netze versprechen Hochgeschwindigkeits- und vor allem latenzarme Mobilfunkverbindungen, die eine echte digitale Revolution einleiten.
Die höhere Datengeschwindigkeit wird allgemeinhin als der wichtigste Vorteil der neuen 5G-Technologie angesehen. Dabei wird jedoch häufig ignoriert, dass 5G auch dazu genutzt werden kann, um eine sehr viel wichtigere Herausforderung anzugehen, nämlich die Reduzierung der Netzwerklatenz. Mit Latenz ist die Verzögerung in der Ende-zu-Ende-Kommunikation gemeint. Genauer gesagt bezieht sie sich auf die Zeit zwischen dem Senden einer bestimmten Information und der entsprechenden Antwort.
Um das Ganze anhand eines Beispiels zu verdeutlichen: Bei einem ferngesteuerten Fahrzeug ist die Latenz die Zeit, die zwischen dem Klicken auf „Stopp“ und dem Moment vergeht, in dem das Fahrzeug tatsächlich zu bremsen beginnt. Wenn sich die Latenz auf Seiten der Endbenutzer von Zehntel- und Hundertstelsekunden auf wenige Millisekunden reduzieren ließe, könnte dies enorme Auswirkungen haben und zu einer regelrechten digitalen Revolution führen.
Die geringen Verzögerungszeiten, die durch die Entwicklung von auf 5G basierenden Mobilfunknetzen ermöglicht werden, eröffnen völlig neue Benutzererlebnisse und Möglichkeiten. Dazu zählen beispielsweise mobile Multiplayer-Spiele, Virtual-Reality-Erlebnisse, Fabrikroboter, selbstfahrende Autos und andere Anwendungen, für die eine schnelle Reaktionszeit nicht nur erwünscht, sondern unbedingt erforderlich ist.
In puncto selbstfahrende Fahrzeuge bieten die derzeitigen Mobilfunknetze bereits eine Vielzahl von Tools, die einige der technologischen und geschäftlichen Anforderungen erfüllen. Der Standard LTE Cat-M und die neue schmalbandige Funktechnologie – im Fachjargon NB-IoT (Narrowband IoT) genannt – sind in dieser Hinsicht Beispiele für hervorragende Sensorkommunikationstechnologien mit geringem Stromverbrauch. Damit die Fahrzeuge jedoch in der Lage sind, komplexe Manöver auszuführen oder individuelle Aktionen zu bestimmen und zu empfehlen, wie zum Beispiel das Beschleunigen oder Abbremsen, sowie Fahrspurwechsel oder Routenänderungen, müssen sie die dafür erforderlichen Informationen nahezu in Echtzeit austauschen und empfangen können. Um diese niedrige Latenz bereitstellen zu können, ist die Entwicklung einer allgemeinen 5G-Systemarchitektur erforderlich. Nur auf diese Weise lässt sich eine optimierte und durchgängige V2X-Konnektivität (Vehicle-to-Everything) erreichen.
Wenn es um die Beschleunigung des Kommunikationsprozesses geht, lassen sich verschiedene technologische Wegbereiter identifizieren. Zunächst einmal ermöglicht der 5G-Standard eine hervorragende Latenzleistung im Hinblick auf die Funkzugangsverbindung, indem ein flexibler Rahmen für die Unterstützung verschiedener Dienste und QoS-Anforderungen bereitgestellt wird. Dieser Rahmen beinhaltet unter anderem eine skalierbare Übertragungsslot-Dauer, Mini-Slots und Slot-Aggregation, eine in sich geschlossene Slot-Struktur (also Übertragungsslots, die sowohl Downlink- als auch Uplink-Daten enthalten) sowie eine Traffic-Vorwegnahme. Dadurch können unterschiedliche Übertragungsmuster für verschiedene Dienste genutzt werden.
Ein weiteres wichtiges Merkmal ist der Einsatz von Backhaul-Systemen auf Glasfaserbasis: Bei 2G- und 3G-Mobilfunknetzen wurden traditionell kupferbasierte Leitungen verwendet, um Funkzellen mit dem Mobile Backhaul-Netz (MBH) zu verbinden. Die MBH-Architektur war allerdings bereits bei der 4G-Einführung nicht mehr zeitgemäß. Aus diesem Grund werden MBH-Systeme auf der ganzen Welt modernisiert. Hierbei wird die veraltete kupferbasierte MBH-Architektur zur Versorgung von Funkzellen durch eine paketbasierte Übertragung per Glasfaser ersetzt, um deutlich höhere Kapazitäten zu erhalten und die Zukunftssicherheit von MBH-Netzen zu gewährleisten. Angesichts der nahezu unbegrenzten Bandbreite glasfaserbasierter Netze werden auch zukünftige 5G-Netze von diesen technologischen Modernisierungen profitieren.
Obwohl die Verbindungsart ein zentraler Aspekt ist (Glasfaserkabel ermöglichen beispielsweise eine deutliche schnellere Datenübertragung), bleibt die Entfernung auch weiterhin einer der wichtigsten Faktoren bei der Bestimmung der Latenz: Je größer die Entfernung ist, die physisch von den Daten zurückgelegt werden muss, desto länger fällt auch die Kommunikationsverzögerung aus, und zwar unabhängig von der Verbindungsgeschwindigkeit. Aus diesem Grund kommt dem Edge Computing die eigentliche tragende Rolle bei dieser technologischen Revolution zu. Es basiert auf dem Konzept, möglichst viele Ressourcen an den Rand des Netzwerks und somit in die Nähe des Endbenutzers zu verlagern.
Wir befinden uns im Zeitalter des Cloud Computings. Viele von uns besitzen zwar immer noch einen PC, aber in der Regel nutzen wir ihn nur noch, um auf zentrale Dienste wie Dropbox, Office 365 und Gmail zuzugreifen. Bei Geräten wie Apple TV, Amazon Echo und Google Chromecast stehen jedoch Inhalte und Informationen im Vordergrund, die in der Cloud gespeichert sind. Mittlerweile wurden nahezu alle Dienste zentralisiert, bei denen die Möglichkeit dazu bestand. Beim Edge Computing geht es hingegen darum, den Großteil der Rechenressourcen an den Rand des Netzwerks zu verlagern. Durch die Nutzung eines stärker verteilten Netzwerks soll der Prozess der Zentralisierung wieder umgekehrt werden. Die Datenverarbeitung erfolgt also direkt an oder in der Nähe der Quelle, anstatt dafür über eines von dutzenden entfernten Rechenzentren auf die Cloud zuzugreifen. Das soll keineswegs heißen, dass die Cloud in Zukunft keine Rolle mehr spielen wird, sondern vielmehr, dass sie näher zum Endbenutzer gebracht wird. Durch die Verringerung der Entfernung zwischen dem Benutzer und den Rechenressourcen kann das Edge Computing bei Bedarf für eine niedrigere Latenz sorgen.
Im bereits erwähnten Fall der selbstfahrenden Fahrzeuge kann eine Verzögerung von nur wenigen Millisekunden dazu beitragen, einen Unfall zu verhindern. Selbstfahrende Autos müssen sofort auf wechselnde Straßenverhältnisse reagieren können und können nicht erst auf Anweisungen oder Empfehlungen eines weit entfernten Cloud-Servers warten. Lokalisiert man Server und Rechenressourcen in Einrichtungen am Rand des Netzwerks, können Unternehmen sowohl in Gebieten mit hohem Datenaufkommen als auch in abgelegenen Regionen mit begrenzter Bandbreite sicherstellen, dass autonome Fahrzeuge mit minimaler Latenz auf verwertbare Daten zugreifen können. Dadurch können Entscheidungen nahezu in Echtzeit getroffen werden.
Persönliche Kommunikation muss nahezu in Echtzeit ablaufen, ganz besonders, wenn sie nonverbale Kommunikationselemente unseres Gegenübers enthält. Reply hat bereits Lösungen entwickelt, die eine holografische Telepräsenz (Holobeam) und die Kommunikation zwischen mehreren Parteien innerhalb der virtuellen Realität ermöglichen. Dazu zählen beispielsweise VR-Schulungen oder virtuelle Rundgänge. Sobald menschliche Avatare eine fotorealistische Qualität aufweisen, werden diese Lösungen enorm von einer Kommunikation mit niedriger Latenz profitieren.
Darüber hinaus arbeitet Reply aktiv an der Weiterentwicklung der Bereiche CloudVR und Cloud-Gaming. Statt wie bisher auf teure VR-fähige PCs oder Spielkonsolen angewiesen zu sein, soll die Berechnung der dafür erforderlichen Daten in Zukunft über das Edge Computing erfolgen. Konkret bedeutet dies, dass der Kunde per Streaming in Echtzeit auf VR-Welten oder Spiele zugreifen kann. Um dies zu bewerkstelligen, ist ein hoher Durchsatz erforderlich. Außerdem müssen die Bewegungen/Eingaben des Benutzers nahezu verzögerungsfrei an den Rand des Netzwerks gesendet werden.