Nils Berger, CEO Viewpointsystem GmbH
Reading Time: 5 minutes
‘Wir haben das menschliche Blickverhalten digitalisiert’, sagt Nils Berger, CEO von Viewpointsystem GmbH. Mit der Entwicklung der Technologieplattform ‘Digital Iris’ ist es bereits heute möglich die Wahrnehmung des Trägers mit einer smarten Brille in Echtzeit zu identifizieren. Das Auge wird so zur Schnittstelle zwischen Mensch und Maschine. Man arbeitet aber bereits an Möglichkeiten, dem Träger in Zukunft komplett individualisierte Informationen unter Bezugnahme auf persönliche Präferenzen und körperliche Möglichkeiten zur Verfügung zu stellen.
Im Sinne des Taskfarm Konzepts wurde von Helmut Blocher, Geschäftsführer Succus Gmbh, auf das Interview eingeladen.
Ihr arbeitet daran, die Augen zum Interaktionspunkt zwischen Mensch und Maschine zu machen.
Nils Berger: Wir sind ein sogenanntes Deep Tech Unternehmen. Ursprüngliche Bedeutung dieses Begriffs war, dass man aus dem tiefsten R&D kommend einen Social Impact auf die Menschen haben wird und ihr Verhalten verändern wird. Als solches sehe ich die Viewpointsystems und die Technologie dahinter. Wir arbeiten daran, für Mixed Reality-Anwendungen die Augen zur Schnittstelle zum digitalen Content zu machen. Mit dem Hintergedanken: ‚the eyes are the interface – the mind is the selector‚.
Das Kernproblem ist, dass wir Menschen, ohne dass es uns bewusst ist, einen ganz klaren Selektionsmechanismus haben. Das heißt, wenn unsere Augen etwas sehen, läuft immer der gleiche vierstufige Prozess ab: sehen, wahrnehmen, identifizieren und entscheiden.
Das Sehen ist eine ballistische Bewegung, die keine Informationen ans Gehirn weiterleitet. Wahrnehmen bedeutet, dass die Information weitergeleitet wird, beim Identifikationsvorgang wird sie kognitiv verarbeitet und dann eben entschieden. Diesen Vorgang machen wir automatisch und unser Gehirn blockt alle für uns nicht relevante Information aus. Die Selektion erfolgt auf der einen Seite durch persönliche Präferenzen, das ist bei jedem Menschen anders, zum anderen ist es ein Selbstschutz. Würden wir alle Informationen bekommen, die die Augen bereitstellen könnten, wären wir komplett überfordert.
Wenn ich heute eine Datenbrille trage, die eine Kamera nach vorne hat, dann wird diese in naher Zukunft Gesichter und Firmenlogos identifizieren können, Informationen lesen und verarbeiten, QR Codes scannen u.s.w. Die Objekterkennung wird irgendwann soweit funktionieren, dass das System meine gesamte Umwelt erfassen kann.
Euer Fokus ist Eye Tracking?
Nils Berger: Wir haben die erste Technologieplattform auf der Basis von Eye Hyper-Tracking entwickelt, Digital Iris. Anders als beim normalen Eye Tracking sind wir so weit, dass wir die Wahrnehmung des Trägers in Echtzeit identifizieren können. Die Augenbewegungen lassen sich kaum manipulieren, sie sind daher ein wichtiger Schlüssel für die Erfassung des kognitiven und emotionalen Zustands eines Menschen. Wofür interessiert sich der Träger, wie geht es ihm in einer bestimmten Situation? In der Zukunft können wir ihm auf der Basis dieser Erkenntnisse zu jeder Zeit genau die Information auf dem Display einblenden, die er individuell gerade benötigt. Und dass sogar dann, wenn der Träger sich gar nicht bewusst ist, dass er eine bestimmte Information braucht.
Für welche Bereiche werden die Smartglasses entwickelt?
Nils Berger: Wir haben heute einen hundertprozentigen Fokus auf Business to Business. Unsere Kunden sind Industrieunternehmen, Kunden aus dem Sicherheitsbereich und polizeiliche Institutionen. Die Technologie, die der normale Mensch, der Konsument, akzeptiert auf der Nase zu tragen, die gibt es im Moment noch nicht. Die Geräte sind noch zu groß und zu schwer. Wir brauchen noch fünf bis sieben Jahre, bis Smartglasses beim Konsumenten auf breite Akzeptanz stoßen werden.
In der Industrie ist das Hauptanwendungsgebiet, die Durchführung von Remote-Reparaturen zu unterstützen?
Nils Berger: Genau. Wir können in Echtzeit den Fokus des Trägers ganz einfach ohne zusätzliche Infrastruktur streamen und bidirektional kommunizieren. Der Experte an einem anderen Standort kann über einen Link im Browser quasi durch die Augen des Trägers in Echtzeit auf die Situation schauen. Der Experte sieht, worauf er fokussiert ist, das erleichtert ihm zu verstehen, welches Problem es gibt und ob der Anwender auf die richtige Thematik schaut. Es ist dann beispielsweise auch möglich, remote ein Foto aus diesem Stream zu machen, etwas hineinzuzeichnen und es zurückzuschicken.
Das reduziert in schwierigen Situationen die Interpretationsmöglichkeiten auf null, weil der Experte immer sieht, ob der Anwender auf das Richtige schaut. Er könnte ihn beispielsweise anleiten, von der Sicherung, auf die er schaut, vier nach rechts zu zählen und dort das Kabel zu fixieren.
All das können wir heute schon. Zudem kann der Träger intuitiv per Blicksteuerung, d.h. über Augen-Gesten, mit dem digitalen Content interagieren. So können wir beispielsweise QR-Codes ansehen, den richtigen per Blick auswählen und ihn auf der Brille mit Augen-Gesten weiter bearbeiten.
Das bedeutet, dass Sprechen, Zeigen, Pinchen, Swipen u.s.w. nun nicht mehr notwendig ist, um zu interagieren.
Das klingt wie eine Art seamless Interface.
Nils Berger: Das Wichtigste beim Thema Mixed Reality ist die Immersion, das bedeutet, dass die physische und die digitale Welt total miteinander verschmelzen.
Dafür brauche ich ein Interface, das nicht ständig bewusste Entscheidungen fordert, denn seamless heißt ja auch, nicht nur bewusste Entscheidungen zu treffen, sondern dass bestimmte Dinge von dem System für mich entschieden werden, weil das System mich kennt, versteht und vor allem weiß, was mich interessiert.
Ein Beispiel: Man schaut in der echten Welt mit den Augen auf ein Gesicht, dieses Gesicht wird über facial recognition erkannt, dann wird mir die Information ins Display gespielt. Dort ist es möglich mit den Augen Aktionen auszuwählen – wie beispielsweise: weitere Informationen finden, anrufen, speichern, usw.
Die Steuerung über die Augen eröffnet auch im Bezug auf die soziale Akzeptanz eine komplett neue Dimension. Die Augen sind einfach die natürlichste und intuitivste Schnittstelle, um mit visueller Informationen zu interagieren.
Wenn wir zehn Jahre in die Zukunft schauen, wie, denkst du, wird die Entwicklung voranschreiten?
Nils Berger: In zehn Jahren werden wir kein Smart Phone mehr benutzen. Wenn ein paar technische Limitationen gelöst wurden, und davon bin ich überzeugt, werden wir eine fast flächendeckende Abdeckung mit 5G haben. Die Entwicklung von Batterien wird einen großen Sprung in Gewicht, Größe und Speicherkapazität gemacht haben, das bedeutet eine 24h Laufzeit unseres Systems. Computing Power wird wenig Energie und Platz brauchen und Displays können mit dem echten Sonnenlicht konkurrieren und trotzdem noch Informationen bereitstellen. In zehn Jahren, da bin ich sehr zuversichtlich, werden wir alle Smartglasses auf der Nase tragen, die wie ganz normale Brillen aussehen, nach Bedarf mit oder ohne Korrekturgläsern. Das Smartphone rutscht sozusagen auf die Nase, und die technischen Funktionen werden sich in einen normalen Brillenrahmen integrieren lassen.
Mit Individualised Behaviour Prediction Modelling werden wir Information mit biometrischen Daten verknüpfen. Das heißt, das System weiß, wer ich bin, wie ich bin, was mich interessiert und wie mein aktueller Zustand im jeweiligen situativen Kontext ist, rational wie emotional. Daher kann es mir die richtigen Vorschläge und die richtige Information zur richtigen Zeit anbieten.
Ein Beispiel: Ich bin in acht Jahren in Kuala Lumpur auf dem Weg zu einem wichtigen Meeting. Ich habe skandinavische Vorfahren. Ich kann nicht gut mit hoher Luftfeuchtigkeit und hohen Temperaturen umgehen. Zudem orientiere ich mich schlecht in Großstädten. Mein System, das ich auf der Nase trage, versteht die Situation und merkt, wie sich mein Herzschlag erhöht und ich zu schwitzen beginne. Es weiß aber auch, das ich nur einen vierminütigen Laufweg habe, aber noch 15 Minuten Zeit. Daher der Vorschlag, ‘Zieh dein Sakko aus und gehe gemütlich dahin’. Ich komme gar nicht in eine Stresssituation, weil mein System mich aufgrund der Parameter und Indikatoren vorher schon abholt.
Die Vision wäre, dass wir in zehn Jahren keine Entscheidungen mehr treffen ohne unsere Brille oder ohne zusätzliche Daten?
Nils Berger: Entscheidungen ist zu weit gegriffen. Ich glaube, es werden uns Wahlmöglichkeiten in Form von individualisierten Support-Systemen zur Verfügung gestellt.
Ein System, das dich so gut kennt, kann die für dich richtigen Wahlmöglichkeiten in Echtzeit bereitstellen, ohne dass du aktiv etwas dazu tun musst. Es wird dich schützen, bevor du in Stresssituationen kommst.
Die Entscheidungen, hoffe ich, wird immer noch der Mensch treffen.
Welche Jobs werden wir in Zukunft benötigen, die noch keinen Namen haben?
Nils Berger: Eigentlich brauchen wir optoelektronische Neuroscience-Softwareentwickler. Wir haben die Herausforderung, dass wir die Technologie an den Menschen anpassen müssen. Wir entwickeln etwas, was der Mensch auch akzeptiert.
Wir arbeiten mit Real Time Image Processing, daher ist Optoelektronik für uns extrem wichtig. Viele Prozesse laufen auch im Unterbewusstsein ab. Daher ist Neuroscience und die Frage, wie der Mensch Entscheidungen trifft, die Basis für unsere Entwicklung. Diese Faktoren müssen wir in ein Embedded System gießen, also Software und Hardware dafür entwickeln.
About:
Nils Berger ist erfahrener Gründer und Serial Entrepreneur mit langjähriger Erfahrung in den Bereichen Informationsdienstleistungen, Technologieberatung und Automatisierungstechnik. Nils‘ Deep-Tech-Unternehmen Viewpointsystem hat die preisgekrönte „Digital Iris“-Technologie erfunden, die die Augen als HMI nutzt. DI macht Eyetracking für Mixed Reality anwendbar und schafft eine intuitive Verbindung zwischen Mensch und Maschine.
Nils ist Referent zu Themen wie HMI, Human Behavior Modeling und Mixed Reality. Aktuelle Vortragsverpflichtungen: Europäischer Innovationsrat 2019, IOT-Konferenz 2019, WEAR IT Innovation Summit 2019, AWE USA 2019, CES 2019, Innovative Enterprise Vienna 2018, WTC San Francisco 2018, AWE USA 2018