Digital

Neue Produkte von Google: Was macht eigentlich der Weiße Hai auf der Bühne?

• Bookmarks: 17


Der weiße Hai sucht in der Augmented Reality nach Wasser.

Auf der Entwicklerkonferenz hat Google wieder einmal gezeigt, dass es dem Unternehmen um alles geht: Software, Hardware und natürlich Künstliche Intelligenz. Jetzt lockt Google sogar mit günstigen Smartphones.

Einmal im Jahr stellt Google auf seiner Entwicklerkonferenz alle Neuigkeiten vor, die das Unternehmen zu verkünden hat. Da kommt einiges an News zusammen. Und es ist schwer, all das zusammenzufassen, weil sich Google in den letzten Jahren immer breiter aufstellt. Praktischerweise liefert das Unternehmen schon seit dem letzten Jahr die Formel gleich mit, die es ziemlich gut trifft: AI + Software + Hardware. Den Rest ergibt von selbst: AI + Software + Hardware = Google. Alle drei Summanden sind voneinander abhängig. Jede Google-App profitiert immer mehr von Künstlicher Intelligenz, die im vollen Umfang nur auf den hauseigenen Smartphones Pixel zu bekommen sind. In dem Smartphone versteckt sich der komplette Google-Kosmos.

Während der Präsentation in Kalifornien fällt immer wieder der Begriff des „Machine-Learning-Models“. Das sind mathematische Modelle, die dafür sorgen, dass die Apps Vorhersagen treffen, Sprache verstehen und übersetzen, vor Staus warnen, Rezepte vorschlagen, Reservierungen selbst machen, auf Veranstaltungen hinweisen oder alle Fotos zeigen, auf denen Hunde zu sehen sind.

Bisher brauchte es viel Rechenpower für diese KI-Anwendungen, weil Dutzende Gigabyte Daten verarbeitet werden mussten. Deshalb wurden sie in die Cloud verlagert, wo Server mit entsprechender Leistung die Arbeit übernahmen. Google hat es nun geschafft, den Speicherbedarf dieser Modelle so zu reduzieren, dass sie auf ein Smartphone passen. So wurde als Beispiel genannt, dass die Datenmenge von 100 Gigabyte auf 0,5 Gigabyte geschrumpft wurde.

–>

Raus aus der Cloud, rein ins Smartphone

Die Anwendungen funktionieren damit sogar offline. Der eigentliche Clou ist ein anderer. Alle Aktionen auf dem Smartphone passieren in Echtzeit, also ohne Latenz. Wer zurzeit etwa den Google Assistent auf seinem Android-Gerät nutzt, kann förmlich zuschauen, wie nach einem Befehl oder einer Frage die Daten erst in die Cloud und dann wieder zurück auf das Display wandern. Während der Präsentation auf der Bühne hat Google gezeigt, wie es bald funktionieren wird. Das Smartphone nimmt die gesprochenen Worte direkt auf, öffnet neue Apps, wechselt zu ihnen, schreibt Sätze, verschiebt Elemente zwischen den Apps. Dabei wurde der Assistent einmal mit „Hey Google“ geweckt, danach folgten ausschließlich sprachliche Anweisungen.

An der sprachlichen Kommunikation mit dem Computer wird auch in Zukunft kein Weg vorbeiführen. Was Amazon und Apple ebenfalls vorantreiben, hat auch bei Google Priorität. Ein paar Beispiele: Hält man die Kamera auf ein Warnschild, liest das Smartphone die Worte bei Bedarf vor und übersetzt sie gegebenenfalls. Mit „Duplex on the web“ kann man etwa ein Auto mieten, indem man sagt „Buche ein Auto für den nächsten Urlaub“. Dann gleicht Google die Daten mit dem Kalender ab, öffnet die Homepage des Verleihers, füllt automatisch die Formulare aus, schlägt ein Modell vor und bucht es. „Live Caption“ stellt Sprache in Videos als Text dar, die dann wie ein Untertitel live eingeblendet werden. Oder man tippt in einem SMS-Dialog die Worte ein, die dem anderen vorgesprochen werden.