15. Mai 2024, 15:32 Uhr | Lesezeit: 5 Minuten
Am Dienstag fand Googles jährliche Entwicklerkonferenz statt, auf der das Unternehmen eine Reihe von Software-Neuheiten präsentierte.
Die I/O ist das Google-Gegenstück zu Apples WWDC und fand auch 2024 wie gewohnt Mitte Mai statt. Die Abkürzung steht für Input/Output, was die Datenübertragung von oder zu einem Computersystem beschreibt. In erster Linie handelt es sich um eine Konferenz für Entwickler, bei dem Google Neuheiten in seinen Software-Produkten vorstellt. TECHBOOK fasst die spannendsten Neuheiten zusammen
Neuigkeiten zu Android 15
Zwar hat Google keine Neuerungen spezifisch für Android 15 vorgestellt – dafür aber eine Reihe von KI-Features, die bald zu dem Smartphone-Betriebssystem kommen. Die Funktionalität von Circle to Search wird ausgeweitet, um bei den Hausaufgaben zu helfen. Kommen Schüler oder Studenten bei einer Matheaufgabe nicht weiter, können sie Gemini fragen und nicht nur eine Antwort, sondern den ausführlichen Lösungsweg erhalten.
Gemini soll sich zudem bald über Apps legen können, sodass eine direktere Interaktion möglich ist. So lassen sich etwa generierte Bilder schneller per Drag-and-drop in andere Apps einfügen. Außerdem erscheint in bestimmten Kontexten eine „Frage diese App“-Fläche. Damit finden Nutzer Informationen in YouTube-Videos und sogar PDFs schneller, ohne alles durchsuchen zu müssen.
Auch für Menschen mit Sehbehinderung verbessert Gemini die TalkBack-Funktion in Android. Laut Google stoßen Nutzer auf 90 unbeschriftete Bilder pro Tag. Die KI löst das Problem, indem sie fehlende Informationen ausfüllt. Da Google dafür auf das kleine Gemini-Nano-Modell zugreift, findet die Datenverarbeitung schnell und sicher auf dem Gerät statt.
Gemini Nano soll außerdem bald in der Lage sein, bei Anrufen in Echtzeit zu erkennen, ob es sich um einen Betrugsversuch handelt. Tauchen etwa Phrasen auf, die oft für Scam-Anrufe zum Einsatz kommen, erscheint eine Warnmeldung auf dem Display. Das Feature soll noch 2024 zu Android kommen.
KI auf der Keynote allgegenwärtig
Einer der ersten Punkte auf der Tagesordnung, den Google-CEO Sundar Pichai auf der I/O vorstellte, ist AI Overviews. Seit einiger Zeit testet Google die Integration von Gemini in seiner Suchmaschine. Nutzer können der KI direkt im Suchfeld komplexe Fragen stellen und maßgeschneiderte Antworten basierend auf Internet-Inhalten erhalten. AI Overviews startet diese Woche offiziell in den USA und soll Pichai zufolge bald auch in anderen Ländern zur Verfügung stehen.
Auch in die Photos-App findet Gemini Einzug. Dort war es bislang möglich, mit einfachen Begriffen nach bestimmten Bildern zu suchen. Durch Gemini und die neue „Ask Photos“-Funktion wird das noch einfacher. Ein Beispiel auf dem Event ist das Autokennzeichen. Musste man bislang alle Bilder mit Kennzeichen in der App nach dem eigenen durchsuchen, so kann Gemini intelligent erkennen, bei welchem es sich um das korrekte handelt. Auch bestimmte Erinnerungen lassen sich so schneller finden – etwa mit: „Wann hat Lucia Schwimmen gelernt?“.
Google erweitert die Datenmenge, die Gemini verarbeiten kann, auf eine Million Kontextpunkte – etwa in Text, Audio oder Video. Je umfangreicher der Kontext, den man der KI füttert, desto präziser ist der Output. Das Update ist zuerst für Entwickler und Abonnenten von Gemini Advanced in 35 Sprachen verfügbar. Einige Entwickler können in einer Vorschau-Version sogar zwei Millionen Kontextpunkte verwenden.
Außerdem weitet Google Gemini auf seine Workspace-Apps für Unternehmen aus. Die KI kann E-Mails samt Anhang wie PDFs analysieren und die wichtigsten Punkte zusammenfassen. Auch die Highlights aus einem aufgenommenen Konferenz-Call fasst Gemini zusammen. Selbstverständlich ist auch das automatisierte Verfassen von E-Mail-Entwürfen möglich.
AI Agents und Project Astra
Einer der größten Neuerungen sind AI Agents, die den Nutzern noch mehr Aufgaben abnehmen können, indem sie eigenständig Aufgaben erkennen und ausführen. Als Beispiel nennt Pichai die Rückgabe eines Online gekauften Artikels: Gemini sucht den Beleg und die Order-Nummer, füllt das Rücksendeformular aus und veranlasst die Abholung. Die Entwicklung ist ein Schritt in Richtung eines multimodalen KI-Assistenten, den Google „Project Astra“ nennt.
Astra kann über die Smartphone-Kamera die Umwelt erkennen und kontextbasierte Fragen beantworten. Ein Pfeil auf einem Lautsprecher und die Frage, worum es sich dabei handelt, reicht aus, um die Antwort „ein Hochtöner“ zu erhalten. Zeigt man Astra Programmier-Code, kann die KI erkennen, was dieser Code ausführt. Ein Schwenk aus dem Fenster über die Dächer genügt Astra, um den Standort zu finden.
Die Google I/O 2024 war voll von KI und das ist dem Unternehmen bewusst. Am Ende nahm Pichai es selbst etwas auf die Schippe. Er erklärte, dass es mit KI ganz einfach sei, herauszufinden, wie oft das Wort „AI“ gefallen ist. Die Bilanz: 121 Mal.
Konkurrent für GPT4 Google launcht Gemini, sein bislang „leistungsfähigstes“ KI-Modell
Dienste werden schlauer Die KI-Neuheiten von Googles Entwicklerkonferenz
Fehlerhafte Kurzzusammenfassungen „Mit Klebstoff Pizza backen!“ AI Overviews von Google machen die Suche unzuverlässig
Keine Smartphone-Hardware auf der Google I/O 2024
Im Internet kursieren zwar bereits detaillierte Leaks zum kommenden Pixel 9. Auf der I/O 2024 hat Google jedoch kein Wort darüber verloren. Das Unternehmen hat gerade erst das Pixel 8a vorgestellt, das seit Dienstag verfügbar ist. Neue Generationen der Pixel-Serie erscheinen in der Regel im Herbst.
Auf der I/O 2023 hatte Google das Pixel Fold vorgestellt. Die zweite Generation des Falt-Smartphones dürfte jedoch ebenfalls erst im Herbst mit Pixel 9 erscheinen. Es gibt sogar Vermutungen, dass das Fold Teil der Hauptreihe werden und den Namen „Pixel 9 Pro Fold“ bekommen soll, wie „Android Authority“ berichtet.
Die einzige Hardware-Neuerung auf der Google I/O 2024 ist ein neuer Tensor-Prozessor (TPU), der jedoch nur für Server-Kunden interessant ist.