Nachrichten
Die Top-Neuheiten der Google I/O 2025 im Überblick
KI-Assistenten: So stellt sich Google unsere Zukunft vor
Die Entwicklerkonferenz Google I/O 2025 stand ganz im Zeichen von künstlicher Intelligenz und wie KI-Assistenten unser Leben verbessern können. Hier sind die Details!
Lesedauer: 5 Minuten

TEILEN
Google I/O 2025: Die News
Im Rahmen seiner Entwicklerkonferenz I/O hat Google bei der Keynote die spannendsten Neuerungen präsentiert. Das Event stand ganz im Zeichen künstlicher Intelligenz, denn dem Thema „Android 16“ hatte das Unternehmen bereits vergangene Woche ein eigenes Live-Event gewidmet. Dabei wurden die Neuheiten und Fortschritte bei bereits etablierten KI-Diensten gezeigt. Highlights waren etwa Gemini 2.5 Flash und Pro, Projekt Astra sowie ein „KI-Modus“ in der Websuche. Präsentiert wurden außerdem die sogenannten „AI Agents“, die Benutzer im Alltag als intelligente Assistenten unterstützen. Auch das Projekt „Android XR“ und vor allem die daraus entwickelten smarten Brillen wurden gezeigt. Hier sind die für uns spannendsten Neuheiten von der Google I/O 2025.
1. Google Gemini 2.5
Die von Google entwickelte künstliche Intelligenz erhält mit Google Gemini 2.5 Flash und Pro ein Versionsupgrade und neue Funktionen. Die Pro-Version ist für komplexe Anfragen gedacht und erhält zudem einen „Deep Think“-Modus. Flash hingegen punktet mit schnellen Antwortzeiten und ist auf den Einsatz auf Mobilgeräten ausgelegt. Eine der größten Neuerungen ist „Gemini Live“ (Android und iOS). Benutzer können hier ihre Kamera und den Bildschirm freigeben. Dann können sie sich mit Gemini in natürlicher Sprache über alles, was im Blickfeld zu sehen ist, unterhalten. Zudem wird Gemini in den Chrome-Browser integriert und kann dort im Tab selbst Analysen durchführen, Texte zusammenfassen und mehr.
Auch die Modelle zur Bild- und Videogenerierung erhalten Updates. Imagen 4 kann künftig Bilder noch schneller und detailreicher generieren. Veo 3 setzt als erstes Modell automatisch Soundeffekte sowie Schnitte und kann Dialoge zwischen Charakteren erzeugen.
2. KI-Modus und Deep Search
Auch die Websuche bekommt eine Frischzellenkur. Das Suchverhalten hat sich, nicht zuletzt durch den verstärkten Einsatz von Suchanfragen über Sprachbefehle, dramatisch weiterentwickelt. Heute werden nicht mehr einzelne Keywords in das Suchfeld eingetippt, sondern – ganz wie beim KI-Prompting – komplexe Anfragen gesetzt, oft über mehrere Sätze hinweg. Googles Antwort darauf ist „Übersicht mit KI“, das seit kurzem auch hierzulande verfügbar ist.
Nun soll die Google Websuche noch ein weiteres KI-Feature erhalten: den „KI-Modus“. Dieser teilt die Anfrage in viele Unterthemen auf und analysiert diese parallel. Das Ergebnis sind noch relevantere Suchergebnisse. Für besonders anspruchsvolle Anfragen gibt es „Deep Search“, das Webseiten noch tiefer scannt und präzisere Antworten liefert.
3. Projekt Astra
Wie würde sich eine KI verhalten, die Text, Bilder, Videos, Sprache und Live-Kamera-Feeds in Echtzeit verstehen kann? Dieser Frage ist Google mit dem Projekt Astra nachgegangen. Entstanden ist ein KI-Assistent, der interaktiv und proaktiv handeln kann. Dieser kann sich etwa auf die Suche nach Konzerttickets machen und diese, nach Freigabe durch den Benutzer, in dessen Namen kaufen. Auch Gemini Live hat sich aus diesem Projekt entwickelt. Dabei kann man beispielsweise die Kamera auf ein defektes Schaltwerk richten und Gemini erklärt, wie man es am besten repariert. Selbst die Live-Suche in Google Lens ist eng mit dem Projekt Astra verbunden.
Live-Suche in Google Lens
Auch der visuellen Suche hat Google in seiner Keynote Platz eingeräumt. So können Benutzer mit Google Lens nun auch Live-Suchen durchführen. Mit anderen Worten, wer mit einer Aufgabe oder einem Projekt nicht wirklich weiterkommt, richtet einfach die Kamera darauf und stellt in Echtzeit Fragen dazu. Diese werden von der KI beantwortet, die außerdem Theorien und Konzepte erläutern sowie Lösungsvorschläge liefern kann.
Praktisches Feature: Wer beim Online-Shopping ein Ganzkörper-Bild von sich hochlädt, kann künftig Kleidung virtuell am eigenen Körpermodell anprobieren.
Google Beam
Bei Google Beam handelt es sich um eine Weiterentwicklung des Projekts Starline, einem 3D-Videochat-System. Damit sollen realitätsnahe virtuelle Meetings möglich werden. Dazu nutzt Beam Kameras, Sensoren und künstliche Intelligenz. Erzeugt wird ein hologrammähnliches Bild, das zum Beispiel in Remote-Meetings oder für virtuelle Arztbesuche eingesetzt werden könnte.

4. Android XR: Intelligente Brillen mit KI
Googles Mixed-Reality Plattform Android XR soll künftig auch in Brillen integriert werden, was in einer eindrucksvollen Live-Demo zu sehen war. Diese unterscheiden sich kaum von regulären Sonnen- oder Lesebrillen, verfügen aber über einige praktische Features. Sie können Informationen anzeigen, verfügen über Lautsprecher, Mikrofone sowie Bedienelemente und haben Gemini an Bord. Damit wird beispielsweise eine Live-Unterhaltung zwischen zwei Personen in unterschiedlichen Sprachen möglich – nahezu in Echtzeit.
Zusammenfassung
Mit der Keynote zur Google I/O 2025 hat Google einmal mehr unterstrichen, wie ernst es dem Unternehmen mit der Weiterentwicklung von künstlicher Intelligenz ist. Mit Gemini 2.5, Project Astra und neuen Geräten wie KI-Brillen versucht Google die Menschen im Alltag durch intelligente Assistenzsysteme zu unterstützen, die nicht nur selbständig denken, sondern auch handeln können.
TEILEN