Siri war jahrelang der Assistent, über den alle Witze gemacht haben. Berechtigterweise. Ein falsch formulierter Satz und statt der gewünschten Antwort kam „Ich habe im Web Folgendes gefunden”. Das ändert sich jetzt – nicht über Nacht, aber spürbar.
Mit Apple Intelligence hat Apple Siri eine neue Grundlage gegeben. Seit iOS 18.4 funktioniert das auch auf Deutsch. Siri versteht Kontext, merkt sich Rückfragen und kann lesen, was auf dem Bildschirm steht. Nicht alles davon ist schon perfekt – aber vieles ist zum ersten Mal wirklich brauchbar.
Was sich konkret geändert hat
Kontextbezogene Rückfragen
Die wichtigste Verbesserung: Siri vergisst nicht mehr sofort, worüber ihr gerade geredet habt.
„Hey Siri, wie wird das Wetter morgen in Hamburg?” „Und am Wochenende?”
Früher hätte die zweite Frage eine neue, zusammenhangslose Suche ausgelöst. Jetzt versteht Siri, dass du immer noch über Hamburg und Wetter redest. Das klingt banal – ist es aber nicht, weil es die Art verändert, wie du Siri benutzt. Du kannst Fragen aufeinander aufbauen statt jedes Mal den kompletten Kontext mitzuliefern.
Das funktioniert für Wetter, Fakten, Berechnungen und Einheitenumrechnungen zuverlässig. Bei komplexeren Themen – etwa „Vergleich mir die Kameras von iPhone 16 Pro und Samsung S25” gefolgt von „Und wie sieht es beim Akku aus?” – wird es wackelig. Siri liefert dann manchmal generische Antworten statt spezifischer Vergleiche.
On-Screen Awareness: Siri liest deinen Bildschirm
Seit iOS 18.4 kann Siri den Inhalt deines Bildschirms miteinbeziehen. Du liest eine Nachricht, eine Webseite oder eine Notiz – und fragst einfach:
„Hey Siri, fass das hier zusammen.”
Siri analysiert den sichtbaren Inhalt und gibt dir eine Zusammenfassung. Das funktioniert in Safari, Nachrichten, Mail und Notizen gut. In Drittanbieter-Apps ist die Unterstützung noch lückenhaft – Instagram, WhatsApp oder Telegram können damit noch wenig anfangen.
Besonders nützlich: Du bekommst eine Adresse in einer Nachricht und fragst Zeig mir das auf der Karte. Siri erkennt die Adresse auf dem Bildschirm und öffnet Apple Maps mit dem richtigen Ort.
Ehrliche Einschätzung: On-Screen Awareness ist die Funktion mit dem größten Potenzial – und gleichzeitig die, die am häufigsten enttäuscht. Wenn es klappt, fühlt es sich an wie Zukunft. Wenn nicht, bekommst du ein höfliches „Damit kann ich dir hier leider nicht helfen.”
App Intents: Siri steuert Apps
App Intents (vereinfacht: Befehle, die App-Entwickler für Siri freigeben) erlauben Siri, Aktionen direkt in Apps auszuführen. Nicht nur Apple-Apps – auch Drittanbieter-Apps können mitmachen.
Beispiele, die heute funktionieren:
- „Bestell meinen letzten Kaffee bei Starbucks nach”
- „Zeig mir meine letzte Bestellung in Amazon”
- „Starte einen Lauf in Nike Run Club”
Der Haken: Die App muss App Intents aktiv unterstützen. Stand Mai 2026 tun das immer noch vergleichsweise wenige Apps. Die großen (Spotify, WhatsApp, Google Maps) sind dabei, aber viele mittelgroße Apps fehlen noch. Du merkst das, wenn Siri antwortet: „Ich kann das in dieser App nicht für dich erledigen.”
Wenn du Siri für komplexere Abläufe nutzen willst – etwa eine Kette aus mehreren Aktionen – kombinierst du App Intents am besten mit Kurzbefehlen. Ein Kurzbefehl kann mehrere App-Intents hintereinander ausführen, und du startest das Ganze mit einem einzigen Siri-Befehl.
Type to Siri: Tippen statt Sprechen
Nicht jede Situation erlaubt es, laut mit dem Handy zu reden. Type to Siri gibt es schon länger, aber mit Apple Intelligence ist die Texteingabe deutlich besser geworden – Siri versteht auch getippte Anfragen kontextbezogen und mit Rückfragen.
Aktivieren: Einstellungen → Apple Intelligence & Siri → Siri tippen. Dann doppelt auf die untere Bildschirmkante tippen.
Was noch nicht funktioniert (Stand Mai 2026)
Siri ist besser geworden, aber einige Versprechen stehen noch aus:
- Persönlicher Kontext über Apps hinweg: Siri soll irgendwann wissen, wann dein Flug geht (aus einer Mail), und dich rechtzeitig erinnern (im Kalender), basierend auf deinem Standort. Diese tiefe, app-übergreifende Verknüpfung funktioniert bisher nur in Ansätzen.
- Zuverlässige Aktionen in Drittanbieter-Apps: Die Theorie: „Siri, schick dem Handwerker auf WhatsApp, dass ich 10 Minuten später komme.” Die Praxis: In vielen Fällen öffnet Siri nur die App und du tippst selbst.
- Komplexe mehrstufige Aufgaben: „Finde den günstigsten Flug nach Lissabon nächstes Wochenende und trag ihn in meinen Kalender ein” ist noch Science-Fiction.
- Offline-Fähigkeit: Apple Intelligence verarbeitet vieles auf dem Gerät, aber Siri braucht für kontextbezogene Antworten fast immer eine Internetverbindung.
Was mit iOS 27 kommen soll
Apple hat für iOS 27 (erwartet: Herbst 2026) weitere Siri-Verbesserungen angekündigt:
- Vollständiger persönlicher Kontext: Siri soll auf Mails, Nachrichten, Kalender, Notizen und Fotos gleichzeitig zugreifen können, um Fragen zu beantworten wie „Wann habe ich zuletzt mit Anna über das Projekt gesprochen?”
- Erweiterte App-Steuerung: Mehr Aktionen in mehr Apps, inklusive Navigation innerhalb von Apps („Öffne die Einstellungen in Spotify und schalte Crossfade ein”)
- Bessere Fehlerbehandlung: Statt „Damit kann ich dir nicht helfen” soll Siri alternative Wege vorschlagen
Ob und wie gut das alles funktioniert, wird sich zeigen. Apple hat bei Siri in der Vergangenheit öfter angekündigt als geliefert. Aber die Richtung stimmt – und die Grundlage mit Apple Intelligence ist die richtige.
So holst du das Maximum aus Siri heraus
Ein paar Tipps, die den Unterschied machen:
1. Natürlich sprechen, nicht wie ein Roboter. Siri versteht „Wie komme ich am schnellsten nach Hause?” besser als Navigation Heimadresse starten. Die neuen Sprachmodelle sind auf natürliche Sprache trainiert.
2. Rückfragen nutzen. Bau Gespräche auf statt jede Frage einzeln zu stellen. „Was kostet das iPhone 16 Pro?” gefolgt von „Und mit 512 GB?” funktioniert jetzt.
3. Bildschirm-Kontext bewusst einsetzen. Wenn du einen langen Artikel liest, frag Siri nach einer Zusammenfassung. Wenn eine Telefonnummer auf dem Bildschirm steht, sag Ruf diese Nummer an.
4. App Intents entdecken. Geh in Einstellungen → Apple Intelligence & Siri → Apps und schau, welche deiner installierten Apps Siri-Aktionen anbieten. Du wirst überrascht sein, was manche Apps können, von dem du nichts wusstest.
5. Kurzbefehle als Verstärker. Für alles, was Siri nicht direkt kann, gibt es oft einen Kurzbefehl. Musik erkennen und dann automatisch zur Playlist hinzufügen? Ein Kurzbefehl erledigt das in einem Schritt.
Fazit: Besser, aber noch nicht am Ziel
Siri mit Apple Intelligence ist der größte Sprung seit der Einführung 2011. Kontextbezogene Rückfragen und On-Screen Awareness verändern die tägliche Nutzung spürbar. Gleichzeitig bleibt Siri hinter dem zurück, was Google Assistant und ChatGPT in manchen Bereichen heute schon können – besonders bei komplexen, mehrstufigen Aufgaben.
Die ehrliche Empfehlung: Probier die neuen Features aktiv aus. Nicht einmal und dann aufgeben, sondern eine Woche lang bewusst Siri statt Tippen. Manche Dinge funktionieren überraschend gut, andere noch nicht. Aber nur wenn du weißt, was geht und was nicht, bringt Siri dir auch wirklich etwas.