Apple Intelligence: Was es kann, was es nicht kann – und wie du es einrichtest

Apple Intelligence ist seit iOS 18.4 auch auf Deutsch verfügbar. Was die KI-Features wirklich leisten, welche iPhones mitmachen und was du als erstes ausprobieren solltest.

24. Februar 2026 · 9 Min.
Apple Intelligence: Was es kann, was es nicht kann – und wie du es einrichtest

Apple Intelligence ist Apples KI-System, das seit iOS 18.1 schrittweise eingeführt wird. Es läuft zum größten Teil auf dem Gerät selbst – Texte umschreiben, Fotos bearbeiten, Benachrichtigungen zusammenfassen. Aufgaben die zu komplex für das Gerät sind, gehen an Apples Server, ohne dort gespeichert zu werden. Seit iOS 18.4 (April 2025) ist Apple Intelligence auch auf Deutsch verfügbar.

Dieser Artikel erklärt, was wirklich funktioniert, was du brauchst um es zu aktivieren, und mit welchen Features du starten solltest.

Voraussetzungen: Welche iPhones können das?

Apple Intelligence braucht mindestens 8 GB RAM. Das schließt alle iPhones bis einschließlich iPhone 15 (Standardmodell) aus:

GerätApple Intelligence
iPhone 16, 16 Plus, 16 Pro, 16 Pro MaxVollständig
iPhone 15 Pro, 15 Pro MaxVollständig (außer Visual Intelligence)
iPhone 15, 15 Plus und älterNicht unterstützt

Beim iPad funktioniert Apple Intelligence auf allen Modellen mit M1-Chip oder neuer (iPad Pro ab 2021, iPad Air ab M1, iPad mini 6 nicht – erst iPad mini 7 mit A17 Pro).

iOS-Version: Für alle Features brauchst du iOS 18.4 oder neuer – das brachte auch die deutsche Sprachunterstützung. Mit iOS 18.1 und 18.2 liefen die meisten Features nur auf Englisch.

Apple Intelligence einrichten

Nach dem Update auf iOS 18.4 oder neuer:

  1. Einstellungen → Apple Intelligence & Siri öffnen
  2. Oben auf Apple Intelligence tippen – falls ein Button Aktivieren erscheint, einmal drücken
  3. Warten: Die Modelle werden im Hintergrund auf das Gerät geladen. Das dauert je nach Verbindung einige Minuten bis eine Stunde. Status siehst du unter Einstellungen → Apple Intelligence & Siri → Modell.
  4. Sobald der Status Bereit zeigt, sind alle Features aktiv.

Falls der Bereich nicht erscheint: Prüfe unter Einstellungen → Allgemein → Sprache & Region, ob die iPhone-Sprache auf Deutsch steht – Apple Intelligence auf Deutsch erfordert genau diese Einstellung.

Die Features im Überblick

Writing Tools – Texte in jeder App überarbeiten

Writing Tools funktionieren überall, wo du Text schreiben oder markieren kannst: Mail, Nachrichten, Notizen, WhatsApp, Safari, Drittanbieter-Apps.

Markiere Text → tippe auf Writing Tools (erscheint im Kontext-Menü über dem markierten Text).

Was du damit tun kannst:

  • Korrekturlesen: findet Rechtschreib- und Grammatikfehler, schlägt Verbesserungen vor, ohne den Ton zu verändern
  • Neu schreiben: formuliert den Text frisch, mit ähnlichem Inhalt aber anderer Ausdrucksweise
  • Freundlicher / Professioneller / Prägnanter – verändert gezielt den Ton
  • Zusammenfassen: reduziert langen Text auf die wichtigsten Punkte

Das Ergebnis erscheint direkt im Text, du kannst es annehmen, ablehnen oder zwischen Original und Vorschlag wechseln. Writing Tools funktionieren ohne Internetverbindung – die Verarbeitung läuft vollständig auf dem Gerät.

Am nützlichsten in der Praxis: Eine E-Mail schreiben, dann Professioneller wählen, bevor du auf Senden drückst. Oder einen langen Artikel in der Notizen-App auf 3 Sätze zusammenfassen.

Photo Clean Up – Störende Objekte entfernen

Photo Clean Up ist in der Fotos-App integriert und entfernt unerwünschte Elemente aus dem Bildhintergrund.

  1. Ein Foto in der Fotos-App öffnen
  2. Unten auf Bearbeiten tippen
  3. Das Zauberstab-Symbol unten links antippen – Bereinigen erscheint als Option
  4. Tippe auf störende Elemente oder male grob über sie drüber
  5. Apple Intelligence füllt den Bereich automatisch

Das Ergebnis ist für einfache Objekte (Menschen im Hintergrund, Mülltonnen, Kabel) überraschend gut. Bei komplexen Texturen oder wenn das Objekt viel Raum einnimmt, entstehen manchmal sichtbare Artefakte. In diesen Fällen hilft es, mehrere kleinere Bereiche einzeln zu markieren statt einen großen.

Mehr Tipps zur Fotobearbeitung auf dem iPhone findest du in unserem Artikel zur Apple Fotos App.

Siri mit Apple Intelligence

Siri hat mit Apple Intelligence neue Fähigkeiten bekommen – aber es ist kein radikaler Umbau. Was sich tatsächlich verbessert hat:

Siri versteht Kontext besser. Du kannst mehrere Sätze hintereinander sagen, ohne jedes Mal neu anzufangen: “Ruf Mama an. Warte, ruf stattdessen Papa an.” Siri versteht, dass du die erste Anfrage zurückziehst.

Siri kennt deine Apple-Apps. In Mail, Kalender, Notizen und Fotos kann Siri direkt in deinen Inhalten suchen und handeln: “Zeig mir die Fotos vom letzten Urlaub in Portugal” oder “Welche Termine habe ich nächste Woche?” – Siri durchsucht dann wirklich deine Daten, nicht nur allgemeine Informationen.

Siri in Apps. In unterstützten Apps kann Siri Aktionen ausführen: “Erstelle eine neue Notiz über das Meeting von heute” oder “Schicke die Foto-Galerie an Julian.” Diese App Intents-Funktionen müssen von App-Entwicklern eingebaut werden – Apples eigene Apps sind vollständig dabei, Drittanbieter-Apps je nach Version.

Was Siri immer noch nicht gut kann: kreative Aufgaben, komplexe mehrstufige Abläufe, allgemeines Weltwissen. Dafür ist die ChatGPT-Integration da.

Wenn du Siri bisher nicht viel genutzt hast, findest du die besten Einstiegsbefehle in unserem Siri Befehle und Tricks Artikel.

ChatGPT in Siri (iOS 18.2+)

Wenn du Siri eine Frage stellst, die Apple Intelligence nicht beantworten kann – Rezepte, Reiseplanung, kreatives Schreiben, komplizierte Erklärungen – fragt Siri, ob sie die Anfrage an ChatGPT weitergeben darf.

Einmalig: Opt-in bestätigen. Beim ersten Mal erscheint eine Erklärung was übermittelt wird, du musst einmal zustimmen. Danach läuft es automatisch.

Datenschutz: Deine IP-Adresse wird nicht an OpenAI weitergegeben. Apple routet die Anfragen anonymisiert. Du brauchst kein ChatGPT-Konto. Mit einem bestehenden Plus-Konto kannst du dich verknüpfen, um GPT-4o mit mehr Kapazitäten zu nutzen.

Direkt zu ChatGPT: Du kannst auch explizit sagen Frag ChatGPT… – dann wird nicht erst Apples System befragt, sondern direkt an ChatGPT weitergeleitet.

Priority Notifications und Notification Summaries

Priority Notifications ordnet deine Benachrichtigungen nach Wichtigkeit. Zeitkritische Nachrichten (eine Antwort auf eine E-Mail an der du wartest, eine Erinnerung kurz vor Ablauf) erscheinen oben im Benachrichtigungscenter – alles andere danach.

Notification Summaries fasst mehrere Benachrichtigungen einer App in einer Zeile zusammen. Statt zehn einzelner Nachrichtenmeldungen: “8 Artikel aus deinen Themen: iPhone 17 Gerüchte, Apple Intelligence Update, …”

Die Zusammenfassungen standen Ende 2024 in der Kritik, weil sie gelegentlich Nachrichten falsch zusammenfassten. Apple hat das in iOS 18.3 verbessert, News-Apps werden seither anders behandelt. Empfehlung: Für Nachrichten-Apps die Summaries unter Einstellungen → Benachrichtigungen → [App] → Benachrichtigungs-Zusammenfassungen deaktivieren.

Genmoji und Image Playground (iOS 18.2+)

Genmoji erstellt individuelle Emoji aus deiner Beschreibung. In der Emoji-Tastatur: auf das Stern-Symbol tippen → Text eintippen → Genmoji wird generiert. Du kannst dich selbst oder Kontakte als Basis nehmen.

Image Playground ist eine eigene App für KI-generierte Bilder auf dem Gerät. Stil wählen (Animation, Illustration, Skizze), Beschreibung eingeben, fertig. In Messages ist Image Playground direkt integriert: im Chat-Feld auf das Plus-Symbol → Image Playground. Bilder werden lokal erstellt, keine Internetverbindung nötig.

Beide Features sind eher Spielerei als Produktivitätswerkzeug – aber Genmoji in Nachrichten-Apps macht tatsächlich Spaß.

Visual Intelligence – exklusiv für iPhone 16

iPhone 16 hat eine eigene Kamerataste (Camera Control) an der rechten Seite. Diese Taste gedrückt halten aktiviert Visual Intelligence: Die Kamera analysiert was sie sieht und gibt Infos dazu.

Anwendungsfälle:

  • Restaurant vor dir: Yelp-Bewertungen und Öffnungszeiten direkt anzeigen
  • Pflanze oder Tier: Erkennung mit Details
  • QR-Code oder Barcode: Direkt scannen ohne extra App
  • Visitenkarte: Kontakt direkt speichern
  • Veranstaltungsplakat: Termin direkt in den Kalender

Für Anfragen die komplexer sind, übergibt Visual Intelligence an ChatGPT oder Google (du kannst wählen).

Apple Intelligence und Kurzbefehle

Ein Bereich, der oft übersehen wird: Apple Intelligence verbessert auch die Kurzbefehle-App. Siri kann jetzt komplexere natürlichsprachliche Befehle interpretieren und in Shortcuts umsetzen. Statt “Starte meinen Morgen-Kurzbefehl” kannst du sagen Mach mein Morgen-Ding – und Siri versteht, welchen Kurzbefehl du meinst.

Außerdem können Kurzbefehle jetzt Apple Intelligence als Aktion einbinden: Text zusammenfassen, umschreiben oder analysieren – alles als Baustein in einer Automatisierung.

Datenschutz: Was passiert mit deinen Daten?

Apple Intelligence verarbeitet nach Möglichkeit alles auf dem Gerät. Für komplexere Aufgaben die das lokale Modell überfordern (großes Textdokument zusammenfassen, komplexe Writing-Tools-Anfragen) nutzt Apple Private Cloud Compute:

  • Anfragen gehen an Apples eigene KI-Server
  • Dort werden sie verarbeitet und sofort verworfen – keine Speicherung, keine Protokollierung
  • Apple selbst soll technisch keinen Zugriff auf die Inhalte haben
  • Unabhängige Sicherheitsforscher können das System prüfen (Apple hat das Modell öffentlich zugänglich gemacht)

ChatGPT ist ein separates System mit eigenem Datenschutzmodell. Die Übermittlung geschieht anonymisiert ohne IP, aber die Anfrage selbst landet bei OpenAI. Für sensible Inhalte (Geschäftsgeheimnisse, persönliche Daten) solltest du ChatGPT-Anfragen über Siri entsprechend behandeln wie direkte ChatGPT-Anfragen.

Mehr zum Thema Datenschutz auf dem iPhone: iPhone Privatsphäre: Siri & Apple Intelligence Datenschutz.

Was Apple Intelligence (noch) nicht kann

Deutsch ist nicht überall gleich gut. Writing Tools auf Deutsch ist solide. Siri auf Deutsch ist besser als zuvor, aber komplexe sprachabhängige Aufgaben (“Schreib mir einen formellen Brief an meine Vermietung wegen Heizungsausfall”) gelingen auf Englisch noch zuverlässiger.

Kein Gedächtnis. Apple Intelligence erinnert sich nicht an frühere Anfragen. Jede Anfrage ist eigenständig – keine lernende KI über Sitzungen hinweg.

Siri ist kein Chatbot. Siri kann keine mehrstufigen Konversationen führen wie ChatGPT oder Gemini. Für längere Diskussionen oder kreative Arbeit ist die ChatGPT-App oder Claude die bessere Wahl.

Bestimmte Drittanbieter-Apps. WhatsApp, Instagram und viele andere Apps unterstützen Writing Tools und Siri App Intents noch nicht oder unvollständig.

Welche Features lohnen sich sofort?

Wenn du Apple Intelligence gerade eingerichtet hast, fang mit diesen drei Features an:

  1. Writing Tools in Mail – schreib eine E-Mail und wähle Professioneller oder Kürzer bevor du sendest. Das spart tatsächlich Zeit.
  2. Photo Clean Up – nimm ein Foto mit einem störenden Hintergrundelement und teste die Bereinigung. Das Ergebnis überrascht meistens positiv.
  3. Priority Notifications – einfach laufen lassen. Nach ein paar Tagen merkst du, ob Siri deine wichtigen Kontakte und Apps erkannt hat. Mehr dazu in unserem Artikel iPhone Kurzbefehle: Die besten Automatisierungen.

Häufige Fragen

Muss ich für Apple Intelligence extra bezahlen?

Nein. Apple Intelligence ist kostenlos, alle Features sind im iOS-Update enthalten. Ausnahme: Wer ChatGPT Plus nutzen will, braucht ein kostenpflichtiges OpenAI-Konto. Ohne Konto funktioniert die kostenlose ChatGPT-Version.

Kann ich Apple Intelligence wieder deaktivieren?

Ja. Einstellungen → Apple Intelligence & Siri → Apple Intelligence → ausschalten. Alle Features sind dann deaktiviert. Einzelne Features lassen sich auch separat steuern, z. B. Notification Summaries pro App.

Funktioniert Apple Intelligence ohne Internet?

Die meisten Features ja: Writing Tools, Photo Clean Up, Genmoji, Image Playground – alles on-device. Für Private Cloud Compute bei komplexen Aufgaben und für ChatGPT-Integration brauchst du eine Verbindung.

iPhone 15 Pro – bekomme ich alle Features?

Fast alle. Der einzige Unterschied zu iPhone 16 ist Visual Intelligence – das braucht die physische Camera Control Taste, die nur beim iPhone 16 vorhanden ist. Alle anderen Apple Intelligence Features laufen auf dem 15 Pro genauso wie auf dem 16.

Wie lange dauert es bis Apple Intelligence nach dem Update verfügbar ist?

Die Modelle werden nach dem Update im Hintergrund geladen, meistens innerhalb weniger Stunden. Unter Einstellungen → Apple Intelligence & Siri siehst du den aktuellen Download-Status. Wenn Bereit steht, kannst du loslegen.

Lieber als Video?

Viele Guides erkläre ich auch live am iPhone – Schritt für Schritt zum Mitmachen.

Kostenlos Abonnieren
Esc