Bedienungshilfen für Apple Education entdecken
Wir bei Apple sind überzeugt, dass Technologie dann am leistungsstärksten ist, wenn alle Beteiligten unterstützt werden. Deshalb arbeitet Apple seit mehr als vierzig Jahren mit Lehrkräften zusammen, um die Rolle barrierefreier Technologien beim Lernen zu definieren.
1978 führte Apple PCs in den Unterricht ein. Mit dem „Office of Special Education“ rief Apple 1985 das branchenweit erste Programm ins Leben, das Lösungen für Menschen mit Einschränkungen schaffen sollte. Und 1987 haben wir zusammen mit Interessenvertretungen für Menschen mit Einschränkungen die „Alliance for Technology Access“ gegründet, um Fachwissen auszutauschen und in den USA landesweit die Barrierefreiheit zu fördern. Auch heute arbeiten wir weiterhin engagiert mit Interessenvertretungen weltweit zusammen.
Nach wie vor unterstützt Apple die vielfältigen Bedürfnisse jedes Lernenden mit leistungsstarken, integrierten Bedienungshilfen zum Gestalten, Kommunizieren und Personalisieren sowie zur Stärkung von Selbstvertrauen und Unabhängigkeit.
Weitere Informationen zu Bedienungshilfen von Apple
Alle Lernenden mit Apple ansprechen
Mit integrierten Funktionen für Sprache, Sehvermögen, Mobilität, Hörvermögen sowie kognitive Unterstützung, maßgeschneiderten Lernwerkzeugen und alternativen Kommunikationsmethoden können Lernende auf die Weise mit Inhalten interagieren, die ihrem ganz persönlichen Lernstil entspricht.
Frühlerner
Apple-Geräte helfen dabei, bewusstes, natürliches und altersgerechtes Lernen für Frühlerner zum Leben zu erwecken. Wer lesen lernen möchte, kann mit Lesen & Sprechen-Funktionen wie „Bildschirminhalt sprechen“ und „Auswahl sprechen“ Texte laut vorlesen lassen.1 Um die Konzentration zu fördern, kann ein Gerät mit „Geführter Zugriff“ auf nur eine App beschränkt werden.
Mehrsprachige Lernende
Für mehrsprachige Lernende bieten Apple-Geräte Funktionen zum Anpassen der Sprache. Mit „Lesen & Sprechen“ können Lernende von ihnen geschriebenen Text in acht verschiedenen Stimmen laut hören, wobei über sechzig Sprachen und Sprachumgebungen unterstützt werden.1 „Live-Untertitel“ zeigt gesprochene Wörter in Echtzeit als Text an, sodass sie für Lernende leichter zu verstehen sind.2 Mit der Übersetzen-App können Lernende Gesprochenes und Text schnell und einfach zwischen Sprachen übersetzen.3 Wenn eine Webseite oder ein Bild in einer anderen Sprache angezeigt wird, kann Safari den Text übersetzen.4
Bedienungshilfen für deine Lern-Community
Apple-Geräte sind von Natur aus inklusiv und unterstützen mit integrierten Bedienungshilfen das Seh-, Hör- und Sprachvermögen, die Mobilität und kognitive Fähigkeiten.
Sehen
Funktionen für das Sehvermögen eröffnen Lernenden mehr Möglichkeiten, ihre Geräte zu nutzen, denn sie können anpassen, was sie sehen und wie sie interagieren, unabhängig von ihrem eigenen Sehvermögen.
Lesen & Sprechen
„Lesen & Sprechen“ umfasst eine Reihe von Funktionen, die Lernenden das Lesen und Schreiben erleichtern, dank Audio mit über 80 verschiedenen Stimmen und in mehr als 60 Sprachen und Sprachumgebungen.1 Mit „Bildschirminhalt sprechen“ wird der gesamte Bildschirmtext laut vorgelesen, mit „Auswahl sprechen“ ein bestimmter Textbereich. Der Reader für Bedienungshilfen bietet Lernenden neue Möglichkeiten, lange Texte anzupassen und sich auf den Inhalt zu konzentrieren, den sie lesen möchten. Hierfür stehen vielfältige Optionen für Schrift, Farbe und Abstand zur Auswahl, und auch gesprochene Inhalte werden unterstützt.
Magnifier
Die Lupe ist ein digitales Vergrößerungsglas, das physische Objekte vergrößert, erkennt und beschreibt. Sie formatiert Text innerhalb des Kamerarahmens, um das Lesen zu erleichtern, oder liest Text laut vor, beispielsweise Wörter in einem Buch oder auf einem Whiteboard. Der Erkennungsmodus der Lupe unterstützt blinde Menschen und Menschen mit eingeschränktem Sehvermögen dabei, Personen, Türen, Möbel und Text innerhalb des Rahmens zu erkennen.5
Anzeigeeinstellungen & Textgröße
Passe Farben, Textgröße, Transparenz, Kontrast und mehr an. Mit „Größerer Text“ und „Fetter Text“ können Lernende die Schrift einfach anpassen. Die Textgröße kann auch über das Kontrollzentrum schnell geändert werden. Invertierte Displayfarben und Farbfilter verbessern den Kontrast. „Weißpunkt reduzieren“ verringert die Intensität heller Farben. Die Optionen „Transparenz reduzieren“ für einfarbige Hintergründe und „Kontrast erhöhen“ erleichtern die Unterscheidung zwischen Vordergrund und Hintergrund. Die entsprechenden Einstellungen können global oder pro App zugewiesen werden.
VoiceOver
VoiceOver beschreibt, was auf dem Bildschirm angezeigt wird – hörbar, in Brailleschrift oder beides. Zudem ermöglicht die Funktion eine einfache Navigation über Gesten, Trackpad, Tastatur oder ein aktualisierbares Brailledisplay. Mit der Braillebildschirmeingabe können Lernende direkt auf dem Touchscreen Text in Blindenschrift eingeben, und mit der Liveerkennung erhalten sie Beschreibungen von Objekten in der realen Welt wie Menschen, Türen, Text und Möbel in Innenräumen.6 VoiceOver bietet zudem umfassende Optionen zur Anpassung der integrierten Stimme für das Sprachfeedback.7
Braillezugriff
„Braillezugriff“ verwandelt ein Gerät wie das iPad oder den Mac in einen voll ausgestatteten Braillenotizblock. Öffne einfach mit einem angeschlossenen Braillegerät eine App oder Dateien im Braille Ready Format (BRF), um schnell Notizen im Brailleformat aufzuzeichnen. Für Berechnungen stehen mit Nemeth Braille und UEB Math zwei im Mathematik- und naturwissenschaftlichen Unterricht häufig verwendete Braillecodes zur Auswahl. Und mit einer integrierten Form von Live-Untertitel können Lernende und Lehrkräfte Gespräche in Echtzeit direkt auf Brailledisplays transkribieren.2
Einstellungen für Bedienungshilfen teilen
Die Einstellungen für Bedienungshilfen können während des Unterrichts schnell und vorübergehend mit einem anderen iPad geteilt werden. So kannst du ganz einfach Funktionen einschalten, die visuelle Anpassungen unterstützen, wie z. B. „Kontrast erhöhen“ oder „Bewegung reduzieren“. Oder teile Touch-Anpassungen, um die einzigartigen Tippvorgänge und Gesten eines Lernenden auf einem anderen Gerät zu unterstützen.
Einstellungen für schwebenden Text
„Schwebender Text“ verbessert die Lesbarkeit von Text auf dem iPad oder Mac. Wenn ein Absatz, eine Bildunterschrift oder eine Fußnote zu klein ist, um sie zu lesen, bewege den Mauszeiger darüber, und drücke die Aktivierungstaste, um eine größere Version mit höherer Auflösung zu erhalten. Mit „Farbe für schwebende Elemente“ auf dem Mac werden Farbpixel für farbenblinde oder sehbehinderte Lernende in leicht verständliche Farbnamen übersetzt, damit ihnen die Farbe unter dem Cursor klar wird. Mit „Schwebende Texteingabe“ können Lernende beim Tippen in einem Textfeld größeren Text in einer benutzerdefinierten Schrift und Textfarbe anzeigen.
Zoom
Zoom ist eine Bildschirmlupe, die den auf einem Gerät angezeigten Inhalt vergrößert, damit er leichter zu lesen ist. Wähle „Vollbildzoom“, um den gesamten Bildschirm zu vergrößern, oder „Fensterzoom“, um nur einen Teil des Bildschirms mit einer größenverstellbaren Lupe zu vergrößern.8 Auf den vergrößerten Bereich können Filter wie „Invertiert“, "Graustufen", „Invertierte Graustufen“ oder „Wenig Licht“ angewendet werden. „Fokus folgen“ ermöglicht das Nachverfolgen von Textauswahl, Texteinfügepunkt und Eingabe. Und „Intelligente Eingabe“ vergrößert den Textbereich, ohne während der Eingabe die gesamte Tastatur zu vergrößern.
Weitere Informationen zu den Sehvermögen-Funktionen von Apple
Hören
Hörfunktionen erleichtern die Kommunikation für Lernende, die gehörlos oder schwerhörig sind oder deren Hörvermögen eingeschränkt ist, und unterstützen ihre Hörgesundheit.
Hörgesundheit
AirPods Pro sind ganz auf Hörgesundheit ausgelegt. Sie bieten Lernenden und Lehrkräften ab 18 Jahren Zugang zu einem Hörtest, einer Hörgerätefunktion auf klinischem Niveau und eine aktive Gehörschutzfunktion. Die Hörgerätefunktion auf klinischem Niveau kann Menschen mit leicht bis mittelstark eingeschränktem Hörvermögen helfen, dem Unterricht besser zu folgen.9 Sie ermöglicht individuelle Anpassungen, um Stimmen und Geräusche besser verständlich zu machen. AirPods Pro bieten zudem eine aktive Gehörschutzfunktion, um eine Belastung durch laute Umgebungsgeräusche zu vermeiden.10
Live-Untertitel
Live-Untertitel helfen Lernenden, die gehörlos oder schwerhörig sind oder Text lieber lesen, besser zu verstehen und zu kommunizieren. Live-Gespräche zwischen Lehrkräften und Lernenden können ebenso wie Audio aus Classroom-Apps mit Untertiteln versehen werden. Live-Untertitel sind für Telefonanrufe, FaceTime-Anrufe und sämtliche Webinhalte sicher auf dem Gerät verfügbar.2 Größe, Platzierung, Schriftarten und Farben für das Fenster „Live-Untertitel“ können an die individuellen Bedürfnisse angepasst werden.11
Live-Mithören
Live-Mithören ist eine unterstützende Hörfunktion, mit der es möglich ist, auch an lauten Orten wie in der Mensa Gespräche zu führen oder die Lehrkraft vorne im Unterrichtsraum zu hören.12 Lernende können die Funktion aktivieren und ihr Gerät in Richtung der Personen bewegen, mit denen sie sprechen. Der Ton wird vom Mikrofon des Geräts aufgenommen und an ihre AirPods, Beats-Kopfhörer oder „Made for iPhone“-Hörgeräte gesendet, damit sie das Gesagte besser hören können. „Live-Mithören“ gibt Live-Untertitel für gesprochene Inhalte auch auf einem anderen gekoppelten Gerät aus, damit Lernende diesen folgen können, auch wenn sich das Gerätemikrofon auf der anderen Seite des Raums befindet.
Geräusch- & Namenserkennung
Die Geräuscherkennung achtet auf spezielle Geräusche, wie z. B. einen Feueralarm oder eine Schulglocke, und benachrichtigt die Lernenden dank On-Device-Intelligenz, sobald diese Geräusche erkannt werden. Die Namenserkennung bietet Lernenden, die gehörlos oder schwerhörig sind, eine neue Möglichkeit zu erkennen, wann ihr Name aufgerufen wird.13
Hintergrundgeräusche
Hintergrundgeräusche sind Umgebungsgeräusche, die Lernenden helfen können, Ablenkungen zu minimieren und ihre Konzentration und innere Ruhe zu verbessern. Auch für Menschen mit Tinnitus kann dies hilfreich sein. Wähle aus ausgewogenen, hellen und dunklen Geräuschen sowie Meeres-, Regen- und Stromgeräuschen, damit sie kontinuierlich im Hintergrund spielen und übermäßige Umgebungs- oder externe Geräusche überdecken. Diese Geräusche können auch mit anderen Audio- und Systemgeräuschen gemischt oder unterschwellig in diese eingeblendet werden.
Weitere Informationen zu Hörfunktionen von Apple
Sprache
Sprachfunktionen können Lernende bei der mündlichen oder schriftlichen Kommunikation unterstützen, wenn sie eine Sprachbehinderung haben, z. B. atypisch oder gar nicht sprechen, oder es vorziehen, nicht mündlich zu kommunizieren.
Live-Sprachausgabe
Die Live-Sprachausgabe spricht eingegebene Wörter laut aus. Lernende können aus Dutzenden von Systemstimmen wählen oder eine eigene Stimme verwenden, die sie selbst erstellt haben. Die Live-Sprachausgabe ermöglicht die Kommunikation mittels Telefon- und FaceTime-Anrufen ebenso wie das persönliche Gespräch. Häufig verwendete Formulierungen können gesichert und bei täglichen Interaktionen und Gesprächen problemlos abgerufen werden. Erstelle beispielsweise eine Classroom-Kategorie mit Formulierungen, die Lernende oder Lehrkräfte häufig verwenden, z. B. „Können Sie die Frage bitte wiederholen?“ oder „Gibt es etwas, bei dem Sie Unterstützung benötigen?“
Eigene Stimme
Lernende mit drohendem Stimmverlust oder einer Erkrankung, die ihre Stimme zunehmend beeinträchtigt, können mit „Eigene Stimme“ einfach und sicher eine Stimme erstellen, die wie ihre eigene klingt.14 Dazu müssen sie eine Reihe von 10 zufällig ausgewählten Sätzen laut lesen, um eine Audioaufzeichnung zu erstellen. Mit dieser wird dann eine Stimme erzeugt, die ähnlich wie ihre eigene klingt.15 Die eigene Stimme ist nahtlos mit der Live-Sprachausgabe integriert. Lernende können also eingeben, was sie sagen möchten, und diese Eingabe wird von ihrem iPad, Mac oder ihrer Apple Watch in ihrer eigenen Stimme vorgelesen.
Weitere Informationen zu Sprachfunktionen von Apple
Mobilität
Entdecke Funktionen, mit denen es ganz einfach möglich ist, die Touch-Eingabe zu ändern, benutzerdefinierte Gesten zu erstellen oder Geräte auf die jeweils optimale Weise zu steuern.
AssistiveTouch
Mit AssistiveTouch können Lernende ihren Touchscreen an ihre körperlichen Bedürfnisse anpassen. Wenn Lernenden bestimmte Gesten wie das Zusammenziehen oder das Tippen mit zwei Fingern schwerfallen, können sie stattdessen eine Geste wählen, die ihnen leichter fällt, oder eine ganz eigene Geste erstellen. Zum Steuern eines Bildschirmzeigers für die Navigation kann das Layout des AssistiveTouch-Menüs angepasst oder ein Bluetooth-Gerät verbunden werden. Wenn AssistiveTouch aktiviert ist, können Lernende ihr Gerät auch mit Verweilaktionen, geräuschbezogenen Aktionen oder benutzerdefinierten Gesten steuern, so wie es für sie am besten funktioniert. Und mit dem virtuellen Trackpad auf dem iPad können Lernende und Lehrkräfte zum Steuern ihrer Geräte einen kleinen Bereich des Bildschirms als Trackpad mit veränderbarer Größe nutzen.
Kopferfassung
Bei der Kopferfassung verfolgt die Kamera eines iPad oder Mac die Kopf- und Gesichtsbewegungen, um einen Zeiger auf dem Bildschirm zu steuern bzw. Aktionen auszuführen.16 Die Verweilsteuerung ermöglicht die Navigation durch verschiedene Apps und die Interaktion mit Steuerelementen, indem der Bildschirmzeiger eine bestimmte Zeit lang auf sie gerichtet bleibt. Mit bestimmten Gesichtsgesten wie dem Hochziehen einer Augenbraue oder einem Lächeln können Aktionen ausgeführt werden.
Augenbewegungen verfolgen
Bei der Blickerfassung wird die Frontkamera zum Steuern eines iPad verwendet, ohne dass zusätzliche Hardware oder Zubehör erforderlich ist.17 Lernende können die „Verweilsteuerung“ für die Interaktion mit Steuerelementen verwenden, indem sie ihren Blick für eine bestimmte Zeit darauf ruhen lassen. Für eine schnellere Eingabe über die Tastatur kann für die Tastatur eine kürzere Verweildauer festgelegt werden. Eine Person kann nur mit ihren Augen auf zusätzliche Funktionen wie physische Tasten sowie Streich- und andere Gesten zugreifen. Die Blickerfassung kann mit der Schaltersteuerung auf dem iPhone und iPad integriert werden, sodass Lernende einen Schalter verwenden oder Optionen durch Verweilen auswählen können.
Sprachsteuerung
Lernende können ihr Gerät allein mit ihrer Stimme steuern.18 Befehle wie Klicken, Streichen und Tippen erleichtern die Interaktion mit Classroom-Apps. Elemente können präzise ausgewählt, gezogen und gezoomt werden, wenn neben anklickbaren Objekten Zahlen angezeigt werden oder ein Raster auf dem Bildschirm eingeblendet wird. Mit dem Rechtschreibmodus der Sprachsteuerung können Lernende Namen, Adressen und sogar eigene Schreibweisen Buchstabe für Buchstabe diktieren.19 So können Korrekturen, Formatänderungen und Übergänge zwischen Textdiktat und Befehlen nahtlos vorgenommen werden.
Schaltersteuerung
Verwende adaptive Schalterhardware, Game-Controller oder Geräusche wie ein Klicken, Knacken oder „ee", um Geräte zu steuern. Erstelle eigene benutzerdefinierte Bedienfelder und Tastaturen, systemweit oder für jede einzelne App auf dem iPad und Mac. „Plattformwechsel“ ermöglicht über ein einzelnes Gerät die Steuerung anderer Geräte, die mit dem gleichen Apple Account synchronisiert sind.20 Auf diese Weise können Lernende einen Mac direkt von einem iPhone oder iPad aus steuern, ohne die Schalter auf jedem neuen Gerät neu konfigurieren zu müssen.
Weitere Informationen zu Mobilitätsfunktionen von Apple
Kognition
Mit Tools zur Verbesserung von Verständnis, Aufmerksamkeit und Kommunikation unterstützen kognitive Funktionen Lernende dabei, konzentriert zu lernen und mit anderen in Verbindung zu bleiben.
Reader für Bedienungshilfen
Der Reader für Bedienungshilfen ist eine neue systemweite Lesehilfe und macht Text für alle Lernenden leichter lesbar, auch für Lernende mit einem breiten Spektrum an Einschränkungen, von Legasthenie bis hin zu Sehschwäche. Der Reader für Bedienungshilfen bietet Lernenden neue Möglichkeiten, lange Texte anzupassen und sich auf den Inhalt zu konzentrieren, den sie lesen möchten. Hierfür stehen umfangreiche Optionen für Schrift, Farbe und Abstand zur Auswahl, und auch weitere Lesen & Sprechen-Funktionen werden unterstützt. Lernende können den Reader für Bedienungshilfen von jeder App aus starten. Er ist auch in die Lupen-App von iOS, iPadOS und macOS integriert, um eine nahtlose Interaktion mit Text in der realen Welt zu ermöglichen.
Unterstützender Zugriff
„Unterstützender Zugriff“ hilft vertrauenswürdigen Unterstützenden bei der Einrichtung des iPad für Lernende mit kognitiven Einschränkungen. Das Gerät kann so leichter angepasst werden, um die kognitive Belastung aller Lernenden zu verringern und es auf ihre spezifischen Bedürfnisse und Vorlieben zuzuschneiden. Mit einer vereinfachten Benutzeroberfläche mit kontrastreichen Tasten, großen Textbeschriftungen und visuellen Alternativen zu Text bietet der unterstützende Zugriff individuelle Einstellungen für wichtige Apps wie Anrufe (in der Telefon und FaceTime kombiniert sind), Nachrichten, Kamera, Fotos und Musik und schafft so eine unterstützende und fokussierte Umgebung zum Lernen und Kommunizieren.
Apple Intelligence
Apple Intelligence unterstützt das Lernen, denn es erleichtert die effektive schriftliche Kommunikation und verbessert unter anderem das Leseverständnis, das Gedächtnis und das Erinnerungsvermögen. Mit „Live-Übersetzung“ können Lernende sprachübergreifend kommunizieren.21 „Visuelle Intelligenz“ baut auf Apple Intelligence auf und hilft Lernenden dabei, mehr über das zu erfahren, was sie auf dem Bildschirm oder im Unterrichtsraum sehen, indem sie danach suchen, damit interagieren oder Fragen stellen. Mit Schreibtools können Lernende Texte Korrektur lesen und verschiedene Versionen neu schreiben, bis der Ton und der Wortlaut stimmen.22 Lernende können beispielsweise während einer Vorlesung in der Notizen-App Audio aufnehmen und dann mit Apple Intelligence eine Zusammenfassung des Transkripts mit den wichtigsten Punkten zum späteren Nachschlagen erstellen. Zudem können Lernende eine Zusammenfassung der wichtigsten Informationen aus Nachrichten und Mitteilungen erhalten.
Shortcuts
Mit einem Kurzbefehl können eine oder mehrere Aufgaben App-übergreifend mit einem einzigen Fingertipp oder Siri-Sprachbefehl schnell automatisiert werden. Mit der Kurzbefehle-App können Lernende benutzerdefinierte Automationen erstellen oder vorgefertigte hinzufügen, die mehrere Schritte in verschiedenen Apps umfassen. Siri kann je nach Verwendungshäufigkeit Kurzbefehle vorschlagen, und Lernende können einen benutzerdefinierten Kurzbefehl ausführen, indem sie einfach mit Siri sprechen und den Namen des Kurzbefehls nennen. Die Galerie der App enthält auch Kurzbefehle für Bedienungshilfen, eine kuratierte Sammlung, die für unterschiedliche Bedürfnisse entwickelt wurde.
Safari Reader
Die Navigation im Internet kann eine sensorische Überlastung darstellen. Safari Reader zeigt einen Webseitenartikel für einfaches Lesen formatiert und ablenkungsfrei auf einer Seite an. Die Schrift, die Schriftgröße und die Hintergrundfarbe können wie gewünscht personalisiert werden. Safari Reader kann den Text einer unterstützten Website laut vorlesen oder die zentralen Punkte eines Artikels als eine allgemeine Zusammenfassung mit Inhaltsverzeichnis zur Verfügung stellen.23
Weitere Informationen zu kognitiven Funktionen von Apple
Zusätzliche Ressourcen für deine Lern-Community
Apple bietet eine Vielzahl von Bildungsinhalten, Kundensupportoptionen, Communities, Lehrprogrammen und anderen Ressourcen für Schüler und Lehrer gleichermaßen.
Supportvideos zu Bedienungshilfen
Tipps und Anleitungen von Apple auf YouTube
Supportseite für Bedienungshilfen
Hilfe zu Bedienungshilfen oder Kontakt mit Experten
Support für Bedienungshilfen kontaktieren
Unterstützung für Bedienungshilfen per Anruf oder Chat
Apple Support mit Gebärdendolmetscher kontaktieren
Über SignChat eine Verbindung mit einem Gebärdendolmetscher herstellen
E-Mail an accessibility@apple.com
Per E-Mail Feedback senden, Fragen stellen und Probleme melden
Unterstützende Technologien
Geräte von Drittanbietern für das Sehen, das Hören und die Mobilität
Accessibility-Forum der Education Community
Diskussionen suchen oder Fragen zu Bedienungshilfen stellen
Ressourcen zur Programmierung und App-Entwicklung für Lehrkräfte
Praktische Ressourcen für Programmierung und App-Design
Programmierkonzepte in der amerikanischen Gebärdensprache
Ratschläge zur App-Entwicklung aus der Perspektive von Gehörlosen
Today at Apple-Gruppensitzungen
Today at Apple-Gruppen-Sessions zu Bedienungshilfen
Apple Camp
Anmeldung zu einem Sommerprogramm im Apple Store für Kinder von 6–10 Jahren
Weiterbildungsprogramm von Apple
Konstruktive Ressourcen für die ganze Schule online oder vor Ort
Bedienungshilfen für Entwickler
Weitere Informationen zu Tools und Ressourcen zu den Bedienungshilfen für Entwickler
Teach Access
Regulatorische Informationen
„Bildschirminhalt sprechen“ und „Auswahl sprechen“ unterstützen Arabisch (Welt), Bengali (Indien), Baskisch, Bhojpuri (Indien), Bulgarisch, Kantonesisch (Hongkong), Katalanisch, Kroatisch, Tschechisch, Dänisch, Niederländisch (Belgien, Niederlande), Englisch (Australien, Indien, Irland, Schottland, Südafrika, Großbritannien, USA), Farsi, Finnisch, Französisch (Belgien, Kanada, Frankreich), Galizisch, Deutsch, Griechisch, Hebräisch, Hindi, Ungarisch, Indonesisch, Italienisch, Japanisch, Kannada, Kasachisch, Koreanisch, Litauisch, Malaiisch, Mandarin (Festlandchina, Liaoning, Shaanxi, Sichuan, Taiwan), Marathi, Norwegisch, Polnisch, Portugiesisch (Brasilien, Portugal), Rumänisch, Russisch, Shanghaiisch (Festlandchina), Slowakisch, Slowenisch, Spanisch (Argentinien, Chile, Kolumbien, Mexiko, Spanien), Schwedisch, Tamil, Telugu, Thailändisch, Türkisch, Ukrainisch, Valencianisch und Vietnamesisch.
Live-Untertitel sind auf dem iPhone 11 und neuer, iPad-Modellen mit A12 Bionic und neuer und Mac-Computern mit Apple-Chip verfügbar. Live-Untertitel sind für Anrufe und Medien verfügbar. Live-Untertitel sind nicht in allen Sprachen, Ländern oder Regionen verfügbar. Die Genauigkeit von Live-Untertiteln kann variieren und sollte in Hochrisiko- oder Notfallsituationen nicht als verlässlich angesehen werden.
Die Übersetzen-App unterstützt Arabisch (Welt), Niederländisch (Belgien, Niederlande), Englisch (Großbritannien, USA), Französisch (Frankreich), Deutsch, Hindi, Indonesisch, Italienisch, Japanisch, Koreanisch, Mandarin (Festlandchina, Taiwan), Polnisch, Portugiesisch (Brasilien), Russisch, Spanisch (Spanien), Thailändisch, Türkisch, Ukrainisch und Vietnamesisch.
Die Übersetzung von Webseiten in Safari unterstützt Arabisch (Welt), Chinesisch (vereinfacht, traditionell), Niederländisch, Englisch, Französisch, Deutsch, Indonesisch, Italienisch, Japanisch, Koreanisch, Polnisch, Portugiesisch (Brasilien), Russisch, Spanisch, Thailändisch, Türkisch, Ukrainisch und Vietnamesisch.
Detektoren für Türen, Personen und Möbel im Erkennungsmodus erfordern Geräte mit dem LiDAR-Scanner. Der LiDAR-Scanner ist nur auf dem iPhone 12 Pro, iPhone 12 Pro Max, iPhone 13 Pro, iPhone 13 Pro Max, iPhone 14 Pro, iPhone 14 Pro Max, iPhone 15 Pro, iPhone 15 Pro Max, iPhone 16 Pro, iPhone 16 Pro Max, iPhone 17 Pro, iPhone 17 Pro Max, iPad Pro (M4), iPad Pro (12,9″, 4. Generation und neuer) und iPad Pro (11″, 2. Generation und neuer) verfügbar. Der Erkennungsmodus mit Aktionstaste wird vom iPhone 15 Pro, iPhone 15 Pro Max, iPhone 16, iPhone 16 Plus, iPhone 16 Pro, iPhone 16 Pro Max, iPhone 16e, iPhone 17, iPhone 17 Pro, iPhone 17 Pro Max und iPhone Air unterstützt. Die Texterkennung und „Zeigen und Sprechen“ funktionieren für Schilder und Beschriftungen auf Arabisch, Kantonesisch (vereinfacht, traditionell), Englisch (Australien, Indien, Irland, Malaysia, Neuseeland, Philippinen, Saudi-Arabien, Singapur, Südafrika, Vereinigte Arabische Emirate, Großbritannien, USA), Französisch (Belgien, Kanada, Frankreich, Schweiz), Deutsch, Italienisch, Japanisch, Koreanisch, Mandarin (vereinfacht, traditionell), Portugiesisch (Brasilien, Portugal), Russisch, Spanisch (Mexiko, Spanien) und Ukrainisch (Ukraine). Der Erkennungsmodus sollte in Situationen, in denen Schäden oder Verletzungen drohen, sowie in Hochrisiko- oder Notfallsituationen nicht als verlässlich angesehen werden.
Die Live-Erkennung sollte in Situationen, in denen Schäden oder Verletzungen drohen, sowie in Hochrisikosituationen und bei der Navigation nicht als verlässlich angesehen werden.
VoiceOver unterstützt Arabisch (Welt), Bengali (Indien), Baskisch, Bhojpuri (Indien), Bulgarisch, Kantonesisch (Hongkong), Katalanisch, Kroatisch, Tschechisch, Dänisch, Niederländisch (Belgien, Niederlande), Englisch (Australien, Indien, Irland, Schottland, Südafrika, Großbritannien, USA), Farsi, Finnisch, Französisch (Belgien, Kanada, Frankreich), Galizisch, Deutsch, Griechisch, Hebräisch, Hindi, Ungarisch, Indonesisch, Italienisch, Japanisch, Kannada, Kasachisch, Koreanisch, Litauisch, Malaiisch, Mandarin (Festlandchina, Liaoning, Shaanxi, Sichuan, Taiwan), Marathi, Norwegisch, Polnisch, Portugiesisch (Brasilien, Portugal), Rumänisch, Russisch, Shanghaiisch (Festlandchina), Slowakisch, Slowenisch, Spanisch (Argentinien, Chile, Kolumbien, Mexiko, Spanien), Schwedisch, Tamil, Telugu, Thailändisch, Türkisch, Ukrainisch, Valencianisch und Vietnamesisch.
Die Bild-in-Bild-Ansicht ist auf der Apple Watch nicht verfügbar.
Die Hörgerätefunktion hat die FDA-Zulassung erhalten. Die Funktionen „Hörtest“ und „Hörgerät“ werden auf AirPods Pro 2 und neuer mit der neuesten Firmware unterstützt, wenn sie mit einem kompatiblen iPhone oder iPad mit iOS 18 oder iPadOS 18 und neuer gekoppelt sind, und richten sich an Personen ab 18 Jahren. Die Hörgerätefunktion wird auch auf einem kompatiblen Mac mit macOS Sequoia und neuer unterstützt. Sie ist für Personen mit einem wahrgenommenen leichten bis mittelschweren Hörverlust vorgesehen. Die Funktionen zur Hörgesundheit können sich jederzeit ändern. Einige Funktionen sind möglicherweise nicht in allen Regionen oder Sprachen verfügbar. Vollständige Liste anzeigen.
Die Gehörschutzfunktion funktioniert mit AirPods Pro 2 und neuer mit der neuesten Firmware, wenn sie mit einem kompatiblen iPhone, iPad oder Mac mit iOS 18, iPadOS 18 oder macOS Sequoia und neuer gekoppelt sind. Diese Funktion ist nicht in allen Regionen oder Sprachen verfügbar. Vollständige Liste anzeigen. Unter support.apple.com/120850 findest du Informationen zur Gesamtdämpfung und mehr. Das Gehörschutz-Feature schützt nicht bei extrem lauten plötzlichen Geräuschen wie Schussgeräuschen, Feuerwerk, Presslufthämmern oder dauerhafte Geräuschwerten über 110 dBA.
Für Live-Untertitel in FaceTime sind keine Anpassungsoptionen verfügbar.
„Live-Mithören“ erfordert kompatible Hörgeräte mit dem Logo „Made for iPhone“ und unterstützt iPhone 4s und neuer, iPad Pro, iPad (4. Generation und neuer), iPad Air und iPad mini. Damit „Live-Mithören“ mit AirPods, AirPods Pro, AirPods Max oder Powerbeats Pro verwendet werden kann, muss auf dem iOS- oder iPadOS-Gerät iOS 14.3 und neuer oder iPadOS 14.3 und neuer installiert sein.
Die Geräuscherkennung sollte in Situationen, in denen Schäden oder Verletzungen drohen, sowie in Hochrisiko- oder Notfallsituationen und bei der Navigation nicht als verlässlich angesehen werden.
„Eigene Stimme“ darf nur verwendet werden, um mit deiner Stimme auf deinem Gerät eine Stimme zu erzeugen, die wie deine eigene klingt, und zwar für den persönlichen, nicht kommerziellen Gebrauch.
„Eigene Stimme“ ist auf Englisch (USA), Mandarin (Festlandchina) und Spanisch (Mexiko) verfügbar. Die Funktion ist auf iPhone 15 Pro-Modellen, dem iPhone 16 oder neuer, dem iPad mini (A17 Pro), iPad-Modellen mit M1 und neuer sowie dem Mac mit M1 und neuer verfügbar.
Die Kopferfassung verfolgt die Bewegungen deines Kopfes mit der Gerätekamera, um so einen Zeiger auf deinem Bildschirm zu steuern. Zudem werden deine Gesichtsbewegungen erfasst, um damit Aktionen auszuführen.
Die Blickerfassung ist auf dem iPhone 12 und neuer, iPhone SE (3. Generation), iPad Pro (M4), iPad Pro (12,9″, 5. Generation und neuer), iPad Pro (11″, 3. Generation und neuer), iPad (A16), iPad (10. Generation), iPad Air (M2 und M3), iPad Air (4. Generation und neuer), iPad mini (A17 Pro) und iPad mini (6. Generation) verfügbar.
Die Sprachsteuerung ist auf Arabisch (Saudi-Arabien), Kantonesisch (Festlandchina, Hongkong), Englisch (Australien, Kanada, Indien, Singapur, Großbritannien, USA), Französisch (Frankreich), Deutsch (Deutschland), Italienisch, Japanisch, Koreanisch, Mandarin (Festlandchina, Taiwan), Russisch, Spanisch (Mexiko, Spanien, USA) und Türkisch verfügbar.
Der Rechtschreibmodus der Sprachsteuerung ist verfügbar, wenn Benutzer als Systemsprache Englisch (USA) eingestellt haben.
Für den Plattformwechsel müssen alle Geräte bei demselben Apple Account angemeldet und mit demselben WLAN-Netzwerk verbunden sein.
Die Live-Übersetzung in Nachrichten ist auf Chinesisch (Vereinfacht), Englisch (Großbritannien, USA), Französisch (Frankreich), Deutsch, Italienisch, Japanisch, Koreanisch, Portugiesisch (Brasilien) und Spanisch (Spanien) verfügbar, wenn Apple Intelligence auf einem kompatiblen iPhone, iPad oder Mac aktiviert ist, sowie auf der Apple Watch Series 9 und neuer und Apple Watch Ultra 2 und neuer, wenn diese mit einem Apple Intelligence-fähigen iPhone gekoppelt ist. Die Live-Übersetzung in der Telefon-App und FaceTime ist für Einzelgespräche auf Englisch (Großbritannien, USA), Französisch (Frankreich), Deutsch, Portugiesisch (Brasilien) und Spanisch (Spanien) verfügbar, wenn Apple Intelligence auf einem kompatiblen iPhone, iPad oder Mac aktiviert ist.
Apple Intelligence ist als Beta-Version verfügbar. Einige Funktionen sind möglicherweise nicht in allen Regionen oder Sprachen verfügbar. Informationen zur Verfügbarkeit von Funktionen und Sprachen sowie Systemanforderungen findest du unter support.apple.com/121115.
Von Safari Reader gesprochene Inhalte sind auf Englisch verfügbar (Australien, Kanada, Irland, Neuseeland, Südafrika, Großbritannien, USA).