Abrufen von Bildbeschreibungen für deine Umgebung in der App „Lupe“ auf dem iPhone
Auf allen Modellen kannst du die App „Lupe“ verwenden, um deine Umgebung zu scannen und Live-Bildbeschreibungen von den erkannten Szenen und Personen in der Kameraansicht zu erhalten.
Du wirst durch Text oder gesprochenes Feedback über die Live-Beschreibungen informiert.
Wichtig: Du solltest dich nicht auf den Erkennungsmodus verlassen, wenn du dich in risikoreichen Notfallsituationen oder in Situationen befindest, in denen du verletzt oder geschädigt werden könntest, und auch nicht für die Navigation.
Live-Bildbeschreibungen abrufen
Öffne die App „Lupe“ und führe beliebige der folgenden Schritte aus:
Auf Modellen mit einem LiDAR-Scanner: Tippe auf
und dann auf
.
Auf anderen Modellen: Tippe auf
.
Halte das iPhone so, dass die rückwärtige Kamera Bildbeschreibungen von deiner Umgebung erstellen kann.
Wenn du das gesprochene Feedback nicht hörst, stelle sicher, dass der Stummmodus deaktiviert ist. Weitere Informationen findest du unter Lautstärke auf dem iPhone anpassen.
Tippe abschließend auf „Fertig“, um zur Lupe zurückzukehren.
Einstellungen für Bildbeschreibungen anpassen
Öffne die App „Lupe“ und führe beliebige der folgenden Schritte aus:
Auf Modellen mit einem LiDAR-Scanner: Tippe auf
, auf
und dann auf „Bildbeschreibungen“.
Auf anderen Modellen: Tippe auf
, tippe auf „Einstellungen“ und dann unter „Detektoren“ auf „Bildbeschreibungen“.
Aktiviere eine beliebige Kombination aus Text und Sprachausgabe.
Text: Bildbeschreibungen erscheinen in der Kameraansicht.
Sprachausgabe: Wenn du die Sprachausgabe aktivierst, spricht das iPhone die Beschreibung der Szenen und Personen, die in der Kameraansicht erkannt wurden.
Tippe zum Schluss auf „Zurück“ und dann auf „Fertig“.