Vision-Pro-Funktionen kommen ab iOS 18 auf iPhone und iPad

Apple hat am Mittwoch mehrere neue Funktionen für Barrierefreiheit auf dem iPhone und iPad angekündigt. Laut der Pressemitteilung sollten die Funktionen “später in diesem Jahr” kommen, was in Apples Sprache Spätsommer oder Herbst bedeutet. Folglich sind die neuen Funktionen für iOS 18 und iPadOS 18 vorgesehen, die voraussichtlich auf der Apple Worldwide Developers Conference Keynote am 10. Juni vorgestellt werden.

“Jedes Jahr betreten wir Neuland, wenn es um Barrierefreiheit geht,” so Sarah Herrlinger, Apples Senior Director of Global Accessibility Policy und Initiatives, in einer Pressemitteilung. “Diese neuen Funktionen werden sich auf das Leben einer Vielzahl von Nutzern auswirken und ihnen neue Möglichkeiten bieten, zu kommunizieren, ihre Geräte zu steuern und sich in der Welt zu bewegen.”

Hier ist eine Zusammenfassung der kommenden Funktionen für das iPhone und/oder iPad.

  • Augensteuerung: Gibt dem Benutzer die Möglichkeit, das iPhone oder iPad nur mit seinen Augen zu steuern. Dazu wird die Frontkamera verwendet. Dank des geräteinternen maschinellen Lernens werden die Daten auf dem iPhone oder iPad gespeichert und nicht an Apple weitergegeben.
  • Haptische Musik: Die Taptic Engine des iPhones spielt Klopfgeräusche, Texturen und feine Vibrationen ab, die der abgespielten Musik entsprechen. Eine API wird für Entwickler verfügbar sein.
  • Stimmen-Shortcuts: “Benutzerdefinierte Äußerungen” können mit Siri für Kurzbefehle verwendet werden.
  • Erkennung atypischer Sprache: Eine erweiterte Spracherkennungsfunktion, die maschinelles Lernen auf dem Gerät nutzt, um die Sprachmuster eines Benutzers zu erkennen. Sie ist für Benutzer gedacht, die unter Sprachstörungen leiden.
  • Anpassen an Fahrzeugbewegung: Für Menschen, die ihr Gerät im Auto verwenden, sollte diese Funktion das Auftreten von Reisekrankheit reduzieren. Auf dem Bildschirm erscheinen Punkte, die sich mit dem Fahrzeug mitbewegen, um Sinneskonflikte zu reduzieren.

Augensteuerung

Apples Augensteuerung fürs iPad und iPhone erinnert stark an die Bedienmöglichkeiten der Vision Pro: Auch dort steuert man die Menü-Oberfläche zunächst mit Augenbewegungen, später kommen noch Handbewegungen hinzu. Doch die Vision Pro ist nicht der einzige Vorfahr der neuen iOS- und iPadOS-Funktion, vor rund drei Jahren hat Apple eine Gestensteuerung per Frontkamera am Mac eingeführt: Nutzer mit Behinderungen konnten das Gerät mit ihrem Gesicht steuern, der Mac konnte auf Lächeln, Augenbrauen hochheben, Kopfnicken, sogar Zungen ausstrecken reagieren. Zwar sind Augenbewegungen deutlich subtiler als Kopfnicken oder Ausstrecken der Zunge, doch die Grundlagen einer Steuerung mit eigenem Körper waren auf dem Mac gelegt.

Carplay Updates in Kürze

Carplay erhält auch neue Funktionen:

  • Sprachsteuerung: Navigieren Sie auf der Carplay-Oberfläche mit Sprachbefehlen.
  • Geräusch-Erkennung: Hup- und Sirenenwarnungen für gehörlose oder schwerhörige Fahrer.
  • Farbfilter: Für farbenblinde Fahrer auf der Carplay-Oberfläche, die auch fetten und großen Text enthält.
CarPlay gibt einen visuellen Hinweis, wenn eine Sirene oder Hupe zu hören ist.

Apple

Neue visionOS-Funktionen für Barrierefreiheit

Das Apple Vision Pro erhält ebenfalls neue Funktionen für die Barrierefreiheit:

  • Live-Untertitel: Eine systemweite Funktion, die Untertitel von gesprochenen Wörtern in Echtzeit anzeigt.
  • Erweiterte Unterstützung von “Made for iPhone“: Es werden mehr Hörgeräte und Cochlea-Hörprozessoren hinzugefügt.
  • Transparenz reduzieren, Smart Invertieren und Blinklicht dimmen: Visuelle Anpassungen, um die Verwendung von Vision Pro zugänglicher zu machen.

Aktualisierungen der Barierrefreiheit-Funktionen

Apple kündigte außerdem an, dass diese Funktionen folgende Aktualisierungen erhalten (aus der Pressemitteilung von Apple):

  • Für blinde und sehbehinderte Benutzer wird VoiceOver neue Stimmen, einen flexiblen Sprachrotor, eine angepasste Lautstärkeregelung und die Möglichkeit zur Anpassung der VoiceOver-Tastaturkürzel auf dem Mac enthalten.
  • Lupe bietet einen neuen Lesemodus und die Möglichkeit, den Erkennungsmodus einfach über die Aktionstaste zu starten.
  • Braille-Nutzer erhalten eine neue Möglichkeit, die Braille-Screen-Eingabe zu starten und in ihr zu verbleiben, um eine schnellere Steuerung und Textbearbeitung zu ermöglichen. Die Verfügbarkeit der japanischen Sprache für die Braille-Screen-Eingabe, Unterstützung für mehrzeilige Braille-Schrift mit Dot Pad und die Möglichkeit, verschiedene Eingabe- und Ausgabetabellen zu wählen.
  • Für Benutzer mit eingeschränktem Sehvermögen zeigt Hover Typing bei der Eingabe in einem Textfeld größeren Text an – und zwar in der vom Benutzer bevorzugten Schriftart und Farbe.
  • Für Benutzer mit kognitiven Krankheiten und drohendem Sprachverlust wird Personal Voice in Mandarin-Chinesisch verfügbar sein. Benutzer, die Schwierigkeiten mit der Aussprache oder dem Lesen ganzer Sätze haben, können eine persönliche Stimme mit verkürzten Sätzen erstellen.
  • Für Nutzer, die nicht sprechen können, wird Live Speech Kategorien und gleichzeitige Kompatibilität mit Live Captions enthalten.
  • Für Benutzer mit körperlichen Behinderungen ermöglicht das virtuelle Trackpad für AssistiveTouch die Steuerung des Geräts. Dabei dient ein kleiner Bereich des Bildschirms als Trackpad, das in der Größe verändert werden kann.
  • Switch Control wird die Möglichkeit bieten, die Kameras in iPhone und iPad zu nutzen, um Fingertippgesten als Schalter zu erkennen.
  • Die Sprachsteuerung wird Unterstützung für benutzerdefinierte Vokabulare und komplexe Wörter bieten.

Dieser Artikel erschien ursprünglich bei unserer Schwesterpublikation “Macworld” und wurde aus dem Englischen übersetzt und erweitert.