Apple stellt neue Barrierefreiheitsfunktionen vor, die auf mehr KI aufbauen

Wir alle haben einige der in iOS integrierten Eingabehilfen verwendet oder ausprobiert, sei es das Blinken eines Lichts bei einem eingehenden Anruf oder das zwei- oder dreimalige Tippen auf die Rückseite des iPhones, um eine App oder Einstellung aufzurufen. Dies ist jedoch nur die Spitze des riesigen Eisbergs, der die Einstellungen für die Barrierefreiheit ausmacht.

Wenige Tage vor dem World Accessibility Awareness Day, der am Donnerstag, den 19. Mai stattfindet, hat Apple gerade eine Reihe neuer Funktionen für Menschen mit verschiedenen Behinderungen angekündigt. Sie werden erst kurz nach dem Jahr auf den Markt kommen, aber der kalifornische Riese hat einige von ihnen in einer Pressemitteilung detailliert beschrieben.

Nimm die Tür (rechts)

Die erste heißt Türerkennung und ist für blinde oder sehbehinderte Menschen gedacht. Ziel ist es, dem Benutzer zu ermöglichen, die richtige Tür zu finden, wenn er eine ihm unbekannte Umgebung erreicht. So zeigt das iPhone, auf dem die Funktion aktiviert ist, an, wie weit der Benutzer von der Tür entfernt ist, kann es ihm sogar beschreiben, indem es eine mögliche Nummer oder einen Code einsteckt, und zeigt ihm an, ob sie offen ist. oder geschlossen. Das iPhone bestimmt auch, mit welcher Art von Griff die Tür ausgestattet ist, und zeigt dem Benutzer an, ob zum Öffnen gedrückt oder gezogen werden muss.

Um diese Informationen bereitzustellen, verwendet das iPhone (oder iPad) Lidar- und Kameramodule, und die Daten werden dann lokal von einem maschinellen Lernalgorithmus verarbeitet.

Diese Funktion wird im Erkennungsmodus innerhalb der Lupen-App aktiviert. Es wird die bereits vorhandene People-Discovery-Funktion und die Fotobeschreibung ergänzen. Um sehbehinderten Menschen die Navigation in der Außenwelt zu erleichtern, wird Apple Maps VoiceOver auch um Audio- und taktile Anzeigen erweitern, insbesondere um Benutzern zu sagen, in welche Richtung sie beispielsweise beim Verlassen einer U-Bahn gehen sollen.

Quick Captions auf iPhone, iPad und Mac

Eine weitere große Neuheit, die Apple angekündigt hat, ist Live Caption, eine Funktion, mit der Sie alle Inhalte benennen können, die eine Audiospur enthalten. Dies könnte eine Möglichkeit sein, zu sehen, was Ihre Gesprächspartner während eines FaceTime-Anrufs, während einer Videokonferenz, in einer Social-Media-App oder beim Ansehen eines Streaming-Videos sagen – auch wenn die meisten Plattformen inzwischen ihre eigene Lösung anbieten. Auf einem Mac ist es beim Chatten möglich, eine Antwort auf der Tastatur einzugeben und vom Gerät „laut“ vorzulesen.

Diese Informationen werden immer lokal verwaltet und nicht über das Internet durch Apple- oder Partnerserver geleitet.

Leider wird Live Caption erst später in diesem Jahr als Beta verfügbar sein, und zwar zunächst nur auf Englisch. Sie benötigen ein iPhone 11 oder höher, ein iPad mit einem A12 Bionic SoC oder höher oder einen Apple Silicon Mac.

Siehe auch das Video:

Uhr rückwärts…

Darüber hinaus hat Apple eine neue Funktion vorgestellt, die es Benutzern mit Mobilitätsproblemen ermöglicht, ihren Uhrenbildschirm auf ihrem iPhone anzuzeigen. Er kann dann seine Uhr vom Smartphone aus steuern, insbesondere per Sprache oder über ein Tool zur Überwachung der Kopfbewegungen.

Laut Apple ist dies eine Möglichkeit, diesen Personen den Zugriff auf erweiterte Gesundheitsfunktionen der Uhr zu ermöglichen, z. B. die Überwachung der Herzfrequenz oder des Blutsauerstoffgehalts.

Darüber hinaus werden die Ingenieure des Cupertino-Giganten neue Schnellaktionen auf der Uhr einführen. So ist es möglich, die Finger auf dem Bildschirm doppelt zu kneifen, um einen Anruf anzunehmen, den Anruf zu beenden, die Benachrichtigung zu schließen oder ein Lied zu lesen. Die Funktion kann Fans unter allen Benutzern finden.

Schließlich hat Apple andere Neuheiten aufgenommen, die weniger wichtig sind, aber das Leben von Menschen mit Behinderungen verändern können. Kumpel Konsole Dadurch kann der Spieler Hilfe von einem anderen Spieler anfordern, um Anweisungen von zwei verschiedenen Controllern für ein Einzelspieler-Spiel zu kombinieren.

Es wird auch möglich sein, das Timeout für Siri einzustellen, sobald es angefordert wird, sodass der Assistent länger oder kürzer wartet. schließlich, Spracherkennungdas in der Vergangenheit gezeigt wurde, soll den Benutzer darauf aufmerksam machen, wenn es an der Haustür geklingelt hat oder ein Feueralarm ausgelöst wurde.

Es ist sehr wahrscheinlich, dass die Teams von Tim Cook am 6. Juni während der Eröffnungskonferenz der WWDC 2022, die hauptsächlich online stattfinden wird, auf diese Ankündigungen zurückkommen werden.

Quelle : Apfel

Leave a Comment