banner
Nachrichtenzentrum
Sie werden dieses Qualitätsniveau nicht zu einem besseren Preis finden.

Für viele wird der Schlüssel zum Erfolg von Spatial Computing auf Vision Pro das räumliche Bewusstsein sein

Dec 24, 2023

Das UI-Paradigma von Vision Pro ist anders als alles, was das Unternehmen jemals entwickelt hat.

In meinem Beitrag über erste Eindrücke zu Vision Pro im Anschluss an Apples WWDC-Keynote Anfang dieser Woche habe ich unter anderem geschrieben, dass das, was das kommende Headset in Bezug auf die Zugänglichkeit so faszinierend macht, darin liegt, dass das Gerät abstrakt ist und die AirPods und die Apple Watch deutlich konkreter sind. Es ist ein Punkt, der einer weiteren Extrapolation bedarf. Die räumlichen Aspekte des Vision Pro werden einen großen Einfluss auf seine Zugänglichkeit haben.

Hier ist die grundlegende Frage: Wie wird jemand mit eingeschränkten kognitiven Fähigkeiten die Überlagerung von Vision Pro mit der realen Welt verstehen?

Um das Konzept zu veranschaulichen, ist es am einfachsten, sich die Apple Watch – oder auch das iPad, das iPhone oder das MacBook – als gedrucktes Material wie ein Blatt Papier oder ein Buch vorzustellen. Die Uhr verfügt über einen Bildschirm, über den Sie Informationen visualisieren können. Der Bildschirm ist das Papier, die Schnittstellenelemente sind in dieser Analogie der „Druck“. Dieser Aufbau hat eine Konkretheit, die leicht zu verstehen ist. Sie als Benutzer sehen einen Bildschirm voller Informationen, ähnlich wie Sie gedruckte Wörter in einem Buch sehen.

Im Gegensatz dazu ist Vision Pro nicht an die Abstraktion gebunden. Der Fokus auf sogenanntes „Spatial Computing“ bedeutet naturgemäß, dass Benutzer mit einem Computer interagieren, der im Wesentlichen in der Luft schwebt. Es gibt keinen Bildschirm, der als metaphorisches Blatt Papier fungiert. Sie berühren den Bildschirm nicht buchstäblich, um zu tippen, zu wischen und zu kneifen. Dies bedeutet, dass sich eine Person neu orientieren muss, um die inhärente Amorphie des Headsets zu verstehen. In Bezug auf die Behinderung ist dies keine triviale Anpassung.

Räumliches Bewusstsein ist eine Fähigkeit, deren bekannteste Anwendung die Hand-Auge-Koordination ist. Erwägen Sie, etwas an Ihren Mac anzuschließen. Sie wissen, wo sich Ihre Hand im Raum relativ zum Objekt – in diesem Fall dem Mac – befindet, und Ihre Hand und Ihre Augen arbeiten zusammen, um durch den Raum zu navigieren. Entwicklungstechnisch sind hierfür kognitive, visuelle und feinmotorische Fähigkeiten erforderlich. Aufgrund einer Behinderung ist es offensichtlich, dass einige Menschen in dieser Hinsicht stärker sind als andere. Um nur ein Beispiel zu nennen: Aus diesem Grund bin ich ein großer Befürworter von MagSafe auf den Laptops von Apple. Obwohl ich Dinge anschließen kann, ist es nicht einfach. Es ist für mich viel einfacher, mich beim Aufladen meines MacBook Air von der Magnetkraft leiten zu lassen. Ich muss nicht mit dem Kabel herumfummeln und die Augen zusammenkneifen, um den USB-C-Anschluss zu finden, und beten, dass ich sie zusammenfügen kann. Alles, was ich tun muss, ist, das MagSafe-Kabel nah an den Computer zu halten und die Physik auf sich wirken zu lassen. Ein scheinbar kleines Detail, aber wie immer sind es oft die kleinen Dinge, die am Ende den größten Einfluss auf die Gestaltung einer positiven Benutzererfahrung für eine behinderte Person haben.

Was Vision Pro betrifft, wird es in Wirklichkeit interessant sein zu sehen, wie sich Menschen mit bestimmten kognitiven Einschränkungen sozusagen an das Rechnen im Nichts gewöhnen. Wie ich diese Woche berichtete, hat Apple erwartungsgemäß eine Reihe von Barrierefreiheitsfunktionen in das zugrunde liegende Softwaresystem des Headsets, visionOS, integriert. Da Vision Pro auf Eye-Tracking, Sprache und Gesten angewiesen ist, helfen Hilfsmittel wie AssistiveTouch beispielsweise Menschen bei der Bedienung des Headsets, wenn sie körperlich nicht in der Lage sind, beispielsweise die Pinch-Geste auszuführen, um Elemente in der Benutzeroberfläche auszuwählen. Apple hat eine Entwicklersitzung veröffentlicht, in der sie Softwareherstellern zeigen, wie sie am besten barrierefreie räumliche Erlebnisse für das Headset schaffen können. Das sind alles gute Puffer, aber es bleibt dennoch abzuwarten (kein Wortspiel beabsichtigt), wie sich ein Teil der Behindertengemeinschaft auf diese neue Art und Weise an die Informatik anpassen wird.

Eine der unbesungenen Meisterleistungen bei der Entwicklung von iOS ist die Art und Weise, wie Apple dieses kanonische Framework übernommen und eine Vielzahl davon in iPadOS, watchOS, tvOS und jetzt visionOS umgesetzt hat. Das Sprichwort besagt, dass Vertrautheit Komfort schafft, was auch auf die Zugänglichkeit zutrifft. Dass sich Apples Sonnensystem um die Sonne von iOS dreht (zumindest unter der Haube), bedeutet, dass eine behinderte Person mühelos von Gerät zu Gerät springen kann, während sie weiß, dass die Dinge mehr oder weniger ähnlich aussehen und funktionieren. Vision Pro ist in puncto Kontinuität keine Ausnahme; Was es auszeichnet, ist das UI-Paradigma.

Als ich sagte, dass wir wirklich am Abgrund einer neuen Ära stehen, meinte ich es ernst. Es ist nicht im Geringsten hyperbolisch. Die gesamte Idee des „Spatial Computing“ bringt für alle neue Fragen (und neue Möglichkeiten) mit sich.