Czy w przyszłości wirtualnym światem będziemy zarządzać dłońmi?

Coraz częściej mówi się o tym, że Microsoft intensyfikuje wysiłki, których celem ma być stworzenie zaawansowanego systemu pozwalającego na rozpoznawanie gestów wykonywanych za pomocą dłoni. Firma dąży do tego, aby komunikacja człowieka i komputera w niedalekiej przyszłości odbywała się w sposób najbardziej dla nas naturalny, a więc właśnie za pośrednictwem dłoni. Dzięki nowym technologią możliwe ma się stać nie tylko manipulowanie obiektami znajdującymi się na ekranie komputera, ale i tymi, które są częścią wirtualnej rzeczywistości.

W realnym świecie najczęściej wchodzimy w interakcje z przedmiotami podnosząc je, dotykając i manipulując nimi. Microsoft chce, aby w ten sam sposób wyglądała interakcja z tymi obiektami, które są częścią świata wirtualnego. Jeśli technologie wirtualnej wizji spełnią pokładane w nich nadzieje, ludzie odpowiedzialni za projektowanie takich rozwiązań, jak choćby ekspresy do kawy lub telewizory oraz wszystkie te rozwiązania, w których zastosowanie znajduje ‘Internet rzeczy” będą mogli korzystać z nowych możliwości odnoszących się do interakcji z projektami.

Oczywiście, samo stworzenie systemu pozwalającego na ręczną manipulację obiektami wirtualnymi tylko z pozoru jest prostym zadaniem. System musi przecież działać w sposób maksymalnie zbliżający taką interakcję do tej, z jaką mamy do czynienia w realnym świecie. Co więcej, musi zużywać jak najmniej mocy obliczeniowej oraz energii systemu. Nie jest to łatwe, skoro bowiem dłonią możemy objąć niewielką piłkę, od systemu oczekuje się, że w momencie, w którym palce znikną z pola widzenia, będzie on w stanie obliczyć nie tylko, co się z nimi stało, ale i to, co robią w danym momencie.

Uporanie się z tym problemem jest możliwe przede wszystkim dzięki nowatorskim systemom pozwalającym na śledzenie ruchu dłoni. Bazują one przy tym na algorytmie, który narodził się już w latach czterdziestych dwudziestego wieku, a więc wówczas, gdy ludzkość nie dysponowała jeszcze dużymi mocami obliczeniowymi, a rozwiązania dostępne były wyjątkowo drogie. Dzięki temu powstał system, który jest w stanie szybko, dokładnie, a jednocześnie nieprzerwanie śledzić ruchy dłoni. Co więcej, może on działać także w odniesieniu do zwykłych gadżetów, które powstają z przeznaczeniem na rynek konsumencki. Obecnie jego dokładność jest już na tyle duża, że użytkownik przestaje odczuwać różnicę pomiędzy swoją dłonią oraz dłonią wirtualną.

Dla inżynierów, którzy pracują przy projekcie Handpose, najbardziej zaskakujące jest to, że osoby postronne wcale nie uważają braku uczucia dotyku za poważny problem. Jeśli więc system jest wiarygodny i dobrze zaprojektowany, nasze zmysły mogą nas przekonać o tym, że dotykamy czegoś, nawet, jeśli nie ma mowy o rzeczywistym kontakcie. Nie oznacza to jednak, że nie ma powodu do obaw. Te dotyczą przede wszystkim momentu, w którym system stanie się bardziej rozbudowany i realistyczny, w takim momencie trudniej będzie bowiem przekonać zmysł dotyku o tym, że właśnie wszedł w reakcję z obiektem wirtualnym.

Być może dotknięcie czegoś stanie się więc nieuniknione. Rozwiązaniem problemu może okazać się wykorzystanie rzeczywistych przedmiotów, których zadanie będzie polegało właśnie na udoskonaleniu odczucia interakcji ze światem wirtualnym. W laboratoriach Microsoftu jest już testowany projekt, który pozwala na używanie tego samego elementu fizycznego po to, aby złożyć strukturę wirtualną, dla której charakterystyczne jest to, że składa się z wielu identycznych elementów. Ta sama zasada może być rozbudowywana w projekcie wykonywania operacji za pomocą gestów.