Język: jak jeden z najbardziej wrażliwych organów ciała pomaga niewidomym „widzieć”
Wpis jest tłumaczeniem artykułu „The tongue: how one of the body’s most sensitive organs is helping blind people ‘see’”, autor: Mike Richardson; The Conversation, 01-08-2022; na licencji Creative Commons, tłumaczenie Arkadiusz Polak, zdjęcie: Alex Guillaume z Unsplash.
Zastanawialiście się kiedyś, dlaczego całowanie jest lepsze niż trzymanie się za ręce? Język to całkiem niesamowite narzędzie, choć trudne do zbadania, ze względu na jego położenie wewnątrz jamy ustnej. Oczywiście, daje nam dostęp do wspaniałego świata smaku, ale co więcej, ma większą wrażliwość na dotyk niż opuszka palca. Bez niego nie jesteśmy w stanie mówić, śpiewać, sprawnie oddychać czy przełykać pysznych napojów.
Dlaczego więc nie wykorzystujemy go jeszcze bardziej? W moim nowym opracowaniu badam, jak można w pełni wykorzystać ten dziwny organ – potencjalnie jako interfejs pomagający osobom z wadami wzroku w nawigacji, a nawet w ćwiczeniach. Zdaję sobie sprawę, że może to brzmieć nieciekawie, ale proszę o cierpliwość.
Moje badania są częścią dziedziny znanej jako „substytucja sensoryczna”, gałęzi interdyscyplinarnej nauki, która łączy psychologię, neuronaukę, informatykę i inżynierię w celu opracowania „urządzeń zastępujących zmysły” (znanych jako SSD). Urządzenia SSD przekształcają informacje sensoryczne z jednego zmysłu na inny. Na przykład, jeśli urządzenie jest przeznaczone dla osoby z upośledzeniem wzroku, oznacza to zazwyczaj konwersję informacji wizualnej z kanału wideo na dźwięk lub dotyk.
Rysowanie obrazów na języku
BrainPort, opracowany po raz pierwszy w 1998 roku, jest jedną z takich technologii. Przekształca obraz z kamery w ruchome wzory stymulacji elektrycznej na powierzchni języka. Wyświetlacz na języku (małe urządzenie w kształcie lizaka) składa się z 400 małych elektrod, z których każda odpowiada pikselowi z obrazu z kamery.
Tworzy on na języku dotykowy wyświetlacz o niskiej rozdzielczości, odpowiadający sygnałowi z kamery. Technologia ta może być wykorzystana do pomocy ofiarom udaru w utrzymaniu zmysłu równowagi. A w 2015 roku amerykańska Agencja Żywności i Leków zatwierdziła jej zastosowanie jako pomoc dla osób niedowidzących.
Wyobraź sobie, że trzymasz rękę przed kamerą i czujesz, jak maleńka dłoń jednocześnie pojawia się na czubku twojego języka. To rodzaj uczucia, jakby ktoś rysował obrazy na twoim języku strzelającymi cukierkami.
Chociaż BrainPort jest dostępny od lat, nie spotkał się z dużym zainteresowaniem w świecie rzeczywistym, mimo że jest dziesięć razy tańszy niż implant siatkówki. Używam BrainPort do sprawdzenia, jak działa ludzka uwaga na powierzchni języka, aby sprawdzić, czy przyczyną tego mogą być różnice w postrzeganiu.
W badaniach psychologicznych istnieje słynna metoda badania uwagi, zwana paradygmatem Posner Cueing, nazwana tak na cześć amerykańskiego psychologa Mike’a Posnera, który opracował ją w latach 80. ubiegłego wieku do pomiaru uwagi wzrokowej.
Kiedy mówię uwaga, nie mam na myśli „rozpiętości uwagi”. Uwaga odnosi się do zestawu procesów, które wprowadzają rzeczy z otoczenia do naszej świadomości. Posner odkrył, że nasza uwaga może być stymulowana przez bodźce wizualne.
Jeśli przez chwilę widzimy, że coś porusza się w kącie naszego oka, uwaga skupia się na tym obszarze. Prawdopodobnie ewoluowaliśmy w ten sposób, aby szybko reagować na niebezpieczne węże czające się za rogami i na obrzeżach naszego pola widzenia.
Proces ten zachodzi również pomiędzy zmysłami. Jeśli kiedykolwiek siedzieliście w ogrodzie pubu w lecie i usłyszeliście w jednym uchu przerażający odgłos nadlatującej osy, wasza uwaga bardzo szybko została przyciągnięta do tej strony ciała.
Dźwięk osy przykuwa waszą uwagę słuchową do ogólnej lokalizacji potencjalnie nadlatującej osy, dzięki czemu mózg może szybko przydzielić uwagę wzrokową, aby zidentyfikować dokładną lokalizację osy oraz uwagę dotykową, aby szybko zamachnąć się lub odskoczyć od osy.
To jest to, co nazywamy uwagą „krzyżowo-zmysłową” (wzrok jest jednym sposobem odczuwania, dźwięk innym) – rzeczy, które pojawiają się w jednym ze zmysłów mogą wpływać na inne zmysły.
Zwracanie uwagi na język
Wraz z kolegami opracowaliśmy odmianę paradygmatu Posner Cueing, aby sprawdzić, czy mózg może przydzielić uwagę dotykową na powierzchni języka w taki sam sposób, jak dłonie lub inne sposoby uwagi. Wiemy wiele o uwadze wzrokowej i dotykowej na dłoniach i innych częściach ciała, ale nie mamy pojęcia, czy ta wiedza przekłada się na język.
Jest to ważne, ponieważ BrainPort został zaprojektowany, zbudowany i sprzedawany, aby pomóc ludziom „widzieć” poprzez język. Musimy jednak zrozumieć, czy „widzenie” za pomocą języka jest tym samym, co widzenie za pomocą oczu.
Odpowiedź na te pytania, jak prawie wszystko w życiu, jest skomplikowana. Język reaguje na informacje w przybliżeniu tak samo jak ręce czy wzrok, ale pomimo niesamowitej wrażliwości języka, procesy uwagi są nieco ograniczone w porównaniu z innymi zmysłami. Bardzo łatwo jest nadmiernie stymulować język – powodując przeciążenie sensoryczne, które może utrudnić wyczucie tego, co się dzieje.
Stwierdziliśmy również, że na procesy uwagi na języku może wpływać dźwięk. Na przykład, jeśli użytkownik BrainPortu słyszy dźwięk po lewej stronie, może łatwiej zidentyfikować informacje po lewej stronie języka. Może to pomóc w kierowaniu uwagą i zmniejszyć przeciążenie sensoryczne w przypadku BrainPortu, jeśli zostanie on połączony z interfejsem słuchowym.
Jeśli chodzi o rzeczywiste wykorzystanie BrainPortu, przekłada się to na zarządzanie złożonością informacji wizualnych, które są zastępowane i, jeśli to możliwe, wykorzystanie innego zmysłu, aby pomóc podzielić się częścią obciążenia sensorycznego. Używanie BrainPortu w odosobnieniu może być zbyt stymulujące, aby zapewnić wiarygodne informacje i może być potencjalnie ulepszone przez zastosowanie innych technologii wspomagających, takich jak vOICe.
Wykorzystujemy te odkrycia do opracowania urządzenia pomagającego wspinaczom skałkowym z wadami wzroku w nawigacji podczas wspinaczki. Aby zapobiec przeciążeniu informacjami, wykorzystujemy uczenie maszynowe do identyfikacji chwytów wspinaczkowych i filtrowania mniej istotnych informacji. Badamy również możliwość wykorzystania dźwięku do podpowiedzenia, gdzie może znajdować się następny chwyt, a następnie wykorzystania informacji zwrotnej na języku do dokładnego zlokalizowania chwytu.
Po wprowadzeniu kilku poprawek, technologia ta może w końcu stać się bardziej niezawodnym instrumentem pomagającym w nawigacji osobom niewidomym lub głuchym. Może nawet pomóc osobom paraplegicznym, niezdolnym do używania rąk, nawigować lub komunikować się bardziej efektywnie.
Mike Richardson – Research Associate in Psychology, University of Bath
Miałem nieco zygzakowatą drogę przez uczelnię. Wyszedłem z szóstej klasy z zamiarem zostania „profesjonalnym” kajakarzem (oznaczało to mieszkanie z tyłu vana gdzieś w pobliżu rzeki). Następnie studiowałem Sport i Exercise Science na University of Portsmouth, gdzie odkryłem, że nauka jest niesamowita i chcę to robić zamiast kajakarstwa. Konkretnie, odkryłem, że mózg jest całkiem szalony i chciałem wiedzieć więcej! Następnie ukończyłem studia magisterskie z neuronauki poznawczej na Uniwersytecie w Sussex, a niedawno ukończyłem studia doktoranckie z psychologii na Uniwersytecie w Bath, gdzie badałem upośledzenie wzroku i ćwiczenia fizyczne. Obecnie pracuję jako Research Associated na Uniwersytecie w Bath, gdzie badam doświadczenia publiczności podczas występów na żywo i technologii immersyjnych (co tak naprawdę nie ma nic wspólnego z wadą wzroku czy kajakarstwem).
Obecnie produkuję treści dla platformy komunikacji naukowej: 'SENSE(LESS) Psychology).