Urzędujący tutaj kolega Mukul przy okazji jakiegoś wpisu o robotyce zwrócił mi uwagę, że nie poświęciłem tam miejsca dla Asimo, robota skonstruowanego przez inżynierów Hondy. Ów mechaniczny humanoid nie wydał mi się interesujący, ponieważ kojarzył mi się raczej z nieporadnym, nienaturalnie poruszającym się co najwyżej kelnerem. Jednak technologia nie śpi, a sam Asimo zdobył cechę, która skierowała na niego moją ciekawość – od niedawna można nim sterować wyłącznie myślami. Z resztą nie tylko na tym polu rozwija się w najlepsze interface mózg – komputer.
Sam pomysł nie jest nowy. Pojawiał się i tutaj, i tutaj. Niedawno też opisywałem małpkę, która karmi się za pomocą myśli. Na tym polu jednak co rusz dochodzą nowe informacje, bo wymyśliwszy sam sposób odbierania danych w przystępnej formie z aktywności mózgowej jesteśmy ograniczeni tylko oprogramowaniem, które będzie te informacje przerabiać na coś innego. A kreatywność programistów nie zna granic. Jeśli tylko dostępny jest ochotnik, który założy naszpikowany technologią czepek, można zacząć wyprawiać cuda.
Ale wracając do omawianej we wstępie japońskiej firmy – opracowała ona na zasadzie badania przepływu krwi przez korę mózgową cztery modele zachowań. “Skaner”, w którym siedzi pilot, po prostu uczy się jak wygląda aktywność mózgu w przypadku różnych myśli. Tak wyuczone znaki są rozpoznawane przez oprogramowanie robota który zachowuje się odpowiednio do otrzymanej instrukcji. Azjatycki wynalazek nauczył się reagować na wyimaginowane poruszanie lewą i prawą ręką, myśl o bieganiu i o jedzeniu.
Oczywiście możliwa jest nauka większej ilości mózgowych wzorców zachowania, jednak technologia ta jeszcze raczkuje. Przez to też nie jest na razie możliwa prezentacja tej technologii przy szerszej publiczności – pilot mógłby być zbyt rozkojarzony by oprogramowanie wychwyciło odpowiedni wzór korowego ukrwienia. Teraz głównym zadaniem skośnookich technologów jest miniaturyzacja całego sprzętu, by pilot nie wyglądał jak na wizycie u fryzjera, oraz wyczulenie aparatury, by rozpoznawała coraz bardziej zróżnicowane i trudniejsze modele aktywności mózgowej.
Rozwijanie tej technologii zbiegło się z wybuchem popularności serwisu twitter, gdzie ludzie zasypują się krótkimi wiadomościami. I tak 15 kwietnia Adam Wilson wysłał w świat dwie wiadomości – “GO BADGERS,”, ku chwale miejscowej drużyny, oraz “SPELLING WITH MY BRAIN.”. Tutaj do obejrzenia jego zmagania z wertowaniem mentalnych klawiszy komputera:
Wcześniej do zdalnej kontroli używane były fale mózgowe, które również na zasadzie uczenia się pozwalały studentom co bardziej rozwiniętych uczelni technicznych pobiegać w Second Life:
Wszystko pięknie i ładnie, do czasu aż ktoś nie wpadnie na pomysł, żeby się wybrać na miasto kierując tym brzdącem:
Wiem, że nie można tego nazwać pełnoprawnym artykułem, za co przepraszam, ale jakoś czasu nie mam. Dla tych co chcą trzymać rękę na pulsie zapraszam na neurotyczny kanał Twittera. Co prawda nie pisany myślami, ale nowinkom psychologicznym w zęby się nie zagląda ;)
Więcej:
Asimo Hondy
Wielkie piekielne robo-dziecko ziejące ogniem
Braintwitter
Fajnie, że coś skrobnąłeś o Asimo :) Dla mnie to dziś najbardziej wielofunkcyjny robot świata co świadczy o jego skomplikowanej architekturze i oprogramowaniu możliwe, że przekraczającym długość niektórych systemów operacyjnych. Panowie od kodu wykonali naprawdę fantastyczną robotę. Ja sam uważam, że przyszłość robotyki idzie w kierunku, gdzie robot na podstawie różnych bodźców zewnętrznych będzie analizując je sam się uczył – czyli sam sobie pisał “na żywo” oprogramowanie. Ponieważ do dalszego rozwoju potrzeba coraz więcej rąk i umysłów do pracy, to ta technologia powinna odciążyć w przyszłości trochę czasu i środków finansowych na napisanie odpowiedniego oprogramowania.
Od niedawna cały świat podbija technologia processingu (a właściwie języku programowania). Pozwala on na większą interakcję komputera z człowiekiem w trybie online. Za rok lub dwa mam zamiar zacząć zabawę w tym obszarze :)
http://en.wikipedia.org/wiki/Processing_(programming_language)
http://vimeo.com/3500248 (od 52:30 do 63:30)
I jeszcze co do sterowania umysłem. Ja podchodzę do tego dość sceptycznie, ze względu na sposób w jaki myślimy. To jest jasne dla każdego, że można ruszyć ręką myślami, bądź jej nie ruszyć choć o samym ruchu myśląc (uch). Jest różnica pomiędzy tymi sygnałami. Zakładam właśnie, że ruch robotem odbywa się za pomocą tych drugich myśli, które są wyjątkowo podatne za “zaśmiecenie”, czyli przy nieodpowiednim skupieniu bądź chwilowym rozkojarzeniu zaczynamy myśleć o czymś innym. Takie coś może powodować błędy w zachowaniu robota/oprogramowania. Oczywiście nie studiuje tematów związanych jakkolwiek z mózgiem, dlatego jeśli się mylę to proszę poprawienie :)