Interfejsy człowiek-maszyna
Prezentacja i
artykuł stworzone przy okazji
seminarium dyplomowego magisterskiego.
Uzupełnienie do artykułu
-
Artykuł
o podobnej tematyce
-
Filmik
o tym jak wykorzystać nieinwazyjną elektromiografię do stworzenia nowego
interfejsu (Microsoft)
-
Kolejny interfejs Microsoftu - Skinput.
Tym razem steruje się puknięciem w rękę dzięki pomiarowi spowodowanej nim rozchodzącej się fali akustycznej.
-
Displax, zrób ekran dotykowy z prawie dowolnej powierzchni
-
Kolejny
artykuł
w temacie. Wspomina g-speak. O systemie mowa również w moim artykule.
-
Klawiatura połączona z touchpadem. Wersja mini. Zmienne mapowanie przycisków wyświetlane na bieżąco na nich samych.
-
Materiał BBC o testach urządzenia BrainPort, o którym mowa w artykule.
-
Kolejny egzoszkielet, tym razem z Izraela.
- Wyprodukowane przez Berkeley Bionics dla
amerykańskiej armii HULC oraz wersja
cywilna.
- Sterowanie gestami
w powietrzu. Podobne do 6th sense, ale tutaj obraz pozostaje jedynie
wyobrażeniem operatora.
- Natal (wspomniany w artykule) to teraz Kinect
- LuminAR
Lamp - "an augmented reality robotic interface". Lampka biurkowa z
rzutnikiem zamiast żarówki jako komputer osobisty.
- Małpa steruje mechanicznym ramieniem przy pomocy myśli
- Ekran multitouch, implementacja wodna
- Dający się wyginać ekran np. do intuicyjnej obsługi map - pokaz Toshiby.
Nieodparcie kojarzy się z Gummi.
- Rękawica tłumacząca język migowy.
- Implant
zastępujący siatkówkę.
- I jeszcze coś w klimacie zastępowania
siatkówki. Pobudzanie mózgu światłem zamiast
elektrycznością.
- Hodowla
szczurzych neuronów do sterowania robotem.