Brain-Controlled Rollstuhl-Robot

1 Schritt:

Video-Brain-Controlled Rollstuhl Robot unsere Unabhängigkeit Projekteingabe ist es, unseren bisherigen Brain-Controlled Rollstuhl-Projekt (1. Preisträger des Humana Health Herausforderung in Abstimmung mit jerkey) in ein neues Design, das eine revolutionäre Kombination von EEG-basierte verwendet erweitern P300 Erkennungen zu automatisch einen Rollstuhl zu manövrieren um ein Haus oder Büro sowie Augmented Reality, um mit Objekten, wie sie in einem Kühlschrank gefunden zu interagieren, das Laden einer Spülmaschine oder Abholen der Mail. Dies ist eine deutliche Verbesserung gegenüber der Benutzer sich konstante Konzentration auf einen einzigen Gedanken zu halten, während verbleibenden bewusst und Blind zu ihrer Umgebung.

In einer Befragung von 681 Personen, die von Verletzungen des Rückenmarks befallen 2004 , als in welcher Weise ihre Lebensqualität am meisten verbessert werden gebeten, erhöhte Mobilität hat die Liste nicht top. In der Tat registriert es fünften und vierten für Tetraplegiker und Paraplegiker sind. Statt viele der begehr Anfragen drehten sich um zunehmende persönliche Unabhängigkeit und die Wiederherstellung der Kontrolle von Körperfunktionen. Durch die Integration eines Roboterarms und telepresense Steuer helfen wir arbeiten auf dieses Ziel hin.

Zum Beispiel, wenn jemand in einem Bett liegend will ein Getränk aus der Küche, dann müssen sie können, um eine Bezugsperson zu helfen, übertragen sie in den Rollstuhl, an welcher Stelle die Pflegeperson kann auch das Getränk in den ersten Platz abgerufen haben zu gewinnen. Darüber hinaus, wenn die Navigation zwischen den Räumen und um Hindernisse erfordert eine oder andere Konstante, sorgfältige Konzentration bilden dann die Lösung ist nicht sehr bequem zu bedienen. Auch sollte es erforderlich sein, sie Produkte persönlich abrufen.

Unsere aktualisierten Entwurf enthält die neueste Computer-Vision und Robotik Engineering bis zur automatisierten Wegfindung und Interaktion mit einfachen Objekten mit einem benutzerdefinierten Arm bereitzustellen. Statt der manuellen Navigation, wird der Benutzer mit einem Grundriss oder Karte von ihrem aktuellen Ort dargestellt. Sie können eine einzelne "Küche" Auswahl zu treffen mit einem P300-basierten Menü und der Roboter wird herausfinden, wie man es am besten Reise. Der Benutzer kann im Rollstuhl sitzenden Zeitpunkt oder das Betrachten der Ferne über einen Live-Video-Feed ist.

Bei Erreichen der Küche, ist eine erweiterte Objektlagerung ermöglicht erkannten Objekte hervorgehoben und ausgewählt (wieder über P300) werden hergestellt. Der Benutzer kann dann einen zweiten Befehl, um das Getränk zu holen, und schließlich, um zum ursprünglichen Raum des Hauses zurück.

Die gesamte Sequenz kann somit aus einem konstanten Belastung auf einige wenige einfache Auswahl, die für eine viel angenehmer und praktischer Erfahrung macht Benutzer reduziert werden.

Dieser Entwurf wird auch auf einem Roboter, der Aufbau kann mit gängigen Werkzeugen und Geräten finden sich in konzentrieren Hackerspaces wie Noisebridge (als betrieben 501c3 gemeinnützige Organisation), wo in der Regel erfüllt unsere Gruppe. Wenn wir gewinnen, sind wir bestellen und spenden ein neues Laser-Cutter und 3D-Drucker für die Verwendung mit diesem und anderen Projekten sowie Kauf verschiedenen Materialien, die wir für unsere ersten Prototypen wie Servomotoren und einer Laser-Pfadfinder.

Unsere Erfahrungen in diesem Bereich, einschließlich der DORA Opensource Roboterassistenten , Brain-gesteuerte Hubschrauber, der Brainstorms Bildungsinitiative (zB einem und zwei ), und sogar einen Guinness-Weltrekord für Brain-Computer Interface.