• Home »
  • Computer Vision »

    4 Schritt:Schritt 1: Environment Set-up Schritt 2: Fügen Kode für Verfolgung Farbe Schritt 3: Versuchen Sie es heraus Schritt 4: Anzeige von Text, wenn Farbe erkannt

    Ich machte mich auf ein Projekt auf Intel OpenCV Edison mit Node.js für Tracking-Objekte zu erstellen. Hat C ++, C, Python und Java-Schnittstellen, so wie kann man nur mit JavaScript arbeiten nur OpenCV? OpenCV noch nie in JavaScript in seiner Gesamtheit portiert, aber Einzelteile und Algorithmen. Bibliotheken wie JS-OBJECTdetect, HAAR.js und tracking.js haben Merkmalerfassungs capabilites basierend auf Haar Cascades in JavaScript (Viola-Jones Algorithm). Weitere Bibliotheken umfassen: OpenCVjs, opencvjs, CCV und headtrackr. In diesem Tutorial werde ich mit tracking.js , was eine Bibliothek, Computer Vision Algorithmen und Techniken, um den Web-Browser bringt ist. Ich habe edi-cam Projekt , als Rahmen die Einrichtung eines Web-Server auf dem Edison und Strom ein Video auf dem Browser, um weitere Informationen über sie diesem Link folgen. Grundsätzlich ist die EDI-cam projec t ermöglicht Live-Video-Streaming auf Intel Edison mit Node.js und WebSockets. Was du brauchst: Intel Edison Arduino Breakout Board eine Webcam, die UVC-Treiber kompatibel Grove Strater Kit A Stromversorgung (9V Batterie oder Intel Galileo Netzkabel) ist Installieren Sie WinSCP und PuTTY Schritt 1: Environment Set-up Richten Sie eine serielle Kommunikationssitzung mit der Intel® Edison Pension (Tutorial) Montieren Sie die Platine und blinken die Firmware mit der neuesten Yocto Bild Configure WiFi auf dem Edison git clone EDI-cam-Repository und folgen Sie den Installations Anweisungen aufgeführt root @ Edison: ~ # configure_edison --wifi root @ Edison: ~ # git clone https://github.com/drejkim/edi-cam.git Schritt 2: Fügen Kode für Verfolgung Farbe Ich habe das Client Index.html aus dem EDI-cam Projekt tracking.js Bibliotheken verwenden, um bestimmte Farben zu erkennen. Starten Sie WinSCP und verwenden Sie dieses Tutorial, um den Zugriff auf die Dateien auf dem Edison Navigieren Sie zu edi-cam / web / Client und Open index.html zu bekommen, kopieren, in den Code gebunden. Laden Sie die folgenden Dateien aus den tracking.js Bibliotheken und sie zu Ihrer Datei index.html in den Client-Ordner <Script src = "js / Tracking-min.js"> </ script> <Script src = "js / color_camera_gui.js"> </ script> Bearbeiten Sie die wsUrl in web / client / index.html, um Ihre IP-Adresse Edisons // Diese zu Ihrem korrekten WebSocket Adresse ändern szmtag var wsUrl = 'ws: //myedison.local: 8084 /'; Beispielsweise: var wsUrl = 'ws: //192.168.4.34: 8084 /'; Wenn der Edisons IP-Adresse ist 192.168.4.34.Step 3: Probieren Sie es aus Jetzt, da alles eingerichtet ist, wechseln Sie zu edi-cam / web / Server und geben Sie die Knoten server.js im Terminal root @ Edison: ~ # cd edi-cam / web / Server root @ Edison: ~ # Knoten server.js Öffnen Sie Ihren Browser (Mozilla bevorzugt) und geben Sie die Adresse zu Ihrer Edison an Port 8080, zum Beispiel http://192.168.4.34:8080 Sie sollten ein Video-Stream zu sehen und zu versuchen und ihnen ein Objekt, das in vor der Webcam grün ist und es sollte das Objekt zu erfassen Schritt 4: Anzeigetext, wenn Farbe erkannt UPM ist ein hohes Maß Repository für Sensoren, die MRAA verwenden und das ist, wie man es verwenden, um Farbe und Text auf der Grove LCD Hintergrundlicht RGB-Display in der Grove Sensor Kit anzuzeigen // Lade-LCD-Modul auf I2C var LCD = require ('jsupm i2clcd "); var myLcd = new LCD.Jhd1313m1 (0, 0x3E, 0x62); myLcd.setCursor (0,0); myLcd.setColor (109.226, 41); myLcd.write ('Hallo Green'); So setzen wir die LCD-RGB-Modul bis hellgrün und Anzeige "Hallo Grün!" wenn es ein grünes Objekt auf der Live-Videostream erfasst. Schließen Sie die Basis Abschirmung an die Edison und die LCD-Anzeige auf den I2C-Anschluss an der Basisschutz. Aktualisieren Sie den Code, um einer befestigt und wiederholen Sie Schritt 3 und sehen, probieren Sie es aus mit einem grünen Objekt.$(function() {$("a.lightbox").lightBox();});

      4 Schritt:Schritt 1: Wie es funktioniert Schritt 2: Lassen Sie Verarbeitungssatz Up Schritt 3: Starten-Code Schritt 4: Probleme und Kritik

      Ohhh Timing. Sie ruinieren jede Sprungwurf. Du Countdown rechts, bevor Sie in die Luft springen und Ihr Freund ist auf dem Boden mit ihren Finger auf dem Auslöser kauerte. Sprung in der Luft mit einem herrlichen springen, stellen Sie für einen Bruchteil einer Sekunde. Vertrauen in Ihre Fähigkeit, die Sie an Ihren Freund laufen nur um festzustellen, dass es wieder einmal ein weiteres perfekt große Sprungwurf von der Verzögerung zwischen dem Drücken des Auslösers und das Foto tatsächlich gemacht ruiniert. Nun, nicht mehr! Verwendung Verarbeitung , OpenCV und eine hohe Qualität Web-Kamera, können Sie eine perfekte Sprungwurf (fast *) jedes Mal zu nehmen! * Hat einige lästige Einschränkungen (siehe den letzten Schritt!)

        7 Schritt:Schritt 1: Software-Installation Schritt 2: Microsoft Kinect und Rhino XR-4 Robotic Arm Schritt 3: Position, sichere und von unten die Microsoft Kinect Schritt 4: Laden Sie die beigefügten Simulink Models und MATLAB-Dateien Schritt 5: Koordinatentransformation Schritt 6: Definition eines neuen Volume Schritt 7: Dass sie alle zusammen!

        Roboter sind schnell zu mehr in unser Tag zu Tag Leben integriert. Sie reinigen unsere Böden, machen unser Kaffee, und werden auch für Telepresence verwendet. Da sie immer so wichtig für die Gesellschaft, warum nicht geben unserem Roboter-Begleiter die Gabe der Vision? In diesem instructable, werde ich Ihnen zeigen, wie Sie die Microsoft Kinect verwenden, um das dreidimensionale Sehen und Tiefe, um einen Roboterarm zu schaffen, um in der Automatisierung von grundlegenden Aufgaben unterstützen. Das Endergebnis dieses instructable ist, um das Microsoft Kinect verwenden, um die dreidimensionale Position eines zufällig platzierten Objekts zu erfassen und weiterzuleiten, dass die Position in einem Roboterarm, der dann aufnehmen kann das Objekt ohne Eingabe von dem Benutzer. Weitere detaillierte Anweisungen und weitere Informationen finden Sie unter: http: //openscholarship.wustl.edu/wushta_spr2013/17 ... http: //ese.wustl.edu/ContentFiles/Research/Undergr ... http://kinectkontrol.weebly.com/ Notwendige Hardware: Rhino XR-4 Robotic Arm Mark IV Controller (an einen PC über ein RS-232C-Schnittstelle angeschlossen) Microsoft Kinect (erste Iteration) Erforderliche Software: Windows 7 32/64 Bit (64 Bit wird bevorzugt) oder höher MatLab R2011b oder höher. CMEX Compiler: Microsoft Visual Studio 2010 Express Edition (VC ++) OpenNI Simulink Unterstützung für Kinect

          5 Schritt:Schritt 1: Laden Sie die benötigten Dateien Schritt 2: Kaufen oder bauen notwendigen Komponenten Schritt 3: Erstellen Fliesen Schritt 4: Führen Sie die Anwendung Schritt 5: Musik

          Diese Instructable führt Sie durch die erforderlich sind, um unsere Physical Computing Projekt einer Tabelle, die Musik erzeugt auf der Basis der Positionierung der Fliesen auf sie gesetzt wird neu Schritte.

          Seiten: