Neue Informationen

Aktuelles rund um codecentric

Hier finden Sie aktuelle Informationen zum Unternehmen, zu unseren Projekten und Auszeichnungen sowie Events und neuen, geplanten Kooperationen und Partnerschaften.

codecentric AG tüftelt an eigener Drohne

Ein besonderes Projekt beschäftigt seit Beginn dieses Jahres unser Karlsruher und Hamburger Team: die Programmierung einer interaktiven Drohne mit Computer Vision Features, Entfernungssensoren und Audio In- und Output.
Ziel ist es, dass die codecentric-Drohne in naher Zukunft durch einen Raum navigieren und dabei Hindernisse erkennen kann. Sie soll Personen identifizieren und mit ihnen interagieren; mit ihnen sprechen, ein Bild von ihnen machen und über Social Media o.ä. kommunizieren.
Oliver Moser berichtet, wie es zu der Projektidee kam:

Bei codecentric gilt das 4+1-Prinzip. Wir waren auf der Suche nach einem +1-Projekt, bei dem wir im Team an aktuellen Technologien arbeiten können. Es sollte eine anspruchsvolle Aufgabe sein, so dass wir über mehrere Monate an einer komplexen Problemstellung lernen können. In mehreren Workshops haben wir systematisch verschiedene Ideen erarbeitet. Schließlich haben wir uns bewusst für ein Thema entschieden, bei dem zunächst der Spaß und weniger ein konkreter Business Case im Vordergrund steht. Die Schwerpunkte Computer Vision und Fast Data (Realtime-Verarbeitung von Video-Daten) passen dabei sehr gut zu unserer aktuellen Ausrichtung. Auch sollte das Thema so ansprechend sein, dass wir damit eine große Zielgruppe erreichen können. Im Projekt cvdrone.de haben wir diese Anforderungen miteinander vereint und sind mit Spaß und Motivation dabei, das ganze voranzutreiben.

Ganz am Anfang stand aber zunächst die Frage nach der Hardware. – Keine triviale Wahl, denn die Anforderungen an die Drohne sind hoch: Maximal 1000 Euro wollte das Team investieren, offene APIs sollte sie haben, in der Lage sein, einen Raspberry Pi zu tragen, OpenCV zu integrieren und noch einiges mehr. Die Wahl fiel schließlich auf Parrot Bebop 2, für die ein SDK zum Controlling verfügbar ist, die es ggf. aber auch erlaubt, weitere Software zu flashen und die eine Full-HD-Kamera mitbringt. Hier seht ihr den Jungfernflug der Drohne im Karlsruher Office. Auch die Fähigkeit, in Räumen stabil zu navigieren war übrigens ein Requirement:


Als erstes Feature wurde der Emergency Stop implementiert. Inzwischen arbeitet das Team an der Drohnen-Steuerung sowie Computer Vision und dem Finden von Personen. Erstes Ziel: Die Drohne wird via API gestartet, rotiert um 360 Grad und anhand des Video-Signals wird analysiert, ob sich Personen im Raum befinden. Wenn ja, soll die Drohne die Rotation stoppen bzw. gewissen Signalen der Person folgen. Mit den erweiterten Sensoren (Distanzsensoren, Microfone) können dann die Flugfähigkeiten weiter automatisiert werden: Wenn jemand „Stop“ ruft, soll die Drohne selbstständig landen (Emergency Stop via Audio Signal). Drei Mikrophone erübrigen künftig die Suchrotation, um Personen ausfindig zu machen, denn wenn jemand dann „Hey Drone“ ruft, kann sie die Position anhand der Audio Signale bestimmen und gezielt dorthin rotieren.
Die Auseinandersetzung mit grundsätzlichen Fragen nach den zum Use-Case passenden
Sensoren etc. findet ihr hier: http://cvdrone.de/research-perceive-surroundings.html
Als neuestes Feature wurde zuletzt der dlib correlation tracker hinzugefügt. Dieser prüft,
ob sich in einer ROI (region of interest) ein Gesicht befindet. Sehen könnt ihr das hier:


Wir sind schon sehr gespannt, wie sich die codecentric-Drohne weiterentwickeln wird. Das
Projekt nachlesen und mitverfolgen könnt ihr auf der eigens dafür eingerichteten Homepage.
Wer sich übrigens fragt, wie unser Team die Zeit findet, an solchen Projekten zu arbeiten:
Die codecentric AG hat das 4+1-Prinzip, d.h. den Mitarbeitern steht ein Tag pro Woche für
die Fort- und Weiterbildung, das Knowledge Leadership etc. zur Verfügung und dabei
kommen dann auch solche tollen Ideen zum Tragen.