Wählen Sie einen Ort mit KI ohne Computer

KI ist schnell, leistungsstark, läuft praktisch fehlerfrei und pausiert nicht. Damit ist es dem Menschen bereits in vielen Bereichen überlegen, in denen Arbeitsprozesse kontinuierlich mit gleichbleibend hoher Produktion und Qualität durchgeführt werden müssen. Aus diesen Gründen wollen wir künstliche Intelligenz in einer Machine-Vision-Umgebung im Zusammenspiel mit Robotern einsetzen, um den Betrieb effizienter und kostengünstiger zu gestalten. Ein Anwendungsfall eines Vision-geführten Roboters zeigt, wie typische Pick-and-Place-Aufgaben mit einem Roboter und einer KI-integrierten Vision-Kamera, die ohne Computer auskommt, intelligent automatisiert werden können.

Für Smart Fist müssen die verschiedenen Disziplinen optimal zusammenarbeiten. Wenn es beispielsweise darum geht, Produkte unterschiedlicher Größe, Form, Materialien oder Qualität mit einem Roboter zu sortieren, reicht es nicht, sie aufzunehmen, sie müssen auch vorab selektiert, analysiert und lokalisiert werden. Bei regelbasierten Bildverarbeitungssystemen ist dies oft nicht nur zu aufwendig, sondern gerade bei kleinen Losgrößen auch nur schwer wirtschaftlich realisierbar. Aber in Kombination mit KI-basiertem Denken ist es schon heute möglich, Industrierobotern die nötigen Fähigkeiten und Produktkenntnisse einem spezialisierten Werker beizubringen.

In der Produktionslinie werden Gegenstände zufällig auf einem Förderband verstreut. Objekte müssen erkannt, selektiert und beispielsweise in ihre Verpackung gelegt oder lagerichtig zu einer Bearbeitungs- oder Analysestation transportiert werden. Das Softwareunternehmen urobots GmbH hat eine computerbasierte Lösung zum Erfassen von Objekten und Steuern von Robotern entwickelt. Ihr trainiertes KI-Modell konnte Position und Orientierung von Objekten in Kamerabildern erkennen, woraus die Griffkoordinaten des Roboters ermittelt wurden. Ziel war es nun, diese Lösung auf das integrierte KI-basierte Vision-System der IDS Imaging Development Systems GmbH zu übertragen. Denn für die Lösung interessierten Urobots vor allem zwei Dinge:
1. Der Anwender muss in der Lage sein, das System selbst einfach an unterschiedliche Anwendungsfälle anzupassen, ohne dass spezielles Fachwissen im Bereich der künstlichen Intelligenz erforderlich ist. Und das auch dann, wenn sich beispielsweise in der Produktion etwas geändert hat, etwa die Beleuchtung oder das Aussehen von Objekten, oder auch wenn andere Arten von Objekten kombiniert werden mussten.
2. Das Gesamtsystem soll durch die direkte Verbindung der Gerätekomponenten ohne Computer funktionieren, dabei wirtschaftlich, leicht und platzsparend zugleich sein.

Diese beiden Anforderungen wurden bereits in IDS mit dem IDS NXT Inference Camera System gelöst. Das trainierte neuronale Netz identifiziert alle Objekte im Bild und ermittelt zusätzlich deren Position und Orientierung. Dank künstlicher Intelligenz ist dies nicht nur bei immer statischen und identischen Dingen möglich, sondern auch bei vielen natürlichen Variationen wie Lebensmitteln, Pflanzen oder anderen flexiblen Dingen. Dies führt zu einer sehr zuverlässigen Erkennung der Position und Richtung von Objekten. Die Urobots GmbH hat das Netzwerk für den Kunden mit eigener Software und eigenem Wissen trainiert, in das richtige Format konvertiert und anschließend auf die IDS NXT-Kamera hochgeladen. Dazu musste es in ein spezielles Format übersetzt werden, das einer Art „verketteter Liste“ ähnelte. Die Übertragung eines neuronalen Netzwerks, das für die Verwendung in einer Inferenzkamera trainiert wurde, war dank des von IDS bereitgestellten Gateway-Tools IDS NXT sehr einfach. Dann wird jede CNN-Schicht zu einem Knotendeskriptor, der jede Schicht genau beschreibt. Schließlich wird eine vollständige Liste, die dem CNN zugeordnet ist, in binärer Darstellung erzeugt. Dieser speziell für Kameras entwickelte FPGA-basierte CNN-Beschleuniger kann diese universellen CNN-Formate optimiert umsetzen.

Anschließend errechnet die von den Urobots entwickelte Vision-App aus den Erkennungsdaten die optimalen Griffpositionen. Aber die Arbeit ist noch nicht zu Ende. Neben dem, was, wo und wie erfasst werden soll, muss eine direkte Verbindung zwischen der IDS NXT-Kamera und dem Roboter hergestellt werden. Diese Aufgabe ist nicht zu unterschätzen. Hier werden oft die Zeit, das Geld und die Arbeitskraft identifiziert, die in eine Lösung investiert werden müssen. Die Urobots implementierten mithilfe des IDS NXT Vision App Creator ein XMLRPC-basiertes Netzwerkprotokoll in einer Kamera-Vision-Anwendung, um konkrete Arbeitsanweisungen direkt an den Bot zu senden. Die ultimative KI-Vision-App erkennt Objekte in etwa 200 Millisekunden und erreicht eine Positionsgenauigkeit von +/- 2 Grad.

Es ist nicht nur die KI, die diesen Anwendungsfall so intelligent macht. Dass diese Lösung komplett ohne zusätzlichen Rechner funktioniert, ist auch in zweierlei Hinsicht interessant. Da die Kamera selbst Bildverarbeitungsergebnisse generiert und nicht nur Bilder liefert, kann auf Computer und die gesamte dazugehörige Infrastruktur verzichtet werden. Letztendlich reduziert dies die Anschaffungs- und Wartungskosten der Installation. Oft ist es aber auch wichtig, dass Prozessentscheidungen direkt vor Ort, also „just in time“, getroffen werden. Dadurch können die folgenden Operationen schneller und ohne Verzögerung durchgeführt werden, was in einigen Fällen eine Erhöhung der Rate ermöglicht.

Um mehr herauszufinden

Leave a Comment