Im Überblick:
Die EMO 2025 präsentiert schlüsselfertige Zellen, die Werkzeugmaschinen mit Cobots/AMRs und eingebetteter KI-Vision kombinieren. Der technische Vorsprung liegt in der zuverlässigen, latenzarmen Inferenz bei 5–10 W, der robusten Beleuchtung und der sicheren Integration mit CNC/SPS.
Wichtige Komponenten: Global-Shutter-Kameras, kontrollierte Beleuchtung, deterministische Trigger/Encoder, kompakte NPUs/SoCs/FPGAs und sicherheitszertifizierte Scanner für mobile/robotergesteuerte Bewegungen.
Der Erfolg hängt von einer disziplinierten Optik/Beleuchtung, dem Design der Datensätze, MLOps auf dem Gerät und der Einhaltung der Sicherheitsstandards für Roboter/AMRs ab.
Angesichts des Arbeitskräftemangels und der unerbittlichen Qualitätsanforderungen automatisieren Hersteller mittlerweile nicht nur die Schnitte selbst, sondern auch die Übergaben an den Maschinen. Das Rezept für die neuesten Zellen ist klar: kollaborative Roboter und mobile Plattformen zum Transportieren von Teilen sowie Edge-KI-Vision, um in Millisekunden zu entscheiden, was aufgenommen, wo platziert wird und ob eine Oberfläche gut genug ist. Der Technologie-Stack ist nicht mehr experimentell. Jetzt kommt es darauf an, sie in der Fertigung vorhersehbar, sicher und wartbar zu machen. Die EMO 2025 in Hannover wird genau das zeigen: schlüsselfertige Zellen, Inline-Inspektionsstationen und autonome mobile Roboter, die zwischen den Ständen hin und her fahren.
„Edge-AI“ ist kein Marketing-Schlagwort mehr, 2025 steht er für klare Designziele. On-Camera- oder Near-Sensor-Computing soll eine latenzarme Inferenz in einem thermischen Rahmen von 5–10 W liefern, ohne auf eine Cloud angewiesen zu sein. Das bestimmt die Auswahl der Komponenten: Global-Shutter-Kameras mit deterministischen Triggern für bewegungssynchrone Aufnahmen, kontrollierte Beleuchtung mit Mikrosekunden-Blitzaufstiegszeiten und Overdrive-Fähigkeit zum Einfrieren von Bewegungen sowie kompakte NPUs, SoCs oder kleine FPGAs, die quantisierte CNNs und klassische Bildverarbeitung nebeneinander ausführen. Die Latenzbudgets werden rückwärts von der Zelle aus berechnet: Ein typisches End-to-End-Fenster – von der Belichtung bis zur Robotersteuerung – liegt zwischen 50 und 150 ms, wobei die Aufnahme im einstelligen Millisekundenbereich, die Inferenz im zweistelligen Millisekundenbereich und die Handshakes den Rest ausmachen. Entscheidend ist nicht nur der Durchschnittswert, sondern der Worst-Case-Fall unter Last, und die Systeme müssen Rückdruckstrategien enthalten, um Warteschlangen bei Durchsatzspitzen zu vermeiden.
Optik und Beleuchtung sind für den Erfolg dieser Anwendungen entscheidend. Die Auflösung der Objektive muss der Pixelgröße des Sensors und dem kleinsten interessierenden Defekt entsprechen; die Schärfentiefe muss zum Arbeitsabstand und den Teiletoleranzen passen; und die Wahl der Polarisation und Wellenlänge sollte Blendungen durch Kühlmittel und bearbeitete Oberflächen unterdrücken. Telezentrische Objektive und stabile Halterungen finden zunehmend Verwendung in Zellen, da messtechnische Messungen immer näher an das Werkzeug rücken. Stroboskopsteuerungen ermöglichen sehr kurze Belichtungszeiten von 20 bis 100 Mikrosekunden, um Unschärfen bei bewegten Teilen zu vermeiden, jedoch müssen ihre thermischen Grenzen beachtet werden. Encoder oder Lichtschranken, die an optoisolierte E/A angeschlossen sind, sorgen für konsistente Trigger, und Mehrkamerasysteme profitieren von der PTP-basierten Zeitsynchronisation, um die Bilder ausgerichtet zu halten.
Sicherheitsabstände regeln, wie nah Roboter und Menschen zusammenarbeiten dürfen. Kollaborative Modi sind in den Normen ISO 10218 und ISO/TS 15066 definiert und validiert, die Grenzwerte für Leistung, Kraft und Geschwindigkeit festlegen und die Überwachung von Geschwindigkeit und Abstand definieren. Autonome mobile Roboter, die zunehmend zum Transport von Tabletts zu und von Maschinen eingesetzt werden, arbeiten gemäß ISO 3691-4; Sicherheitslaserscanner mit PL d/SIL 2-Leistung und zertifizierten Geschwindigkeitsregelungsfunktionen sind die Norm. Entscheidend ist, dass die für die Produktinspektion verwendete Bildverarbeitung keine Sicherheitsfunktion ist. Sofern ein Gerät nicht ausdrücklich für den Schutzzweck zertifiziert ist, darf für die Sicherheit von Personen nicht auf KI-Modelle zurückgegriffen werden; diese können zwar Informationen liefern, aber keine Verriegelungen auslösen. Diese Trennung gewährleistet die Konformität der Implementierungen und verringert das Risiko falscher Annahmen.
Modellierung und Wartung sind Bereiche, in denen viele Projekte scheitern. Datensätze müssen die Realität in der Fabrik widerspiegeln, nicht die im Labor: Sie müssen Blendung, Staub, Kühlmittelschichten und alle akzeptablen Abweichungen berücksichtigen. Eine Randomisierung der Domänen ist hilfreich, aber nichts ersetzt repräsentative Erfassungen über Schichten, Vorrichtungen und Chargenwechsel hinweg. Versionsdaten und -modelle, Verfolgung von Verwechslungsmatrizen in der Produktion und A/B-Tests von Updates vor der Einführung. Betriebe, die MLOps auf Geräten einsetzen, profitieren von signierten Modellpaketen, OTA-Updates mit Rollback und Audit-Trails, die Modellversionen mit Qualitätsergebnissen verknüpfen. In Kombination mit Secure Boot, SBOMs und TLS-geschützter Kommunikation entsprechen diese Maßnahmen den IEC 62443-Grundsätzen und vereinfachen die IT/OT-Freigabe.
Besucher der EMO 2025 werden weniger isolierte Roboterarme und vollständigere Zellen sehen: Cobots, die CNC-Maschinen mit bildgesteuerter Kommissionierung bedienen, Inline-Stationen, die Oberflächen in Gut/Schlecht-Behälter sortieren, und AMRs, die an Maschinen andocken, um Paletten autonom auszutauschen. Erwarten Sie, dass Anbieter unter Live-Bedingungen gemessene Zeiten – vom Auslöser bis zur Roboterbewegung – demonstrieren, Beleuchtungskörper zeigen, die auch bei Umgebungsänderungen den Kontrast beibehalten, und offenlegen, wie sich ihre Systeme über industrielles Ethernet oder OPC UA in CNCs und SPSen integrieren lassen. Die glaubwürdigsten Exponate werden produktionsnahe Kennzahlen präsentieren: Präzision/Rückrufquote für Fehlerklassen bei der Standbeleuchtung, P95- und P99-End-to-End-Latenzen und Andock-Erfolgsraten.
Für Käufer ist die Bewertung praxisorientiert. Verlangen Sie Zeitdiagramme und Messungen der Latenz im Worst Case, nicht nur durchschnittliche FPS. Fragen Sie, wie sich das System verhält, wenn Frames ausfallen oder die Rechenleistung gedrosselt wird. Prüfen Sie die Auswahl der Objektive und Beleuchtung anhand Ihrer Teile, nicht anhand generischer Beispiele. Vergewissern Sie sich, dass Roboter und AMRs über aktuelle Zertifizierungen verfügen und dass die Bremswege und Sicherheitszonen für die vorgestellten Pfade berechnet wurden. Bestehen Sie auf Nachweise zur Lebensdauer: langfristige Verfügbarkeit von Rechenmodulen, stabile Toolchains und Kernel, sichere Update-Prozesse und Support-SLAs, die den Produktionsanforderungen entsprechen.
Bei der Zero-Touch-Automatisierung geht es nicht darum, Menschen zu ersetzen, sondern darum, Reibungsverluste und Schwankungen zu beseitigen, die entstehen, wenn Maschinen stundenlang auf das nächste Teil oder ein Inspektionsergebnis warten. Die Technologie ist einsatzbereit, wenn sie mit Disziplin entwickelt wurde. Die EMO 2025 wird dies in der Praxis demonstrieren. Die Betriebe, die mit einem Plan zur Standardisierung der Optik, zur Durchsetzung der Datensatz-Governance und zur Festlegung von Zeitbudgets nach Hause gehen, werden diejenigen sein, die Demos in zuverlässige Ergebnisse umsetzen können.
Titelfoto von Youn Seung Jin
< Zurück zu Automatisierung, KI, Robotik
< Zurück zu Elektronik, Komponenten
< Zurück zur Optik, Photonik, Bildgebung
> Hier ist einer der Orte, an denen der Emittent der Veröffentlichung gebranded wird.
> Tippen Sie auf die Schaltflächen oder Logos, um zu den Profilen oder Seiten des Emittenten weitergeleitet zu werden.






