Bei KI-basierten Inspektionssystemen verschiebt sich die Rolle des Menschen von der direkten Kontrolle hin zu einer vorgelagerten Aufgabe: In der Anlernphase des KI-Modells markieren Experten Fehler in Bilddaten der zu prüfenden Bauteile, die die Grundlage für das Training des Systems bilden. Um diesen kritischen Schritt zu meistern, benötigen Anwender Unterstützung. Maddox AI hat hierfür spezielle Tools entwickelt, die sicherstellen, dass Nutzer in kürzester Zeit einen maximal konsistenten Trainingsdatensatz erstellen können:
á Label-Noise-Analyse: In realen Projekten treten häufig Inkonsistenzen in den Annotationen auf: Während ein Prüfer eine feine Kratzspur als Fehler markiert, stuft ein anderer dieselbe Stelle als irrelevant ein. Eine Label-Noise-Analyse erkennt diese Abweichungen systematisch und weist den Prüfer darauf hin. So werden Inkonsistenzen frühzeitig korrigiert, bevor sie ins Training einfließen.
á Synthetische Datengenerierung: In der industriellen Qualitätskontrolle ist die Verfügbarkeit von Daten oft ungleich verteilt: Es gibt meist viele fehlerfreie, aber nur wenige defekte Teile. Für ein robustes Modell reicht diese Verteilung jedoch nicht aus. Synthetische Daten helfen, diese Lücke zu schließen, indem künstlich zusätzliche Bilddaten erzeugt werden – z.B. von seltenen Defekten oder unter variierenden Beleuchtungs- und Oberflächenbedingungen. So erhält das Modell ein breiteres Spektrum an Trainingsdaten und kann generalisierter und stabiler arbeiten.
á Similarity Search: Dabei kann der Annotierer automatisch Bildbereiche identifizieren lassen, die einem zuvor markierten Defekt visuell ähneln. So können z.B. auf Knopfdruck 20-30 relevante Kratzer in zehntausenden von Bildern gefunden werden – ohne dass diese einzeln und manuell gesichtet werden müssen. So lassen sich Defekte deutlich schneller und systematischer auffinden. Das spart nicht nur Zeit, sondern erhöht zugleich die Konsistenz, da ähnliche Defekte in einem Schritt gleichartig annotiert werden. Darüber hinaus wird das gezielte Auffinden von Randfällen erleichtert, die für das Training des Modells besonders wertvoll sind.
Fazit
Der Erfolg eines KI-Projekts steht und fällt mit der Qualität der Daten, mit denen die Modelle trainiert werden. Während sich die Modellarchitekturen bei fast allen Anbietern stark ähneln, entscheidet die Qualität des Trainingsdatensatz über Erfolg oder Misserfolg eines KI-Projekts. Unterstützende Tools wie Similarity Search werden insbesondere bei Projekten mit >15 verschiedenen Fehlerklassen unerlässlich, da menschliche Flüchtigkeit und Subjektivität bei Komplexität stark zunehmen. Es ist daher entscheidend, dass Inspektionslösungen die Annotationsarbeit durch zusätzliche Tools so einfach wie möglich gestalten, um effizient qualitativ hochwertige Datensätze und damit hoch-akkurate Modelle zu entwickeln.
www.maddox.ai

















