Zum Hauptinhalt springen

Vision-Doctor

Systeme

Auswahl des richtigen BV-Systems

Computational Imaging

Seit Smartphones über einen Nacht- oder Porträtmodus verfügen, ist der Begriff auch für Enduser bekannter geworden. Das Bild wird dabei nicht nur mit einer einzigen Optik und Beleuchtung oder einer einzigen Aufnahme erzeugt. Das endgültige Bild entsteht erst mit Hilfe von mehreren aufgenommene Bildern und teils extrem rechenintensiven Berechnungen.

In industriellen Auswerteprozessen wird sehr häufig das "Shape-from-Shading"-Verfahren zur Detektion von Kratzern und kleinen Topographieänderungen eingesetzt. Aber auch eine Vielzahl von 3D-Verfahren nutzt "Computational Imaging" zur 3D-Bildgenerierung.

Shape from Shading

Das "Shape from Shading"-Prinzip ist eine Methode zur präzisen Bestimmung der Form und Struktur von Objektoberflächen. Das Bauteil wird dazu aus verschiedenen Richtungen beleuchtet und die dabei entstehenden Schattenbilder aufgenommen. In der Regel erfolgt die Aufnahme sequenziell. In der Regel kommen ein Beleuchtungscontroller sowie eine Viersegment-Beleuchtung zum Einsatz.

Ein spezieller Algorithmus verrechnet dann die vier Einzelbildaufnahmen zu einem Ergebnisbild. Dazu analysiert die Bildverarbeitungssoftware Schatten und Reflexionen, um die Neigung und Krümmung der Oberfläche zu berechnen. Bei den meisten Flächenkamera-basierten Systemen sollte das Objekt während den Aufnahmen nicht in Bewegung sein.
Das Verfahren eignet sich besonders für die Qualitätskontrolle, da selbst kleine Abweichungen und Fehler auf Oberflächen erkannt werden, die mit bloßem Auge schwer zu erkennen wären. Mit dem Finger fühlbare Kratzer, Abplatzungen, Kantenausbrüche oder deutliche Schlagstellen werden so einfach erkannt.

HDR-Bildinformationen

High Dynamic Range (HDR) bezeichnet die Fähigkeit eines Bildverarbeitungssystems, einen großen Helligkeitsbereich zu erfassen und darzustellen. Im Gegensatz zu herkömmlichen Kameras, die nur begrenzte Helligkeitsbereiche abbilden können, ermöglicht HDR die Erfassung von Details sowohl in den hellsten als auch in den dunkelsten Bereichen eines Bildes.

Dazu wird eine Bildsequenz mit verschiedenen Belichtungszeiten erzeugt und anschließend u einem gemeinsamen Bild verrechnet. Dies können je nach Anwendung zwei, drei, vier oder mehr Bilder sein.

Wichtig ist die Aufnahme im Stillstand. So lassen sich Ergebnisse leicht kombinieren. Offsets könnten leicht kompensiert werden - Bildperspektiven eher nicht.

EDOF - Extended Depth of Field

Extended Depth of Field (EDOF) ist eine fortschrittliche Technologie in der industriellen Bildverarbeitung, die es ermöglicht, Bilder mit einer erweiterten Schärfentiefe zu erzeugen.
Gerade bei kleineren Sichtbereichen ist die Schärfentiefe einer klassischen Optik auch bei größeren Blendenzahlen nicht ausreichend.


Beim EDOF-Verfahren werden mehrere Bilder, die mit unterschiedlichen Fokuseinstellungen aufgenommen wurden, miteinander kombiniert. Für die Aufnahme der Szene mit verschiedenen Fokuseinstellungen werden im Normalfall motorisierte Objektive oder Liquid Lens-Objektive benötigt.

Die Fusion dieser Bilder erzeugt ein einzelnes Bild, das in allen Tiefenebenen scharf ist. Dies ist besonders vorteilhaft für die Inspektion von Objekten mit komplexen Geometrien oder stark variierenden Oberflächenhöhen.

Depth from Focus

Depth from Focus ist ein Verfahren in der industriellen Bildverarbeitung, das zur Bestimmung der Tiefeninformation eines Objekts durch die Analyse von Bildern mit unterschiedlichen Fokuspositionen dient.
Das Ergebnis ist ein dreidimensionaler Scan des Objekts.

Dazu werden viele (!) Bilder eines Objekts mit unterschiedlichen Fokuspositionen aufgenommen. Im Gegensatz zum EDOF-Verfahren wird hier besonders auf eine geringe Schärfentiefe geachtet.

Durch die Analyse der Schärfe in vielen Bildern kann die Tiefeninformation rekonstruiert werden. Bereiche des Objekts, die scharf dargestellt sind, befinden sich in der Fokusebene, während unscharfe Bereiche außerhalb der Fokusebene liegen.

Für die Aufnahme von Bildern in verschiedenen Tiefenebenen ist die Verwendung von Objektiven mit variabler Fokusmöglichkeit sowie homogener, diffuser Lichtquellen erforderlich. Auf diese Weise lassen sich konsistente Bildaufnahmen gewährleisten, die anschließend miteinander verrechnet werden können.

Rechenzeitintensiv - und meist nur bei kleinen Sichtfledern nutzbar. Nebenan ein Bild das mit Laser-Triangulation aufgenommen wurde: Deutliche Abschattungen auf der rechten Seite der Komponenten. Bei einer Depth from Focus-Aufnahme ist dies nicht der Fall!

Hellfeld-Dunkelfeld-Kombinationen

Hellfeld und Dunkelfeld sind zwei zentrale Beleuchtungstechniken in der industriellen Bildverarbeitung, um Details und Merkmale von Objekten sichtbar zu machen.

Beide Verfahren haben unterschiedliche Einsatzgebiete und erfordern spezielle Komponenten:

Bei der Hellfeldbeleuchtung wird das Licht direkt auf das Objekt gerichtet und das reflektierte Licht von der Kamera aufgenommen. Dies führt zu einer gleichmäßigen Ausleuchtung der Oberfläche, wodurch Oberflächenstrukturen deutlich sichtbar werden.

Bei der Dunkelfeldbeleuchtung wird das Licht schräg auf das Objekt gerichtet, so dass nur das Streulicht von der Kamera erfasst wird. Diese Methode ist besonders nützlich, um feine Oberflächenstrukturen und Kanten hervorzuheben, die in der Hellfeldbeleuchtung nicht sichtbar wären.

Mit Hilfe einer Beleuchtungssteuerung und zwei verschiedenen Beleuchtungen kann ein Ergebnisbild erzeugt werden, das bestimmte Oberflächenfehler noch deutlicher darstellen kann.

RGB Super-Resolution

Industrielle Farbkameras basieren hauptsächlich auf einem Monochrom-Sensor mit einem Farbfilter-Mosaik. Da jeweils nur ein Pixel rot, ein Pixel blau und zwei Pixel grün sind, müssen die fehlenden Farbwerte aus den umgebenden Pixeln interpoliert werden. Über die gesamte Fläche funktioniert das sehr gut, aber besonders an den Objektkanten treten durch die Interpolationsalgorithmen Fehlfarben oder Unschärfen auf: das Bild ist schließlich deutlich unschärfer als ein monochromes Kamerabild.

Eine mögliche Alternative ist die sequentielle Aufnahme von drei Bildern hintereinander. Dazu wird (wieder) eine diffuse rote, grüne und blaue Beleuchtung mit einem Beleuchtungscontroller angesteuert. So wird quasi nacheinander für jedes Bildpixel die R,G,B-Information erzeugt. Auch diese Bildaufnahme sollte im Stillstand erfolgen.

Eine weitere interessante Methode, die ich gesehen habe, um Interpolationsartefakte bei Farbkameras zu vermeiden: Bildaufnahme mit deutlich höherer Sensor-Auflösung, dann kamerainterne Interpolation und (scharfe) Bildausgabe mit niedriger Zielbild-Auflösung.

Der Lohn für diesen Aufwand sind RGB-Bilder, die ein Maximum an Schärfe aufweisen.

Auswahl des perfekten Systems?

Vision-Doctor.de ist ein privates, unabhängiges, nicht-kommerzielles Homepage-Projekt ohne Kunden-Support.

Optimale Beratung, Schulung und Verkauf von geeigneten System-Lösungen  erhalten Sie hier.

(externer Link Partner-Webseite)

Bild Übersicht BV-Systeme / industrielle Bildverarbeitung