Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene
Redaktion: Heinz Schmitz
Hyperspektrale Bilddaten zum Sprinten bringen
Kameras mit Hyperspektralsensoren sehen mehr als das menschliche Auge. Im Gegensatz zur Netzhaut, die nur drei Farbrezeptoren für Rot, Grün und Blau hat, erzeugen sie pro Bildpixel 130 verschiedene Farbwerte. Unterschiedliche Materialien lassen sich mit dieser hohen farblichen Auflösung einwandfrei auseinander halten – auch wenn sie für das menschliche Auge auf den ersten Blick gleich erscheinen. Denn jedes Material hat ein individuelles Farbspektrum, abhängig davon, wie seine Oberfläche Licht reflektiert. Die hyperspektrale Technik kommt überall dort zum Einsatz, wo Oberflächen genau untersucht werden müssen: zum Beispiel bei der Suche nach Bodenschätzen, der Qualitätskontrolle in der Produktion oder der Lebensmittelfertigung sowie dem Umweltmonitoring aus der Luft. Die aktuell verfügbaren Systeme verarbeiten die Informationen jedoch nur sehr langsam. Denn bei den Analysen fallen große Datenmengen an. Bei Hyperspektralkameras, die gleichzeitig Videobilder aufnehmen, kann das bis zu einem Gigabyte pro Minute sein. Oft hinkt die Auswertung nach oder ist schlichtweg nicht möglich.
Das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB stellt mit dem SpectralFinder eine Software vor, die große hyperspektrale Datenmengen mobil erfassen und in Echtzeit auswerten kann. Eine zwingende Voraussetzung, beispielsweise, wenn man dies bei der Fließbandfertigung tun will. »Unsere Kompetenz liegt im Handling großer Datenmengen, der Echtzeitfähigkeit und der intuitiven Bedienbarkeit«, so Dr. Wolfgang Middelmann, der am IOSB die zuständige Forschergruppe Bildinterpretation leitet. Die Technologie erstellt aus den unterschiedlichen Farbspektren, die die Kamera aufnimmt, ein 130-kanaliges Bild der Oberfläche. »Man kann sich das wie eine Landkarte vorstellen, auf der Seen, Städte, Straßen, Felder und Berge farblich unterschiedlich eingezeichnet sind«, beschreibt Caroline Stolka, Mitarbeiterin in der Forschergruppe. Klickt der Nutzer am Monitor auf einen der Bildbereiche, zeigt ein Algorithmus sofort an, wo sich ähnliche Oberflächen auf den Livebildern befinden. Das geschieht, indem die Software die 130 Farbwerte des angeklickten Bildbereichs mit denen der restlichen Bildpixel vergleicht und diejenigen Flächen anzeigt, deren Farbwerte am besten übereinstimmen. »Das funktioniert auch, wenn sich die Kamera oder das Objekt bewegen. Die Materialien lassen sich bereits klassifizieren, während die Daten noch erhoben werden«, sagt Stolka.
Die Technik liegt als Prototyp vor, mögliche Anwendungsszenarien haben die Forscher erfolgreich im Labor getestet. Das Gesamtsystem besteht aus einer Hyperspektralkamera und einem angeschlossenen Computer, auf dem der SpectralFinder aufgespielt ist. Die Technologie ist kompakt und kann in der Hand gehalten werden. »Diese Art, das Material mobil zu detektieren und zu klassifizieren, bietet einen hohen Nutzen in den unterschiedlichsten Bereichen, zum Beispiel dem Umweltmonitoring am Boden und aus der Luft«, so Middelmann. Die Wissenschaftler haben die Software so programmiert, dass sie die aufgenommenen Farbspektren auch mit einer angeschlossenen Materialdatenbank abgleichen können. Das System funktioniert aus großer Entfernung, zum Beispiel bei Aufnahmen aus der Luft. Die Technologie könnte helfen, Landschaften sauber zu halten, indem sie Verschmutzungen schnell aufspürt. Für Land- und Forstwirtschaft liefert sie wichtige Informationen über Gesundheitszustand und Schädlingsbefall oder unterstützt den Gewässerschutz, indem sie Gefährdungsgebiete für Deichbrüche frühzeitig erkennt.