Hier Informationen und Texte zu Beiträgen aus
Computer:Club²-Audio und Computer:Club²-TV
CC2-Audio 448: Big Data in der Industie 4.0
Big Data hält auch in der Industrie Einzug. Das optimiert die Produktion birgt auch die Gefahr von Missverständnissen. Im Fachausschuss VDI/VDE-GMA 7.21 »Industrie 4.0« wird an einem einheitlichen Verständnis der grundlegenden Begrifflichkeiten, Referenzmodelle und Architekturkonzepte für Industrie 4.0 auf Basis und zur Weiterentwicklung der bestehenden Standardisierungslandschaft gearbeitet. Ziel ist ein gemeinsames Verständnis der grundlegenden Begriffe ebenso wie ein Konsens über Referenzmodelle und -architekturen. Damit zukünftig ein Dialog ohne Missverständnisse möglich ist.
Mit Big Data gefährliche Situationen in der Industrie-Produktion vermeiden
Bei der automatisierten Produktion in der Industrie fällt eine enorme Menge an Daten an – eine zielgerichtete Analyse dieser Daten kann dabei helfen, Risiken im Betriebsablauf zu minimieren. Dafür hat jetzt ein Konsortium aus Wissenschaft und Industrie das Forschungsprojekt „FEE: Frühzeitige Erkennung und Entscheidungsunterstützung in kritischen Situationen im Produktionsumfeld“ gestartet. Beteiligt sind auch zwei Fachgebiete der Universität Kassel.
In vielen Branchen wie der Chemie-, Pharmazie- oder Baustoffindustrie ermöglicht nur eine moderne, hohe Automatisierung von Produktionsanlagen einen wirtschaftlichen Betrieb in Hochlohnländern wie Deutschland. Andererseits führt der hohe Automatisierungsgrad dazu, dass Anlagenfahrer im Gegensatz zu früher kaum Erfahrungen mit dem dynamischen Verhalten der Anlagen und dem Ablauf der industriellen Prozesse sammeln können. Viele Aufgaben werden vom Automatisierungssystem direkt übernommen und im Normalbetrieb werden weniger Eingriffe von Anlagenfahrer benötigt. Diese Erfahrung fehlt dann gerade in unerwarteten Betriebssituationen, so dass Bediener in Folge von der Vielzahl an Alarmen und Meldungen – so genannten Alarmfluten – überfordert sind. Bei Kontrollverlust könnten Menschenleben, Umwelt und Anlagen gefährdet werden.
Die Anlagenfahrer der Zukunft sollen deswegen durch Wissen, das mit neuartigen Big-Data-Ansätzen generiert wird, beim Entscheidungsprozess in der manuellen Echtzeit-Steuerung ihrer Anlage in kritischen Situationen unterstützt und entlastet werden. Das Fachgebiet Mess- und Regelungstechnik der Universität Kassel unter Leitung von Prof. Dr.-Ing. Andreas Kroll untersucht im Rahmen des Projekts Methoden zur frühzeitigen Erkennung kritischer Situationen; dafür werden betriebsmesstechnische und regelungsbezogene aktuelle und historische Daten ausgewertet. Zudem werden für die Anlagenfahrer Assistenzfunktionen entwickelt, die auf identifizierten Prozessmodellen beruhen.
Das Fachgebiet Wissensverarbeitung unter Leitung von Prof. Dr. Gerd Stumme entwickelt operator-zentrische Echtzeit-Suchfunktionen und kontextbasierte Empfehlungssysteme, die die Auswertung der anfallenden Daten erleichtern.
Eine Herausforderung liegt darin, die große Vielzahl verschiedenartigster Daten zu verarbeiten, die in einer Produktionsanlage anfallen.
Alarmmanagement ist einer der Bereiche, in denen Big-Data-Technologien zum Einsatz kommen werden. Zentraler Gedanke ist, solche Alarme zu vermeiden, die in der jeweiligen Situation keine hilfreiche Information für die Anlagenfahrer darstellen. Solche überflüssigen Alarme können sogar von wichtigen Sachverhalten ablenken und zu Fehlentscheidungen führen. Kritische Prozesssituationen werden so durch die begrenzte Anzahl von Alarmen vermieden, das menschliche Auffassungsvermögen wird nicht überlastet.
Big Data überall
Aber nicht nur in der Industrie 4.0 nimmt Big Data eine immer wichtigere Position ein, was die wichtige Frage aufwirft: „Wie lassen sich große Datenmengen in Zukunft verantwortungsvoll nutzen?“
Laut einer EMC-Studie wird sich das weltweite Datenvolumen bis 2020 verzehnfachen und diese Daten sind wertvoll. Big-Data-Technologien helfen schon heute Klimaforschern und Meteorologen. Die Werbewirtschaft hingegen nutzt Informationen aus sozialen Netzwerken. Die intelligente Analyse und Verknüpfung dieser Daten birgt Chancen und Risiken, wie das Beispiel Selbstvermessung zeigt: Intelligente Armbänder und Smartphone-Apps zählen Schritte und Kalorien, sie dokumentieren Trainingsleistungen und persönliche Gewohnheiten. Immer mehr Menschen nutzen die technischen Möglichkeiten zur Selbstvermessung, um Auskunft über die eigene Fitness und den Gesundheitszustand zu erhalten. Die Daten helfen vielleicht auch dem Arzt bei der besseren Behandlung von Krankheiten. Doch was, wenn die Daten falsch interpretiert werden?
Weitere Beispiele für Big Data gibt es vielerorts: Google ermittelt mithilfe der Suchanfragen Grippetrends, Nachrichtendienste analysieren nicht nur E-Mailverkehr und Telefonverbindungen, sondern auch Benutzerdaten von großen Unternehmen wie Facebook, Yahoo oder Microsoft. Auch die Polizei arbeitet mit Big Data, beispielsweise nutzt das Los Angeles Police Department bereits heute erfolgreich Datenanalysen, um Verbrechen wie Einbrüche und Überfälle vorherzusagen. Dadurch konnte die Zahl der Einbrüche in den entsprechenden Gebieten um über 30 Prozent reduziert werden. Banken verwenden die Datenauswertung, um Profile von Kunden zu erstellen und dementsprechend unterschiedliche Kreditkonditionen anzubieten.
Was in der Industrie 4.0 und den hochautomatisierten Fertigungsstätten helfen soll, den Betrieb möglichst reibungslos laufen zu lassen, ist auch aus dem normalen Leben nicht mehr wegzudenken. Wichtig ist, mit den Daten verantwortungsvoll umzugehen und sich persönlich bewusst zu machen, welche Datenspuren man im Netz hinterlässt und wer daraus Kapital schlagen kann.
Weitere Informationen unter:
http://www.plattform-i40.de/plattform/
Zum Computer:Club² Audioarchiv:
http://www.cczwei.de/index.php?id=issuearchive