Die OWASP Top 10 – Eine Checkliste für IT Security

Abstrakte Nahaufnahme eines Bildschirms mit dem Wort 'Security' und einem Cursor, der darauf zeigt. Das Bild illustriert den Fokus auf Sicherheitsmaßnahmen und dient als Titelbild für einen Blogbeitrag über die OWASP Security Checklist, die Richtlinien für Webanwendungen zur Verbesserung der Sicherheit enthält.

Die Angriffe auf IT-Infrastrukturen verschiedener Anbieter häufen sich.1 Das Thema IT-Security ist präsent wie nie in den Medien und natürlich auch in der Softwareentwicklung.

 

Das Projekt OWASP

Als Softwaredienstleister ist es essenziell, einen Überblick über verschiedene Schwachstellen in der Softwareentwicklung zu haben und zu wissen, welche präventive Maßnahmen man ergreifen kann. An dieser Stelle kommt die OWASP Top 10 Liste ins Spiel. Das ist eine Liste der kritischsten Sicherheitsrisiken für Webanwendungen, die von dem Open Web Application Security Project (Was) zusammengestellt wird. Sie umfasst typische Schwachstellen wie Injektion, die es Angreifern ermöglichen, bösartigen Code einzuschleusen, oder unsichere Authentifizierungsmethoden, die unautorisierten Zugriff ermöglichen können. Zudem behandelt die Übersicht Probleme wie Sicherheitskonfigurationsfehler und unsachgemäße Datenverschlüsselung, die zur Offenlegung sensibler Informationen führen können. Daher dient sie als Leitfaden für Entwickler und Sicherheitsprofis, um Sicherheitslücken zu identifizieren und zu beheben, bevor sie ausgenutzt werden.

Werfen wir nun gemeinsam einen Blick auf die dazugehörige Website. Ein erster Blick auf eine Infografik (s.u.) verrät uns, dass sich die Häufigkeit bestimmter Angriffe im Web verändert. Galt 2017 noch das Einschleusen von Code als größte Sicherheitslücke, steht 2021 das direkte Eindringen in Systeme auf Platz 1 der Auflistung.

Infografik OWASP für den Blogartikel "Die OWASP Top 10 – Eine Checkliste für IT Security"

Maßnahmen zur Vermeidung von Sicherheitslücken: Ein Blick auf „Broken Access Control“

Doch die Top 10 der Sicherheitslücken zeigt nicht nur die wichtigsten Risiken auf, sondern auch, wie man gegen sie vorgehen kann. Ein Blick auf die Detailseite der größten Gefahren nach Häufigkeit in 2021 verrät mehr Details über mögliche Angriffe, aber gibt auch Ratschläge, um diese zu vermeiden.

Mögliche Beispiele zum Verhindern der Angriffe sind:

  • Automatische Attacken durch das setzten eines Limits an Anfragen an eine Schnittstelle unterbinden
  • Keine Backupdateien in Wurzelverzeichnissen
  • Standardmäßig Zugriffe verweigern (außer bei öffentlichen Ressourcen).

Kenntnisse über Angriffsmöglichkeiten und die passenden Verteidigungsmechanismen und Strukturen sind auch für Software in der industriellen Produktion wichtig für Vertrauen und Sicherheit. Wir nutzen Berichte über mögliche Attacken, wie die OWASP-Liste, um uns über die Sicherheit von Anwendungen auszutauschen und unsere Software entsprechend zu härten und zu verbessern.

 

1 https://www.krankenhaus-it.de/item.3358/dramatische-zunahme-erfolgreicher-cyberattacken.html

 

AOK Firmenlauf 2024

Auch in diesem Jahr nahmen wir am 15. Mai mit einem Team von fünf Läufern namens ATR.run() am AOK Firmenlauf 2024 in Ulm teil. Eine Besonderheit dieses Firmenlaufs ist, dass er zwei Events in einem beinhaltete. So konnten die Läufer nicht nur Kilometer im Stadion sammeln, sondern auch digital im Zeitraum vom 30.04. – 14.05.2024.

Trotz leichten Nieselregens starteten unsere Läufer motiviert, um die ca. 7 km lange Laufstrecke zu bestreiten. Um 19:00 Uhr fiel der Startschuss für den bereits 10. AOK Firmenlauf im Donaustadion Ulm mit zahlreicher Teilnahme von Firmen aus dem Raum Ulm, Neu Ulm und Biberach.

Über 2500 Teilnehmer starteten den Lauf im Stadion, führten die Strecke Richtung Friedrichsau weiter und wechselten auf dem Donausteg auf die Neu-Ulmer Seite der Donau. Weiter ging es am Donauufer und nach einem weiteren Wechsel auf der Herdbrücke gelangten die Läufer wieder auf die Ulmer Seite der Donau, um schlussendlich wieder im Stadion ins Ziel zu gelangen. Die Siegerehrung fand anschließend nach dem Lauf um 21:00 Uhr statt.

Wir gratulieren den Läufern unseres Teams herzlich zu ihren tollen Zeiten und Plätzen.

 

YOLO – Objekterkennung leicht gemacht

Das Titelbild des Beitrages zeigt eine Spielzeugfigur in Form einer Giraffe. Um sie herum befindet sich ein Rahmen mit der Information, dass sie von YOLO zu 94% als Giraffe erkannt wird.

Objekterkennung in der Produktion

Das Erkennen von Objekten ist ein großes Thema in der Produktion. Ein Anwendungsfall ist zum Beispiel, dass Kameras eine Qualitätskontrolle auf Förderbändern durchführen und so die Gesamtqualität und den Produktionstakt verbessern. Wir bei ATR Software bringen solche Kameralösungen in die Produktion.


Für die Umsetzung solcher Anwendungen kann man auf verschiedene Weise vorgehen. Neben der Verwendung von klassischen Algorithmen aus der Bildverarbeitung bieten sich vortrainierte Neuronale Netze aus dem Bereich des maschinellen Lernens an. Diese Netze werden zuerst mithilfe zahlreicher Beispielbilder trainiert, sodass bei einer Anwendung vortrainierte Elemente wie zum Beispiel Personen sehr schnell erkannt werden können. Heute im Fokus: Das YOLO Modell.

Was ist das Yolo Modell?

YOLO (You Only Look Once) ist ein weitverbreitetes Modell im Bereich des maschinellen Lernens, das für die Objekterkennung in Bildern und Videos entwickelt wurde. Im Gegensatz zu traditionellen Ansätzen teilt YOLO das Bild in ein Raster auf und prognostiziert gleichzeitig Bounding Boxes (Begrenzungsrahmen) und Klassen für Objekte in jedem Rasterbereich. Dies ermöglicht eine schnelle und effiziente Echtzeit-Objekterkennung.

Die Hauptmerkmale von YOLO sind:

  1. Echtzeit-Verarbeitung: YOLO ist in der Lage, Bilder und Videos in Echtzeit zu analysieren, was es für Anwendungen wie autonomes Fahren, Videoüberwachung und Augmented Reality geeignet macht.
  2. Single-Shot-Erkennung: YOLO benötigt nur einen Vorwärtsdurchlauf des Modells, um Bounding Boxes und Klassen für Objekte vorherzusagen, im Gegensatz zu anderen Ansätzen, die mehrere Schritte erfordern.
  3. Hohe Genauigkeit: YOLO kann eine hohe Genauigkeit bei der Objekterkennung erreichen, insbesondere in Versionen wie YOLOv3 und YOLOv4, die verbesserte Architekturen und Techniken verwenden.
  4. Vielseitigkeit: YOLO kann in verschiedenen Anwendungsgebieten eingesetzt werden, darunter Bilderkennung, Gesichtserkennung, Tiererkennung und mehr.

Insgesamt ist YOLO ein leistungsfähiges Modell für die Objekterkennung, das sich durch seine Geschwindigkeit und Genauigkeit auszeichnet und in vielen praktischen Anwendungen erfolgreich eingesetzt wird.

Selbst ausprobieren?

Das Digitalisierungszentrum Ulm | Alb-Donau | Biberach stellt über die Plattform Gitlab ein Repository zur Verfügung. Wir haben damit mal ein kleines Fotoshooting gemacht. Im blauen Rahmen ist markiert, wo das jeweilige Objekt erkannt wurde. Die Schrift gibt dann in Prozent die Erkennungswahrscheinlichkeit an. Sämtlichen Tieren wurde während den Aufnahmen kein Schaden zugefügt. Außerdem wurden sie ordnungsgemäß ihrem 3-jährigen Besitzer zurück ausgehändigt.

Das Bild zeigt einen kleinen Teddy Bär, der von dem Yolo-Modell zu 83 Prozent als solcher erkannt wurde.

Abschlusstreffen von FrIDAH

Titelbild Blogartikel zum Abschlusstreffen des Forschungsprojekts FriDAh

FrIDAH-Projekt erfolgreich abgeschlossen: Sortier-Roboter in Aktion

Nach drei Jahren Projektlaufzeit konnten wir das Projekt FrIDAH erfolgreich abschließen. Aufgrund dieses Anlasses fand am 20. Februar das Abschlusstreffen mit unseren Projektpartnern an der Technischen Hochschule Rosenheim statt. Bei diesem Treffen konnten wir die finale Version des Sortier-Roboters auf Herz und Nieren testen. Dieser Roboter funktioniert folgendermaßen:

Der Roboter besitzt eine Kamera, die Objekte auf der weißen Fläche unter sich erkennen kann. Danach bewegt er sich zur erkannten Position, um das Objekt, in diesem Fall ein Holzstückchen aufzusammeln. Mithilfe eines Saugnapfs, der vorne am Roboterarm befestigt ist, wird das Holz angesaugt. Im nächsten Schritt wird es über die Kamera bewegt und wieder losgelassen. Die Kamera wird nun angesteuert und erstellt dann ein Fluoreszenzbild. Dieses Bild wird zur Kategorisierung der Holzgüte an unsere KI gesendet, die das Ergebnis, ob es sich um gutes oder schlechtes Holz handelt, an den Roboterarm zurückgibt. Dieser sammelt das Stück Holz wieder auf und ordnet es der passenden Box zu.  

Sortierung von Altholz im Rahmen des Forschungsprojektes FrIDAH

Das Video wird von YouTube eingebettet und erst beim Klick auf den Play-Button geladen. Es gelten die Datenschutzerklärungen von Google.

Wir freuen uns über eine gelungene Zusammenarbeit mit unseren Projektpartnern und über das tolle Ergebnis des FrIDAH-Projekts. Gemeinsam konnten wir eine innovative Technologie erarbeiten, die die Altholzsortierung zukünftig vereinfachen wird.

Hintergrund

Holz gilt als einer der wichtigsten nachwachsenden Rohstoffe weltweit und ist ein essenzieller Bestandteil des Wertstoffkreislaufs. Mithilfe von speziellen Recyclinganlagen kann das Holz in vier verschiedene Güteklassen eingeteilt werden. Danach wird entschieden, ob das Holz recycelt werden kann oder aufgrund seiner Beschaffenheit entsorgt werden muss. Die Sortierung erfolgt jedoch immer noch von Hand, wodurch Holz oftmals in eine geringwertigere Güte eingeteilt wird und somit entsorgt werden muss.

Um diese Problematik zu lösen, wurde das Forschungsprojekt „FrIDAH“ (Fluoreszenz-ID von Altholz) ins Leben gerufen. Ziel des Projekts ist die Automatisierung der Altholzsortierung mithilfe der Fluoreszenzlebensdauer und künstlicher Intelligenz. Wenn Sie mehr über das Projekt FrIDAH erfahren möchten, können Sie weitere Informationen auf der Webseite in unserem Forschungsbereich finden.

Wir von ATR Software unterstützen das Forschungsprojekt und unsere Projektpartner mithilfe unserer Expertise in den Feldern Software-Engineering, Data Science und Künstlicher Intelligenz. Das Endziel des Projekts ist der Bau eines Roboters, der mithilfe unserer KI das gute Holz vom Schlechten unterscheiden und somit die Altholzsortierung automatisieren kann.

 

Von der Automatisierungs- pyramide zu vernetzten Prozessen

Das Schaubild zeigt die Entwicklung von der Digitalisierungspyramide hin zu dem moderneren Ansatz der vernetzten Prozesse.

Intelligenter produzieren bedeutet häufig auch vernetzter produzieren. In diesem Beitrag stellen wir die Automatisierungspyramide vor und wie sie sich in einen moderneren Ansatz übertragen lässt.

Die Automatisierungspyramide – das traditionelle Bild:

Die Automatisierungspyramide ist ein Konzept, das in der Automatisierungs- und Steuerungstechnik verwendet wird, um die verschiedenen Ebenen der Automatisierungshierarchie in einem Produktionsprozess zu beschreiben und zu organisieren. Sie besteht aus mehreren Schichten, die die verschiedenen Aufgaben und Verantwortlichkeiten in einem automatisierten System repräsentieren:

  1. Feldebene: Dies ist die unterste Schicht der Automatisierungspyramide, in der Sensoren, Aktoren und Feldgeräte angeschlossen sind.

  2. Steuerungsebene: Auf dieser Ebene werden die Daten von den Feldgeräten verarbeitet und gesteuert. Hier befinden sich PLCs (Programmable Logic Controllers) oder SPS (Speicherprogrammierbare Steuerungen), die die Prozesslogik ausführen.

  3. Leitebene: Die Leitebene ist die nächsthöhere Schicht und umfasst SCADA-Systeme (Supervisory Control and Data Acquisition). Hier werden Prozessdaten erfasst, überwacht sowie visualisiert. Es können Entscheidungen auf der Grundlage dieser Daten getroffen werden.

  4. Prozessleitebene: Diese Ebene ist für die Produktionsplanung und -steuerung verantwortlich. Hier werden Produktionsaufträge geplant, Prozessparameter optimiert und Produktionsdaten analysiert. Ein MES (Manufacturing Execution System) ist eine Software, die auf diese Anforderung spezialisiert ist.
  5. Unternehmensebene: Dies ist die oberste Schicht der Automatisierungspyramide. Sie umfasst die betriebswirtschaftlichen Aspekte, wie zum Beispiel die Unternehmensplanung, die Ressourcenallokation und die Integration von Produktionsprozessen in die gesamte Unternehmensstruktur. Auf dieser Ebene werden ERPs (Enterprise Resource Planning) einsortiert.

Die Auflösung der Pyramide

Die Auflösung der Automatisierungspyramide durch Microservices bezeichnet einen Paradigmenwechsel in der Softwarearchitektur und Automatisierung von Anwendungen. Die traditionelle Automatisierungspyramide, die aus Schichten wie Feldgeräte, Steuerungsebene, Leitebene und Unternehmensebene besteht, wird durch Microservices aufgelöst. Dies ermöglicht eine höhere Flexibilität und Skalierbarkeit in den Prozessen. Die Microservices werden durch eine IIoT -Plattform (Industrial Internet of Things) gebündelt.

Diese IoT Plattformen werden in MES Systeme integriert und ermöglichen ein fortgeschrittenes Manufacturing Operations Management (MOM). Dies ist der Bereich der Unternehmenssoftware, der darauf abzielt, die Fertigungsprozesse in einem Unternehmen zu optimieren und zu steuern. Es bildet die Schnittstelle zwischen der Unternehmensplanungsebene (Enterprise Resource Planning, ERP) und der Steuerungsebene der Produktionsanlagen (wie beispielsweise der Leitebene in der Automatisierungspyramide).

Diesen Ansatz verfolgen wir auch mit unserer ATR Softwareplattform, auf der die Fertigungsprozesse über IIoT- und MES-Funktionen abgebildet und dort, wo es Sinn macht, durch zusätzliche KI-Methoden ergänzt werden.

Wollen Sie mit uns Ihre Produktionsprozesse flexibel und skalierbar gestalten? Sprechen Sie uns an.

Optimierung in der Produktion

Das Bild zeigt vier Formen – drei blaue Würfel und eine orange Kugel. Die Kugel bewegt sich schneller und steht hier für die Optimierung in der Produktion.

Warum Optimierung?

Optimierungsmethoden spielen in der Produktion eine entscheidende Rolle, da sie dazu beitragen, Ressourcen effizient zu nutzen, Kosten zu minimieren und die Produktionsleistung zu maximieren. 

Diese Methoden können eine Vielzahl von positiven Effekten auf die Produktion haben: 
  • Effizienzsteigerung: Durch die Optimierung von Produktionsprozessen können Unternehmen ihre Ressourcen besser nutzen, was zu einer Steigerung der Effizienz führt. Das bedeutet, dass weniger Zeit, Material und/oder Energie benötigt werden, um die gleiche oder sogar eine höhere Menge an Produkten herzustellen. 
  • Kostenreduktion: Optimierungsmethoden ermöglichen es, Kosten zu minimieren, indem sie den Einsatz von Ressourcen optimieren. Dies kann die Herstellungskosten senken und die Wettbewerbsfähigkeit auf dem Markt stärken. 
  • Zeitmanagement: Effektive Optimierung verkürzt die Durchlaufzeiten in der Produktion. Kürzere Produktionszyklen bedeuten, dass Produkte schneller verkauft werden können. Das wiederum verbessert die Kundenbindung und die Fähigkeit, auf sich ändernde Marktanforderungen zu reagieren.
  • Ressourcennutzung: Optimierung ermöglicht eine bessere Nutzung von Ressourcen wie zum Beispiel Arbeitskräfte, Maschinen und Materialien. Das trägt nicht nur zur Kostenreduktion bei, sondern auch zur nachhaltigen Nutzung von Ressourcen, was in der heutigen umweltbewussten Welt von großer Bedeutung ist.
  • Qualitätsverbesserung: Durch die systematische Optimierung von Produktionsprozessen können Qualitätsstandards besser eingehalten werden. Dies führt zu weniger Ausschuss, geringeren Nacharbeitskosten und letztendlich zu zufriedeneren Kunden.
  • Flexibilität und Anpassungsfähigkeit: Optimierungsmethoden tragen dazu bei, Produktionsprozesse flexibler und anpassungsfähiger zu gestalten. Dies ist besonders wichtig in Zeiten sich schnell ändernder Marktbedingungen oder bei der Einführung neuer Produkte. 

Zur Veranschaulichung möchten wir anhand eines kleinen Beispiels zum Thema Maschinenbelegung Optimierungsstrategien in der Produktion aufzeigen.

Maschinenbelegung – Welcher Auftrag läuft wann auf welcher Maschine? 

Eine wichtige Aufgabenstellung in der Produktion ist die Einplanung von Aufträgen auf Maschinen, die wir im Folgenden anhand eines Beispiels aus der Literatur skizzieren wollen. Die Zahlen und Grafiken sind dem Lehrbuch Grundlagen des Operations Researchentnommen, adaptiert und gekürzt (s.259 ff) 

In diesem Szenario gibt es vier Aufträge (A1 – A4) zu erledigen, die jeweils nacheinander auf zwei Maschinen (M1, M2) laufen. (vgl. Diagramme). Das bedeutet, dass ein Auftrag zuerst auf Maschine M1 gelaufen sein muss, bevor er auf Maschine M2 bearbeitet werden kann. 

Wenn die Aufträge strikt der Reihe nach erledigt werden, ergibt sich folgender Ablauf: 

Das Bild zeigt ein Diagramm mit Maschinen auf der Y-Achse und Tagen auf der X-Achse. Die Aufträge eins bis vier werden in aufsteigender Reihenfolge nach ihrer Auftragsnummer erst auf Maschine 1 und dann auf Maschine 2 eingeplant.

Ist das optimal geplant? Das kommt ganz darauf an, welches Zielkriterium man hat. Wie essenziell diese Angabe für die Optimierung ist, verdeutlichen diese drei Beispiele.

Beispiel 1: Kurze Wartezeiten vor Maschine 2

Die Maschine 2 ist direkt abhängig von Maschine 1. Damit sie also möglichst schnell genutzt werden kann, sollte die kürzeste Operationszeit von Maschine 1 als erstes bearbeitet und die weiteren Aufträge aufsteigend nach ihrer Produktionsdauer eingeplant werden.

Damit sieht die Belegung folgendermaßen aus: 

Das Beispiel 1 zeigt ein Diagramm mit Maschinen auf der Y-Achse und Tagen auf der X-Achse. Die Aufträge werden in aufsteigender Reihenfolge nach Produktionsdauer auf Maschine 1 eingeplant und danach auf Maschine 2 in gleicher Reihenfolge abgearbeitet.

Beispiel 2: Aufträge schnellstmöglich abschließen

Ein anderes Kriterium könnte sein, Aufträge möglichst zeitnah abzuschließen. Dann würden diese direkt hintereinander an den beiden Maschinen eingeplant, ohne Rücksicht auf die Gesamtzeit. 

Das Beispiel 3 zeigt eine Tabelle mit Maschinen auf der Y-Achse und Tagen auf der X-Achse. Die Aufträge sind so angeordnet, dass sich in Summe die kürzeste Produktionszeit ergibt.

Beispiel 3: Kürzeste Gesamtbearbeitungszeit

Wenn die Maschine 1 die vier Aufträge ohne Unterbrechungen und in der richtigen Reihenfolge produziert, sind für die gesamte Produktionszeit minimal 11 Zeiteinheiten erforderlich. Zehn Zeiteinheiten beansprucht die erste Maschine für die Abarbeitung der Aufträge, und eine weitere Zeiteinheit wird für die Produktion des dritten Auftrages auf Maschine 2 benötigt. Die zweite Maschine hat eine reine Bearbeitungsdauer von 9 Zeiteinheiten, jedoch kann sie zusätzlich zu dem späteren Stillstand von einer Zeiteinheit erst nach der Fertigstellung des zweiten Auftrages auf Maschine 1 beginnen. Somit ist die Dauer von 11 Zeiteinheiten eine untere Schranke für diese Aufgabenstellung. Oftmals kann diese theoretische Schranke jedoch nicht erreicht werden, aber in diesem Fall ist es möglich.

Das Beispiel 2 zeigt ein Diagramm mit Maschinen auf der Y-Achse und Tagen auf der X-Achse. Die Aufträge werden zu erst auf Maschine 1 eingeplant und direkt anschließend daran auf Maschine 1 produziert, so dass die gesamte benötigte Produktionszeit für jeden Auftrag mögichst kurz ist.

Wie man schon anhand dieses kleinen Szenarios sieht, gibt es diverse optimale Lösungen für ein Produktionsproblem. Welche die richtige ist, hängt sehr stark von den aufgestellten Zielkriterien und Rahmenbedingungen ab. Neben der reinen Berechnung der optimalen Lösung ist das Verständnis dieser Randbedingungen ein großer Teil eines Optimierungsprojekts.

Typische Ziele in unseren Kundenprojekten sind die Sicherstellung der Liefertreue sowie die Minimierung der Rüst- und Durchlaufzeiten. Als Randbedingungen wiederum spielen häufig die Maschinenfähigkeiten und Qualifikationen, die Maschinen- und Personalkapazitäten und die Priorisierung innerhalb von Maschinengruppen eine wichtige Rolle.

Lassen Sie uns gemeinsam auch Ihr Problem verstehen und optimieren.


 

 

 

 

 

 

 

Eine Fabrik im Miniaturformat

Das Bild zeigt die Lernfabrik von fischer Technik im Büro der ATR Software GmbH in Neu-Ulm.

Eine typische Fabrik erledigt eine Vielzahl von Dingen: Produkte können verarbeitet, überprüft, bewegt sowie ein- und ausgelagert werden. Hierzu werden Aktuatoren über eine speicherprogrammierbare Steuerung (SPS) angesteuert und Sensoren erfassen all die relevanten Prozessparameter sowie zum Teil auch äußere Einflüsse. Um generische Digitale Zwillinge hierfür zu erforschen, wie es Teil des Forschungsprojektes DigiPrüf ist, werden reale Vorbilder benötigt. Wie schön wäre es da, wenn man eine ganze Fabrik im Miniaturformat hätte, die sich wie eine „echte“ Fabrik verhält und an der sich neu entwickelte Methoden testen lassen könnten.

Genau zu diesem Zweck haben wir von ATR Software nun eine Lernfabrik 4.0 von fischertechnik in unserem Labor. Dieses Fabrikmodell besteht aus verschiedenen Stationen, die typische Abläufe einer Fabrik nachbilden:

  • An einer „Delivery and Pickup Station” können einerseits Produkte in der Form von farbigen NFC-Chips in das System eingebracht sowie nach einer Bestellung abgeholt werden. Hierzu wird die Farbe der Chips bestimmt und alle Informationen auf den NFC-Chips gespeichert.
  • Ein „Vacuum Gripper Robot“ kann die NFC-Chips greifen und von einer Station zu einer anderen befördern.
  • Im „High-Bay Warehouse“ können die Chips in passenden Kisten vollautomatisch eingelagert werden.
  • Eine „Multi Processing Unit“ simuliert das Pressen und Zuschneiden der Teile.
  • In der „Sorting Line“ werden die Teile nach ihrer Farbe in drei unterschiedliche Behältnisse sortiert. Anschließend transportiert der „Vacuum Gripper Robot“ die NFC-Chips wieder an die „Delivery and Pickup Station“ und die Bearbeitung ist abgeschlossen.
  • Zusätzlich erfasst eine „Sensor Unit“ Umwelteinflüsse wie die Temperatur und die Luftqualität. Mittles einer Kamera lässt sich die Fabrik auch aus der Ferne überwachen.
Eine Fabrik im Miniaturformat für das Forschungsprojekt DigiPrüf

Das Video wird von YouTube eingebettet und erst beim Klick auf den Play-Button geladen. Es gelten die Datenschutzerklärungen von Google.

Die Steuerung der Aktuatoren wird von einer Siemens SIMATIC S7-1500 übernommen. Mittels eines Raspberry Pis und einem Fischer TXT Controller ist eine Steuerung und Überwachung über MQTT möglich.

Wir hatten sehr viel Freude, die Fabrik in Betrieb zu nehmen und freuen uns schon darauf, sie produktiv für das DigiPrüf-Projekt erweitern und einsetzen zu dürfen.

 

Erkennung von Anomalien an einem Lego-Modell durch Bildanalyse mit Deep Learning

Das Headerbild des Artikels zeigt ein Vepsa Modell von LEGO.

In diesem Artikel demonstrieren wir die Anwendbarkeit von Deep Learning für die Anomalieerkennung in Bildern. Unser Ziel ist es, mit Hilfe von Neuronalen Netzen mögliche Fehler am Aufbau eines Vespa-Modells aus Klemmbausteinen zu erkennen.

Bei der Erkennung von Anomalien handelt es sich um die Bestimmung von Abweichungen oder Unregelmäßigkeiten in den Daten, die nicht dem erwarteten Muster oder Verhalten entsprechen. Das ist eine wichtige Aufgabe in vielen Bereichen wie Betrugsprävention, Systemüberwachung und Qualitätssicherung.

Mit diesem Use Case adressieren wir Explainable AI und machen unser System für die Anwender verständlich. Zudem stärken wir das Vertrauen in KI-Lösungen, die für Außenstehende oftmals wie eine Art Blackbox wirken.

Der erste Ansatz

Zuerst verwendeten wir einen Autoencoder, eine Art neuronales Netz, das Eingabedaten komprimiert und rekonstruiert. Anomalien können erkannt werden, indem man den Rekonstruktionsfehler misst, der die Diskrepanz zwischen Eingabe und rekonstruiertem Ausgang darstellt. Instanzen mit hohen Rekonstruktionsfehlerwerten sind wahrscheinlich Anomalien. In unserem Blog-Artikel KI-gestützte Fehlererkennung bei einem Vespa-Modell erklären wir die Funktionsweise genauer. Obwohl mit Autoencodern schon gute Ergebnisse erzielt werden können, sind in jüngster Vergangenheit einige noch fortschrittlichere, komplexere KI-Architekturen entwickelt worden. Diese bauen auf dem gleichen Prinzip auf, haben es aber weiter optimiert. Deshalb testeten und verglichen wir viele dieser neuen Ansätze für unseren Anwendungsfall. 

Heatmap und Segmentierung eines Blender Modells der LEGO Vespa mit fehlerhaftem Kotflügel

Heatmap und Segmentierung eines fehlenden Kotflügels an einem Vespa-Blender-Modell, die von einem „simplerem“ Autoencoder-Model generiert wurde.

Optimierung des Modells

Wir entschieden uns für Reverse Distillation in Kombination mit One-Class Bottleneck Embedding (OCBE), um eine bessere Effizienz und Effektivität zu erreichen. Diese Methode liefert eine sehr gut interpretierbare Darstellung der Daten und ermöglicht eine verbesserte Generalisierung für unbekannte Anomalien. Stark vereinfacht ausgedrückt erreicht sie diese bessere Performance durch das Vergleichen von Input und Output, ähnlich dem Prinzip eines Autoencoders. Jedoch findet dies auf verschiedenen Stufen der Codierung und Decodierung der Daten gleichzeitig statt. Ähnlich vielversprechende Ergebnisse ließen sich mit der PatchCore-Architekur erreichen, die sich auf die Rekonstruktion lokaler Patches konzentriert und somit kleinere lokale Anomalien besser erkennen kann

Heatmap und Segmentierung generiert von Reverse Distillation-Model

Heatmap und Segmentierung generiert von Reverse Distillation-Model 

Anschließend optimierten wir unser Modell mit Methoden wie der Kreuzvalidierung, die wir während der Auswahl der besten Architektur und Parameter verwendeten, um besonders das häufige Problem von Overfitting zu vermeiden. Mithilfe von Transfer Learning konnten wir Gebrauch von sehr leistungsstarken, auf riesigen Datenmengen trainierten Bild-Klassifizierungs-Modellen machen, um die Anzahl der benötigten Trainingsdaten möglichst gering zu halten. 

Nach sorgfältiger Anpassung unseres Modells auf die in Blender modellierten 3D-Grafiken testeten wir es mit Fotos der realen Lego-Vespa. Dabei bemerkten wir, dass Unterschiede in der Beleuchtung bei der Datenaufnahme das Modell verwirren können, ein Phänomen, das als Verteilungsdrift bekannt ist. 

Foto der realen Vespa mit überblendeter Maske von fehlendem Teil (links), Heatmap (mitte) und Segmentierung (rechts).

Foto der realen Vespa mit überblendeter Maske von fehlendem Teil (links), Heatmap (mitte) und Segmentierung (rechts).

Um diese Herausforderung zu meistern, haben wir in unserer Showcase-Installation ein starkes Studiolicht eingesetzt. Dies führte zu einer gleichmäßigen Beleuchtung und minimierte die Missinterpretationen des Modells.

Abschließend konnten wir erfolgreich demonstrieren, dass KI-gestützte Bildanalyse effektiv zur Erkennung und Lokalisierung von Anomalien im Aufbau von Lego-Vespa-Modellen eingesetzt werden kann. Trotz einiger Herausforderungen, wie der Bewältigung von Verteilungsdrift durch Beleuchtungsunterschiede, zeigt unsere Arbeit das immense Potenzial von Deep Learning in der Qualitätssicherung und Anomalieerkennung. Es bleibt jedoch ein fortlaufender Prozess, die Modelle weiter zu optimieren und an spezifische Anwendungsfälle anzupassen. 

Jahrestagung der GAMM: Spannende Vorträge und Diskussionen in Dresden

Vom 30. Mai bis 2. Juni waren wir auf der Jahrestagung der GAMM (Gesellschaft für angewandte Mathematik und Mechanik) in Dresden. Die Veranstaltung, auf der zahlreiche Wissenschaftler aus aller Welt ihre Leistungen präsentieren, ist mit 1.000 Teilnehmern einer der größten Konferenzen im deutschsprachigen Raum zu den Themen Mechanik und angewandte Mathematik. Dementsprechend vielfältig war auch das angebotene Programm:

Neben der „Ludwig Prandtl“ und der „Richard von Mises Lecture“, beides Vorträge im Rahmen von Auszeichnungen der GAMM, gab es noch acht weitere Plenumsvorträge zu verschiedensten Themen aus der Mathematik und Mechanik. Zudem gab es noch 26 sogenannte Sections, in denen es Vorträge zu speziellen Themenkomplexen gab. In der Section 22 „Scientific Computing“ durften wir im Rahmen des Vortrages „A Dynamic Bayesian Network Approch for Digital Twins“ unsere Forschung aus dem Forschungsprojekt DigiPrüf vorstellen, was auf breites Interesse stieß.

Auch abseits der Vorträge luden die Kaffeepausen zu spannenden Diskussionen ein, ebenso wie die Welcome Reception auf dem Gelände der Universität Dresden sowie das Conference Dinner im Deutschen Hygiene Museum Dresden.

Abgerundet wurde das Programm durch eine Midissage „100 Jahre GAMM – A scientific art exhibition“ sowie den zwei öffentlichen Vorträgen „100 Jahre GAMM: Motivation, Historie und Errungenschaften“ von Wolfgang Ehlers und „Was hat das Universum mit mir zu tun?“ von Harald Lesch. Letzterer konnte leider kurzfristig nicht nach Dresden kommen, wurde aber per Video zugeschaltet. Zudem spielte Mathematik YouTuber DorFuchs drei seiner alten Hits als Vorprogramm zu Harald Lesch.

Wir freuen uns, dass wir mit vielen neuen Eindrücken und Ideen Dresden verlassen konnten und dass zum Ausgleich der CO2-Emissionen der Konferenz zwei Bäume per Teilnehmer gepflanzt werden.

microTEC Südwest Clusterkonferenz: ATR Software zeigt innovative Ansätze

Das Bild zeigt den Eingang des Konzrthauses in Freiburg mit einem Hinweise auf die Clusteronferenz von des microTEC e. V. im Fenster über den Türen.

 

Am 15. und 16. Mai 2023 fand die inzwischen elfte Auflage der Clusterkonferenz des microTEC Südwest e. V. statt. Wie jedes Jahr wurde im Konzerthaus Freiburg ein reichhaltiges Programm geboten. Neben Keynote Vorträgen gab es auch Präsentationen in parallel laufenden Vortragsslots, die sich beispielsweise um die Themenbereiche „Maschinelles Lernen in der Anwendung, Mikromedizintechnik, Thermische Sensorik, Modern Work“ und viele mehr drehten. In den Pausen lud ein Marktplatz mit Ausstellern aus der Industrie und Forschung zum Verweilen ein. Abgerundet wurden beide Tage jeweils mit einer Podiumsdiskussion: Am Montag drehte sich diese um das Thema „Der optimierte Mensch – wie Mikrosystemtechnik die Gesundheit und Leistungsfähigkeit der Menschen beeinflusst“. Am Dienstag wurde das Thema „Nachhaltigkeit als Chance und Wettbewerbsvorteil“ mit der Bundestagsabgeordneten Dr. Franziska Brantner vom Bundesministerium für Wirtschaft und Klimaschutz diskutiert.

Es hat uns sehr gefreut, dass wir von der ATR Software GmbH an der Veranstaltung einen Vortrag zum Thema „Digitale Zwillinge für Produktionsmaschinen“ einbringen durften. In dem Vortrag präsentierten wir das DigiPrüf Forschungsprojekt sowie die Ansätze, die wir zur Realisierung der Digitalen Zwillinge verfolgen. Wir bedanken uns recht herzlich bei den Veranstaltern vom microTEC Südwest e. V. für die Organisation dieser spannenden Konferenz.

microTEC Südwest Clusterkonferenz 2023

Das Video wird von YouTube eingebettet und erst beim Klick auf den Play-Button geladen. Es gelten die Datenschutzerklärungen von Google.