Mit dem Retrofit zur innovativen Produktion

Bei der Industrie 4.0 dreht sich alles um die Vernetzung von Menschen, Maschinen und Produkten. Dreh- und Angelpunkt bei der Modernisierung für das Internet of Things (IoT) sind die Betriebsdaten der Maschinen, die möglichst exakt erfasst und ausgewertet werden müssen. Aber vor allem für KMUs wirkt das häufig wie eine Herkulesaufgabe. Weshalb sie solchen Modernisierungen oftmals mit Skepsis gegenüberstehen. Denn reibungslos funktionierende Anlagen sind ein wesentlicher Faktor der Produktivität eines Unternehmens. Aber es muss nicht immer die zeit- und kostenintensive Anschaffung einer neuen Anlage sein. Die Retrofit-Methode ist eine interessante Alternative dazu. Auch wenn sie kein Allheilmittel darstellt, besitzt sie ein bemerkenswertes Potenzial.

Verschiedene moderne Anschlüsse auf der Rückseite eines Gerätes in denen zum Teil Kabel stecken. Als Symbol für die Vernetzung innovativer Feritgungen mit Hilfe eines Retrofits.

Aber was genau ist denn nun ein Retrofit?

Der Begriff Retrofit setzt sich aus dem lateinischen Retro (rückwärts) und dem englischen to fit (anpassen) zusammen. Die Bezeichnung Retro ist auch im allgemeinen Sprachgebrauch bekannt und steht für einen Bezug zur Vergangenheit. Wenn es heißt, dass in der diesjährigen Sommermode Retromuster wieder angesagt sind, wissen wir alle, dass ein bereits vergangener Trend wieder auf dem Vormarsch ist.

Auch bei einem Retrofit geht es um etwas aus der Vergangenheit, das wieder zeitgemäß wird: Eine Anlage oder Maschine wird durch neue Bauteile, die in einem späteren Teil des Artikels näher beschrieben werden, wieder an die derzeitigen technischen Verhältnisse angepasst. Denn die Mechanik veraltet trotz langjähriger Verwendung kaum. Somit eignet sie sich als Grundlage für eine Modernisierung mit Hilfe aktueller Informations- und Kommunikationstechnik. Auf diese Weise entsteht im Idealfall eine nahtlose Verschmelzung der geschätzten Bestandsanlagen und innovativer Industrietechnik, so dass die modernisierten Anlagen in digitale Fertigungssysteme und Abläufe integrierbar sind. Durch Retrofitting werden vorhandene Maschinen fit für die Digitalisierung, und der erste Schritt in Richtung mehr Flexibilität und Vernetzung ist durch die Einbindung in moderne IT-Systeme getan. Außerdem können so digitale Prozesse wie ein Dashboard zur Visualisierung der Daten, die Automatisierung der Produktion oder Predictive Maintenance unterstützt werden.

Vorteile eines digitalen Retrofits

  • Die Kosten sind geringer als bei einer Neuanschaffung
  • Verlängerung der Lebensdauer der Anlagen
  • Gewohnte Arbeitsweisen an den Maschinen können beibehalten werden
  • Zeit- und kostenaufwändige Schulungen der Mitarbeiter entfallen
  • Umbauten in der Produktionshalle oder Erweiterungen des Platzangebots sind
    bei dieser Methode nicht notwendig
  • Erfüllung aktueller gesetzlicher Vorgaben oder Sicherheitsbestimmungen
  • höhere Produktivität und Produktqualität
  • Senkung von Produktionskosten
  • bessere Energieeffizienz
  • Steigerung der Effizienz der Anlagen
  • Transparente Maschinendaten und Prozesse

Was wird für einen digitalen Retrofit benötigt?

Um einen Maschinenpark an die Anforderungen der Industrie 4.0 anzupassen, sind verschiedene Komponenten notwendig. Denn der digitale Retrofit setzt neue Hard- und Software aus den Bereichen Sensorik, Informations- und Kommunikationstechnik voraus.

Die Informations- und Kommunikationstechnik sorgt für die Vernetzung der Anlagen untereinander und mit den steuernden oder überwachenden Systemen. Während an den Maschinen angebrachte Sensoren unterschiedliche Abläufe überwachen und diverse physikalische Größen wie zum Beispiel die Temperatur oder den Druck messen. Durch die Vernetzung der Sensoren stehen die erfassten Messwerte für die weiterverarbeitende Software zur Vefügung.

Das Mittel zum Zweck bei einem Retrofit ist ein Bindeglied zwischen Maschine und Netzwerk – wie das IoT Gateway von ATR Software. Denn es ermöglicht einen einfachen Zugang zu den Daten der Produktionsanlagen. Außerdem steigert eine Nachbehandlung des gewonnenen Datenmaterials seine Qualität, sodass wertvolle Informationen für nachgelagerte Prozesse, wie zum Beispiel Maschine Learning zur Verfügung gestellt werden. Eine integrierte Alarmierung sowie die Weitergabe an ein MES, zum Beispiel dem InnoMES von ATR Software, runden das Gesamtpaket ab.

Resiliente Produktionsplanung und -steuerung durch den Einsatz von Künstlicher Intelligenz (KI)

Leiterplatte eines Computers als Hintergrund. Mittig im Vordergrund ein stilisiertes Gehirn, das für das KI-Modul des Forschungsprojektes ProsKI steht.

Gemeinsam mit mehreren Forschungseinrichtungen und Industriepartnern ist ATR Software an dem Forschungsprojekt ProsKI – Resiliente Produktionsplanung und -steuerung durch den Einsatz von künstlicher Intelligenz (KI) beteiligt. Initiiert wird das Projekt von dem Bayerischen Verbundforschungsprogramm (BayVFP) des Freistaates Bayern.

Das Forschungsprojekt hat folgendes Ziel: Für bestehende und zukünftige Produktionssysteme wird ein flexibel integrierbares KI-Modul für resiliente Produktionsplanungs- und -steuerungssysteme entwickelt. Dabei bildet das Modul durch KI-Methoden ein Assistenzsystem für das Störmanagement innovativer Fertigungen. Basierend auf realen Produktionsdaten wird eine Methodik entwickelt, die zum einen im Fehlerfall den Bediener in seiner Entscheidungsfindung im Umgang mit der aufgetretenen Störung unterstützt. Zum anderen mit Hilfe des entwickelten Moduls nicht nur auf Ereignisse reagieren kann, sondern anhand der vorliegenden Produktionsdaten auch zukünftige Störfälle durch Wissensaufbau prognostiziert und in der Produktionsprogrammplanung genutzt werden kann.

ATR Software entwickelt in Zusammenarbeit mit dem Lehrstuhl für Organic Computing (OC) der Universität Augsburg die KI-Methodik für das Störmanagement und das Prognosemodell für zukünftige Produktionsprogramme. Hierzu zählt der Datenaustausch zwischen den Anlagen auf Produktionsebene und dem übergeordneten IT-System. Zudem wird die Datenvorbereitung für die KI-Methoden entwickelt und die Anbindung der daraus resultierenden Daten für das Planungssystem erforscht.

Das KI-Modul soll in Verbindung mit dem eigenen Produkt InnoMES getestet werden. InnoMES ist eine innovative MES-Lösung, die gemeinsam mit einem Leitsystem, dem IoT Gateway, dem Modul Data Analytics und dem Modul Computer Vision die ATR Software-Plattform für produzierende Unternehmen bildet.

Für weitere Informationen stehen wir Ihnen gerne zur Verfügung.

Mensch und mobiler Roboter in einer Arbeitsumgebung

Arm eines Roboters und menschlicher Arm, die zweiZahnräder einanderhalten. Symbolisiert Mensch  und mobilen Roboter in einer Arbeitsumgebung.

Gemeinsam mit der FuE-Einrichtung Fraunhofer IGCV und mehreren Industriepartnern ist ATR Software an dem Forschungsprojekt MeMoRob – Mensch und mobiler Roboter in einer Arbeitsumgebung beteiligt. Das Forschungsprojekt wird vom FuE-Programm „Informations- und Kommunikationstechnik“ des Freistaates Bayern gefördert.

Mobile Robotersysteme bieten das Potenzial für eine flexible Automatisierung, finden bisher jedoch wenig Anwendung. Für den flexiblen Einsatz in der Produktion bedarf es an intelligenten Greifstrategien und Interaktionsfähigkeiten des Roboters, sodass Menschen mit ihm kommunizieren können. Beide Bereiche sind Ziele des Projekts MeMoRob.

Des Weiteren können Mensch und Roboter als Partner fungieren und sich im Rahmen einer Mensch-Roboter-Kooperation gegenseitig unterstützen. In diesem Fall werden die Interaktionsfähigkeiten dazu verwendet, dem Menschen Informationen über den Zustand des Robotersystems mitzuteilen. Zur Erreichung der übergeordneten Ziele werden als Teilziele die Mensch- und Objektdetektion betrachtet. Bei der Objektdetektion wird insbesondere die praktische Anwendbarkeit durch Verringerung des Trainingsaufwands fokussiert.

Die ATR Software beschäftigt sich bei diesem Projekt mit den Themen der Robot Vision und den Algorithmen zum Greifen. Damit soll es ermöglicht werden, die zu greifenden Objekte zu detektieren und an den richtigen Stellen zu greifen.

Für weitere Informationen stehen wir Ihnen gerne zur Verfügung.

Gutes Holz, schlechtes Holz?

Klassifikation von Holzgüte mit künstlicher Intelligenz und Fluoreszenzlebensdauer

Hintergrund

Holz ist weltweit einer der wichtigsten nachwachsenden Rohstoffe. Durch Fotosynthese entzieht es der Atmosphäre das Treibhausgas CO2 und leistet einen wichtigen Beitrag zum Klimaschutz. Holz ist wesentlicher und wertvoller Bestandteil unseres Wertstoffreislaufs. In Recycling-Anlagen kann Holz entsprechend seiner Güte als Baustoff weiterverwertet oder falls keine weitere Nutzung sinnvoll erscheint – verbrannt werden.

Die Altholzverordnung kennt dabei vier Güteklassen:
  • AI         Unbehandeltes Holz
  • AII        Geringfügig oberflächlich behandeltes Holz
  • AIII       Oberflächlich behandeltes Holz
  • AIV       Schadstoffversetztes Holz

Stand heute werden die Holzmassen durch visuelle Inspektion erfahrener Mitarbeiter händisch sortiert. Die Sortierung erfolgt dabei konservativ, das heißt im Zweifel ordnen die Mitarbeiter das Holz in eine geringwertigere Klasse ein. Zudem können mit bloßem Auge Verunreinigungen und Kontaminationen im Holzinnern nicht erkannt werden. Weil sie zu divers und nicht eindeutig sind, bleiben dadurch große Massen im Materialstrom gänzlich unsortiert.

Die Idee der Sortierung mit KI und Fluoreszenz

Hier kommt die Fluoreszenzlebensdauer ins Spiel. Fluores…was? Die Fluoreszenslebensdauer wird auch Fluoreszenzabklingzeit genannt. Sie gibt die durchschnittliche Zeit an, die ein Molekül bei der Fluoreszenz im angeregten Zustand bleibt, bevor es in den Grundzustand zurückkehrt. Fluoreszenz bezeichnet dabei die Fähigkeit mancher Moleküle, Licht bei einer bestimmten Wellenlänge zu absorbieren. Fluoreszenzlebensdauern sind sehr kurz. Sie bewegen sich im Bereich vonanosekunden oder wissenschaftlich formuliert: Zwischen 10-9 und 10-7 Sekunden.

Nun wäre es schön, wenn eine Holzgüte immer die gleiche Fluoreszenzabklingzeit hat und man einen Schwellwert einfügt, im Sinne von: Wenn Abklingzeit größer Schwellwert, dann Holzgüte AI sonst nicht. Das ist aber in der Realität nicht der Fall. Ein Stück Holz hat verschiedene Abklingzeiten, die von vielen Parametern abhängen. Zum Beispiel von der Wellenlänge, die für die Anregung genommen wird, und der Stelle am Holz, an der gemessen wird. Außerdem von den verwendeten Filtern und dem Messabstand zum Holzstück. Diese Parameter könnte man nun fixieren, aber: Die Kamera liefert nicht eine Fluoreszenzlebensdauer pro Stück Holz und Messung, sondern über eine Million.

Dies ergibt eine Verteilung von Fluoreszenzlebensdauern, welche mit wissenschaftlichen Methoden und Tools aus der Data Science und künstlicher Intelligenz analysiert und klassifiziert werden kann. Wenn sich die Verteilungen der Fluoreszenzlebensdauern zwischen den Holzgüten unterscheiden, dann kann sie die KI erkennen und klassifizieren. Ob und wie gut das möglich ist, soll im Rahmen des Forschungsprojektes FrIDAh (Fluoreszenz-ID von Altholz) erforscht und erprobt werden.

Wir von ATR Software sind Teil des Forschungsprojektes und unterstützen die Projektpartner hierbei mit unserer Expertise in Software-Engineering, Data Science und Künstlicher Intelligenz. Das Endziel dieses Projekts ist der Bau eines Roboters, der mithilfe unserer KI das gute Holz vom Schlechten unterscheiden kann. Perspektivisch soll damit der Sortiervorgang automatisiert werden.

Serviceroboter im Einsatz

Im Rahmen des Arbeitskreises Industrie 4.0 stellten Wissenschaftler der Universität Ulm ihre Forschung zu Servicerobotern vor. Anschauungsobjekt ist ein humanoider Roboter namens Pepper (siehe Foto). Pepper ist ca. 1,20m groß, hat überdimensional große Augen, die auch als Kameras fungieren, und bewegt sich sehr mechanisch. Die Entwickler wollten mit diesem Entwurf einen Roboter konstruieren, der menschlich ist, und doch nicht zu menschlich, um den Benutzern keinen Schrecken einzujagen. Bisher wird Pepper vor allem im Service benutzt, zum Beipiel bei Kreuzfahrten oder im Supermarkt.

Die Forscher setzten Pepper nun bei einem Optiker ein. Hierfür scannte Pepper zuerst das Gesicht des Kunden und empfahl ihm eine Brillenform. Der Kunde konnte anschließend über das, im Körper des Roboters integrierte Terminal, weitere Entscheidungen treffen. Abschließend durchsuchte der Roboter eine Bilderdatenbank und zeigte dem Probanden prominente Brillenträger mit einem ähnlichen Gesicht zur Inspiration.

Werden Serviceroboter in Zukunft auch bei Wartungsarbeiten unterstützen? In bisherigen Lösungsansätzen werden Wartungsmitarbeiter vor allem mit Hilfe von Datenbrillen von Empfehlungssystemen unterstützt. Die Übertragung dieser Funktionalität wäre technisch ein Leichtes. Die Frage, ob wir Pepper oder artverwandte Roboter, in Zukunft in der industriellen Produktion sehen werden, hängt stark von der Akzeptanz der Benutzer ab. Die aktuellen Anzeichen hierfür stehen, unserer Meinung nach, schlecht. Als intelligente Begrüßungsstation in Hotels hat Pepper sich aber jetzt schon seine Berechtigung gesichert.

Serviceforum Stuttgart

Auf dem 5. Serviceforum der Region Stuttgart trafen sich am 03. Juli 2019 Entscheider im Servicegeschäft von Maschinen- und Anlagenbauern um Denkanstöße zu sammeln und zu netzwerken. Die Veranstaltung wurde organisiert vom International Performance Research Institute (IPRI) unter der Leitung von Fabian Schüler und Oliver Reichert. Ein Vortragsprogramm bildete den roten Faden durch den Tag und wurde ergänzt durch ein Diskussionsforum, bei dem die Teilnehmer zu diversen Themen im Schervicegeschäft Stellung beziehen konnten.

Im Forum war die ATR Software als Ansprechpartner für Lösungen aus dem Bereiche Computervision, Datenanalyse, Produktionsleitsysteme und IoT Gateways vertreten. Wir freuen uns, dass wir viele spannende Themenstellungen diskutieren konnten.

serviceforum

Augmented Reality in Salento

Salento, auch bekannt als der Absatz des Stiefels von Italien, ist eigentlich nicht für seine hochmoderne Technologie bekannt. Vielmehr prägen Architektur, Strand und Tourismus das alltägliche Bild. Jedoch nicht so auf der SalentoAVR Konferenz. Hier treffen sich Wissenschaftler aus aller Welt um die neusten Entwicklungen im Bereich Augmented Reality und Datenbrillen zu diskutieren. Auch wir haben unsere letzten Projekte vorgestellt, die allesamt mit der Microsoft HoloLens durchgeführt wurden. In einem ersten Ansatz wurden Objekte in einem Video erkannt. Der Ansatz basiert auf Deep Learning, wobei ein tiefes Neuronales Netz mit dem Videostream der HoloLens angelernt wurde. Anschließend wurde die Robustheit dieses Netzes mit verzerrten Bildern getestet (siehe Bild)

uhlmannparts
Bilder mit Verzerrungsfiltern

Ein zweites Projekt beschäftigte sich mit der Programmierung von Quadrocoptern. Es ist sehr schwierig sich die Flugbahn eines Quadrocopters vorzustellen, wenn man in einzelnen Befehlen programmiert wie
„fliege 3m nach vorne“
„drehe um 46° auf der z-Achse“

Um die Programmierung zu vereinfachen, wird der erwartete Flugpfad in der HoloLens dargestellt.

quadrocopter
Quadrocopter Testaufbau

Das dritte, und letzte Projekt, widmete sich dem Monitoring einer Brennstoffzelle. Die Stromverbrauchswerte werden über das Protokoll MQTT an die Datenbrille gesendet und können dort im dreidimensionalen Raum betrachtet werden.

brennstoffzelle
Brennstoffzelle Architektur

Auf der Konferenz wurden viele spannende Konzepte vorgestellt. Die größten Themengebiete waren 1) die Unterstützung von Operationen und Therapien mit Augmented Reality, 2) die Steuerung von industriellen Maschinen und 3) die Städteplanung und Architektur. Wir freuen uns über die Inspiration und werden sicherlich Konzepte und unseren eigenen Anwendungen ausprobieren.



JavaScript/Angular Days 2018

Letztes Jahr fanden in Berlin wieder die mehrtägigen JavaScript Days statt.

Erfahrene Entwickler, Trainer, Berater und Freiberufler stellten im Rahmen von diversen Workshops ihr Wissen den Teilnehmern zur Verfügung und behandelten aktuelle Themen zu den Webentwicklungsbereichen – JavaScript, Angular, React, RxJS, Redux, Web Components, Node.js und mehr. Für die ATR Software GmbH waren vor allem die Themen im Bereich von Angular und TypeScript interessant.

Für Einsteiger bot sich der ganztägige Kurs „Angular – von 0 auf 100“ sehr an, bei dem es nicht nur um die Vermittlung von Basiswissen ging, sondern auch „Best Practice“ – Methoden zusammengefasst wurden, um von Anfang an die korrekte Implementationsmethodik anwenden zu können.

Darüber hinaus gab es viele weitere Workshops, die sich mit den zuvor genannten Themen befassten.

Es gab je einen Workshop zum Thema „Testing“ mit JavaScript, Angular und React. Einige Deep Dive Workshops und Informationen zu Neuheiten der aktuellen Versionen der Frameworks und Entwicklungssprachen.

Zu einem der eindrucksvollsten Vorträgen gehört aus unserer Sicht der Votrag „Navigationsstrukturen mit dem Angular Router: Deep Dive“ von Manfred Steyer (https://www.softwarearchitekt.at/), in dem an Hand von kleinen Beispielen gezeigt wird, welche komplexen Sachverhalte (z.B. MessageBoxen) mit dem Router gelöst werden können.

Wissen, das wir in allen unseren Web-Projekten sofort anwenden konnten, hat uns der Votrag „Hochperformante Single Page Applications mit Angular“ vermittelt. Von LazyLoading über Precaching bis hin zu Service Workern hat der Vortrag verschiedenste Techniken für bessere Performance demonstriert, welche gleichzeitig alle auch direkt über die Angular CLI mühelos einbindbar sind.

Teilnehmer:
Philipp Freibauer
Bogdan Tamrasov
Emmanuel Schwartz

Erster ‚International Workshop on Data Science for Industry 4.0‘

Mit unserem Beitrag Towards a Hierarchical Approach for Outlier Detection in Industrial Production Settings nahmen wir am ersten Internationalen Workshop zum Thema Data Science in der Industrie 4.0 in Lissabon teil. Unsere Grundsätzliche Fragestellung lautetete: Wie kann man Unregelmäßigkeiten innerhalb einer vielschichtigen Produktion gut darstellen. Hierfür entwickelten wir ein Ebenenmodell (siehe Bild), auf dem wir unsere Thesen aufbauten. Dabei sind drei grundsätzliche Ideen enthalten:

  1. Wenn eine Unregelmäßigkeit auch nach einer Aggregation der Daten (Durchschnitt, Summe etc…) noch auffindbar ist, wird sie als wichtiger dargestellt.
  2. Ausreißer, die an mehreren Sensoren gleichzeitig festgestellt werden (Support), sind wichtig.
  3.  Die Stärke eines Ausreißer ist immer relativ zu den anderen Ausreißern derselben Maschine.

Aus diesen drei Erkenntnissen wurde ein Algorithmus aufgebaut, der wiederum hilft Unregelmäßigkeiten besser zu vergleichen und einzuordnen.

ebenenmodell

Unser Ebenenmodell

Weitere Vorträge widmeten sich u.a. dem so genannten ‚checkpointing‘ beim Streamen großer Daten. Hierbei wird ein Marker im Stream mitgesendet um, bei Ausfall des Systems, keine Daten zu verlieren. Im Bereich Data Analytics widmete sich ein Ansatz den Gauß’schen Prozessen, die auf dem Prinzip der Regression arbeiten und trotzdem ein Konfidenzintervall für ihre Vorhersage anbieten.

Die Konferenz widmete sich nicht nicht nur aktuellen Entwicklungen, sondern schaute auch vergleichend in die Vergangenheit um festzustellen, welche Theorien den „Test der Zeit“ bestanden haben. Hierbei zeichnete sich vor allem Amdahls Law aus, welches besagt, das ein System nur so skalierbar ist, wie die am wenigsten skalierbare Komponente.

Hackathon II: Von Fahrrädern und gesprächigen Computern

Nach dem erfolgreichen Hackathon im Dezember letzten Jahres auf der Reisensburg in Günzburg beschlossen wir eine hausinterne Wiederholung dieses spannenden Konzeptes. Bei einem Hackathon, also einer Mischung aus Marathon und Hacken, wird innerhalb von kurzer Zeit versucht für ein Thema Lösungen zu entwickeln. Diese Herangehensweisen an Ideen wird oftmals als sportliches Event gesehen, bei dem auch Preisgelder für die beste, entwickelte Lösung ausgeschrieben werden. Bei uns jedoch stand der explorative Gedanke im Vordergrund. Zwei Tage lang konnten wir, unabhängig von den Themen des Tagesgeschäftes, Konzepte und Technologien erproben. Hier eine Auswahl unserer spannenden Themen:

Das Bitcoin Fahrrad – Radel dich reich!
Der Gedanke vom schnellen Geld ist für viele Menschen verlockend. Der Gedanke, dass man für das schnelle Geld auch schnell im sportlichen Sinne sein muss, lässt eher die fitnessbegeisterten Menschen jubeln. Wir präsentieren: Das Bitcoinfahrrad. Über den Fahrraddynamo werden Raspberry PIs (Einplatinencomputer) betrieben, die Bitcoins produzieren. In der Theorie zumindest. In der Praxis benötigt man hunderttausende Jahre um zum Bitcoin Millionär aufzusteigen.

Strampeln für Geld – Das Bitcoin Fahrrad

Computer Vision auf verschiedenen Plattformen
Ein zweites Team beschäftigte sich mit der Anwendung der Computer Vision Bibliothek OpenCV auf verschiedenen Plattformen. Sie testeten u.a. Gesichtserkennungsalgorithmen und probierten die Umsetzung der Anwendung in verschiedenen Programmiersprachen.

Die Silhuette eines Programmierers

Ein Chatbot für Maschinendaten
Sie sind inzwischen weit verbreitet im Internet: Chatbots, die u.a. unsere Bestellungen aufnehmen und den Kundensupport vermitteln. Wir verwendeten das Framework Dialogflow von Google und Amazons Alexa um Maschinendaten abzufragen. Die Abfrage ist entweder über Text- oder Spracheingabe möglich und besonders bei der Kommunikation mit Alexa sind lustige Sprachmissverständnisse praktisch vorprogrammiert.

„Alexa, wie ist der aktuelle Zustand der Maschine?“

Weitere Gruppen beschäftigten sich mit Clustertechnologien, einer Zeiterfassungssoftware im Web und dem Framework JHipster.
Die rauchenden Köpfe konnten mit kühlem Bier abgekühlt werden und eine kleine Vortragsreihe zu freien Themen (z.B. NGRX, Quantencompter) rundete unseren Hackathon ab.