Betriebssystem | Linux (Navigation) Windows (Inspektion) |
---|---|
Webseite | aircobot.akka.eu |
Air-Cobot , Aircraft Inspection verbessert durch Smart & Collaborative Roboter , ist ein Projekt Französisch von Forschung und Entwicklung eines Roboters mobilen kollaborativen der Lage , einen zu inspizieren Flugzeuge während des Betriebs Service . Unter der Leitung der Akka Technologies- Gruppe sind an diesem Multi-Partner-Projekt Forschungslabors und Hersteller beteiligt . Die Forschung rund um diesen Prototyp wurde auf drei Achsen entwickelt: autonome Navigation , zerstörungsfreie Prüfung und Mensch-Maschine-Zusammenarbeit .
Air-Cobot wird als erster rollender Roboter zur Sichtprüfung von Flugzeugen vorgestellt. Inspektionsroboter, die andere Arten von Sensoren verwenden, wurden bereits in Betracht gezogen, beispielsweise der des europäischen Robair- Projekts . Seit dem Start des Projektes, andere Vision- basierten Lösungen haben begonnen zu entwickeln, wie die Drohne von der britischen Fluggesellschaft Easy Jet oder dem Schwarm von Drohnen vom Toulouse Start Donecle oder AirCam Projekt aus dem Flugzeughersteller Airbus .
Seit seinem Debüt im Jahr 2013 soll der Air-Cobot-Roboter die unteren Teile des Flugzeugs inspizieren. Im weiteren Verlauf des Projekts ist eine Kupplung mit einer Drohne zur Inspektion der oberen Teile vorgesehen. Im Oktober 2016 gab die Airbus Group den Start ihres Forschungsprogramms zum Hangar der Zukunft in Singapur bekannt . Darin sind Roboter aus den Projekten Air-Cobot und Aircam enthalten, um den Zustand der Flugzeuge zu analysieren.
Dieses im Januar 2013 gestartete Projekt ist Teil des einzigen interministeriellen Fondsprogramms des Aerospace Valley- Clusters für Wettbewerbsfähigkeit . Bei einer Menge von mehr als einer Million Euro , Air-Cobot Ziele zur Entwicklung eines Roboter mobilen kollaborativen innovative, autonom in seinen Bewegungen und in der Lage , die Inspektion eines auszuführen Flugzeuge mit Sensoren von nicht zerstörenden Kontrolle vor dem Start oder während der Wartung Phasen in der Hangar . Die Tests werden in den Räumlichkeiten von Airbus und Air France Industries durchgeführt .
Projektleiter ist Akka Technologies . Die Projektpartner sind mit zwei akademischen Partnern , zwei Industriellen und drei kleinen und mittleren Unternehmen diversifiziert .
Akademische PartnerDie Projektfinanzierer sind die öffentliche Investmentbank , der Regionalrat von Aquitanien , der Abteilungsrat von Pyrénées-Atlantiques , der Regionalrat von Midi-Pyrénées und die Europäische Union .
Regelmäßig werden Flugzeuge während der Wartungsarbeiten inspiziert , sei es am Flughafen zwischen zwei Flügen oder in einem Hangar, um eingehendere Inspektionen durchzuführen. Diese Inspektionen werden von menschlichen Bedienern hauptsächlich visuell und manchmal unter Verwendung von Werkzeugen zur Bewertung von Fehlern durchgeführt. Ziel des Projekts ist es, die Inspektion von Flugzeugen und deren Rückverfolgbarkeit zu verbessern . Eine Datenbank für jedes Gerät, die Bilder und dreidimensionale Scans enthält, kann nach jedem Wartungsvorgang aktualisiert werden. Dies sollte es beispielsweise ermöglichen, die Entwicklung eines Risses zu steuern .
Die Augen menschlicher Bediener werden mit der Zeit müde, während eine automatische Lösung die Zuverlässigkeit und Wiederholbarkeit von Inspektionen gewährleistet . Prüffristen zu reduzieren , ist ein wichtiges Ziel für die Flugzeughersteller und Fluggesellschaften . Wenn die Wartungsarbeiten schneller sind, werden auch die Verfügbarkeit der Flugzeuge und die Betriebskosten für die Wartung optimiert . Alles muss die Sicherheit des Luftverkehrs verbessern .
Alle elektronischen Geräte werden von der mobilen 4MOB-Plattform der Firma Sterela transportiert. Diese mit Allradantrieb ausgestattete Geländeplattform kann sich mit einer Geschwindigkeit von 2 Metern pro Sekunde (7,2 Kilometer pro Stunde) bewegen. Die Lithium-Ionen-Batterien ermöglichen eine Autonomie von acht Stunden. Zwei Stoßstangen befinden sich vorne und hinten. Diese Sicherheitssysteme sind Stoßstangen zur Hinderniserkennung. Sie stoppen die Plattform, wenn sie zusammengedrückt werden.
Der Cobot wiegt insgesamt 230 Kilogramm. Es verfügt über zwei Computer , von denen einer Linux für das eigenständige Navigationsmodul und der andere Windows für das zerstörungsfreie Testmodul ausführt . Der Roboter ist mit mehreren Sensoren ausgestattet. Die von Axis Communications hergestellte Schwenk-Neige-Zoom-Kamera und der von Artec 3D hergestellte dreidimensionale Scanner vom Typ Eva sind zur Inspektion vorgesehen. Die für die Navigation konzipierten Sensoren sind eine Trägheitseinheit , zwei Stereobänke mit jeweils zwei PointGrey-Kameras, zwei Hokuyo-Laserscanning-Sensoren und eine GPS-Einheit. Dieses neueste von M3 Systems entwickelte Gerät ermöglicht Geofencing im Freien.
Die autonome Navigation des Air-Cobot-Roboters erfolgt in zwei Phasen. Die erste, die Navigation am Flughafen oder in der Fabrik, ermöglicht es, den Roboter in die Nähe des zu inspizierenden Flugzeugs zu bringen. Die zweite, Navigation um das Flugzeug, ermöglicht es dem Roboter, sich an Kontrollpunkten zu positionieren, auf die in der Flugzeugmarkierung verwiesen wird. Darüber hinaus muss der Roboter in eine dynamische Umgebung passen, in der sich Menschen und Fahrzeuge weiterentwickeln. Um auf dieses Problem zu reagieren, ist es mit einem Hindernisvermeidungsmodul ausgestattet. Viele Navigationsalgorithmen werden ständig mit Echtzeitbeschränkungen auf dem Roboter ausgeführt . Daher wird an der Optimierung der Rechenzeit geforscht .
In einer Umgebung im Freien kann der Roboter dank GPS-Daten ( Global Positioning System ) zur Inspektionsstelle gehen, indem er sich selbst lokalisiert . Mit der von M3 Systems entwickelten GPS-Box können Sie Geofencing durchführen . Am Flughafen bewegt sich der Roboter unter Beachtung der Geschwindigkeitsbegrenzungen durch spezielle Navigationsspuren. Warnungen werden an den Bediener gesendet, wenn der Roboter einen verbotenen Bereich betritt oder eine bestimmte Geschwindigkeit überschreitet.
Ein anderer Algorithmus, der auf Computer Vision basiert, bietet eine Echtzeit- Spurmarkierungserkennung. Wenn sie sichtbar sind, können die auf dem Boden gemalten Markierungen dem Positionierungssystem zusätzliche Daten für sicherere Flugbahnen liefern. Ob in Innenräumen oder im Freien, wenn keine GPS-Informationen verfügbar sind, der Cobot kann sich im Personenverfolgungsmodus befinden, um sich hinter seinen menschlichen Bediener zu bewegen und ihm zum auskultierten Flugzeug zu folgen.
Der Roboter muss um das Flugzeug herum navigieren und zu Kontrollpunkten in Bezug auf das Flugzeug gehen, um seine Inspektion durchzuführen. Da die Position des Flugzeugs auf dem Flughafen oder in der Fabrik nicht genau genug bekannt ist, muss der Cobot das Flugzeug erkennen, um seine Position (seine Position und seine Ausrichtung) in Bezug auf das Flugzeug zu kennen. Dazu kann sich der Roboter entweder mit Laserdaten oder mit Kameradaten lokalisieren.
In der Nähe des Flugzeugs wird eine dreidimensionale Punktwolke erfasst, indem die Ausrichtung der an den Platten angebrachten Laserscansensoren geändert wird. Nach dem Filtern der Daten, um den Boden oder die zu kleinen Punktgruppen zu entfernen, wird eine Registrierungstechnik mit dem Modell des Flugzeugs verwendet, um die statische Haltung des Roboters abzuschätzen. Letzterer bewegt und behält diese Haltung unter Berücksichtigung der Kilometerzähler der Räder , der Trägheitseinheit und der visuellen Kilometerzähler bei.
Dreidimensionale Lasererfassung in einer Außenumgebung.
Registrierung der externen Erfassung beim Flugzeugmodell.
Dreidimensionale Lasererfassung in Innenräumen.
Registrierung der Innenraumerfassung beim Flugzeugmodell.
Laserdaten werden auch horizontal in zwei Dimensionen verwendet. Ein Algorithmus liefert eine Echtzeit-Posenschätzung des Roboters, wenn genügend Elemente des Fahrwerks und der Strahltriebwerke sichtbar sind. Ein Konfidenzindex wird anhand der Anzahl der von den Lasern wahrgenommenen Elemente berechnet. Bei gutem Vertrauen wird die Pose mit dieser Lokalisierung aktualisiert. Diese Modalität ist besonders interessant, wenn sich der Roboter unter dem Gerät bewegt.
Zur visuellen Lokalisierung schätzt der Roboter seine Position in Bezug auf visuelle Elemente des Flugzeugs (Luken, Fenster , Reifen , statische Anschlüsse usw.). Während der Entwicklung des Roboters werden diese visuellen Elemente aus dem dreidimensionalen Modell des Geräts extrahiert und in die Bildebene der Kameras projiziert. Die projizierten Formen werden zur Formerkennung verwendet, um visuelle Orientierungspunkte zu erkennen. Die andere verwendete Erkennung basiert auf der Merkmalsextraktion mit einem SURF-Ansatz ( Speeded Up Robust Features ). Eine Paarung wird zwischen Bildern jedes zu erfassenden Elements und der Szene durchgeführt.
Dank der Erkennung und Verfolgung von visuellen Orientierungspunkten kann der Roboter nicht nur seine Position relativ zum Flugzeug schätzen , sondern auch visuelle Servos durchführen . Vision-Forschung wird auch zur gleichzeitigen Kartierung und Lokalisierung durchgeführt . Diese Technik ist im Englischen unter dem Akronym SLAM ( Simultaneous Localization And Mapping ) bekannt. Informationsfusionen zwischen den beiden Methoden der Laser- und Bildaufnahme sind vorgesehen. Eine künstliche Intelligenz, die die verschiedenen Orte vermittelt, wird ebenfalls untersucht.
In beiden Navigationsmodi kann Air-Cobot auch Hindernisse erkennen, verfolgen, identifizieren und vermeiden, die sich auf seinem Weg befinden. Laserdaten von Hokuyos und visuelle Daten von Kameras können zur Erkennung, Verfolgung und Identifizierung verwendet werden. Die Erkennung und Verfolgung ist im zweidimensionalen Lasernetz einfacher. Während die Identifizierung in den Bildern von den Kameras einfacher ist. Die beiden Methoden ergänzen sich daher. Darüber hinaus können die Informationen von Lasern verwendet werden, um Arbeitsbereiche im Bild abzugrenzen.
Der Roboter hat mehrere Möglichkeiten, auf Hindernisse zu reagieren. Diese Antworten hängen von seiner Umgebung (Navigationsspur, offener Asphaltbereich, überlastete Innenumgebung usw.) zum Zeitpunkt des Meetings ab. Er kann anhalten und warten, bis die Fahrspur frei ist, oder ein Hindernis mithilfe einer spiralförmigen Technik umgehen oder eine Pfadplanung durchführen.
Angesichts der Anzahl von Navigationsalgorithmen, die gleichzeitig berechnet werden, um alle Informationen in Echtzeit bereitzustellen, wurden Untersuchungen durchgeführt, um die Rechenzeit bestimmter digitaler Methoden durch Verwendung programmierbarer Logikschaltungen zu verbessern . Die Forschung hat sich auf die visuelle Wahrnehmung konzentriert. Der erste Teil konzentrierte sich auf die gleichzeitige Abbildung und Lokalisierung mit einem erweiterten Kalman-Filter, der die Zustände eines dynamischen Systems aus einer Reihe unvollständiger oder verrauschter Messungen schätzt . Die zweite konzentrierte sich auf das Auffinden und Erkennen von Hindernissen.
Nachdem sich der Roboter positioniert hat, um eine visuelle Inspektion durchzuführen, führt er eine Erfassung mit der Schwenk-Neige-Zoom-Kamera durch . Dies erfolgt in mehreren Schritten: Richten der Kamera, Erkennen des zu inspizierenden Elements, erneutes Aussetzen bei Bedarf und Zoomen der Kamera, Bilderfassung und Inspektion. Die Bildanalyse wird in Fallen verwendet , um zu bestimmen , ob sie geöffnet oder geschlossen wird , von der Anwesenheit oder Abwesenheit von Schutz für bestimmte Geräte, der Zustand der Schaufeln eines Turbostrahltriebwerkes oder Verschleiß an Reifen von der Prozess Landung .
Bei der Erkennung werden reguläre Formen ( Rechteck , Kreis , Ellipse ) erkannt . Ebenso wie im Rahmen der visuellen Navigation kann das dreidimensionale Modell des zu inspizierenden Elements für komplexere Formen auch in die Bildebene projiziert werden. Die Steuerung basiert auf Indizes wie der Gleichmäßigkeit segmentierter Bereiche oder der Konvexität ihrer Formen oder der Periodizität der Intensität des Bildsignals.
Das Extrahieren von Merkmalen mit einem SURF-Ansatz ( Speeded Up Robust Features ) ist auch möglich, um die Inspektion bestimmter Elemente mit zwei möglichen Zuständen durchzuführen, z. B. Sonden oder statische Anschlüsse, die abgedeckt oder nicht abgedeckt sind. Es wird eine Paarung zwischen Bildern des zu untersuchenden Elements in verschiedenen Zuständen und dem in der Szene vorhandenen durchgeführt. Für diese leicht zu inspizierenden Elemente ist eine Analyse während der Navigation aufgrund ihrer Zeitersparnis möglich und vorzuziehen.
Nachdem sich der Stromabnehmer für eine Scannerinspektion positioniert hat, hebt er den dreidimensionalen Eva- Scanner von Artec 3D auf die Höhe des Rumpfes an. Eine Schwenk- und Neigestufe ermöglicht die Erfassung durch Scannen des Rumpfes. Durch den Vergleich der erfassten Daten mit dem dreidimensionalen Modell des Flugzeugs können Algorithmen Fehler im Rumpf diagnostizieren, indem sie Informationen zu Form, Größe und Tiefe des Flugzeugs bereitstellen.
Durch die Aufrüstung der Hokuyos-Platten, der Laserscanning-Sensoren, ist es auch möglich, dreidimensionale Punktwolken zu erhalten . Eine Registrierungstechnik zwischen dem Modell des Flugzeugs und einer Punktwolke in der Szene wird bereits in der Navigation verwendet, um die statische Pose des Roboters abzuschätzen. Es ist geplant , gezielte Akquisitionen durchzuführen, einfacher in Bezug auf die Bewegung, das Fehlen eines Keils vor einem überprüfen Fahrwerk oder die korrekte Schließen der Turbojet - Verriegelungen .
Wie der Name des Projekts andeutet, ist der mobile Roboter ein Cobot: ein kollaborativer Roboter. Während seiner Navigations- und Inspektionsphasen wird er von einem menschlichen Bediener begleitet, der bei Bedarf die Kontrolle übernehmen, Inspektionsaufgaben hinzufügen kann, wenn er einen Fehler feststellt, der nicht in der Aufgabenliste des Roboters enthalten ist, oder die Ergebnisse validiert. Im Falle einer Inspektion vor dem Flug wird die Diagnose der Flugzeugtour an den Piloten gesendet, der entscheidet, ob er abhebt oder nicht.
Das europäische Projekt Robair des Inspektionsroboter , von finanziert Jahr 2001 bis 2003 , soll an Bord von Flugzeugen zu montieren Flügeln und Rumpf Reihen zu inspizieren Nieten . Um sich zu bewegen, verwendet der Roboter ein flexibles Netzwerk von pneumatischen Saugnäpfen , die sich an die Oberfläche anpassen. Es kann Nietlinien mit Ultraschall , Wirbelströmen und thermografischen Techniken untersuchen . Es erkennt lose Nieten sowie Risse.
Die Fluggesellschaft EasyJet hat sich auch für die Inspektion von Flugzeugen mit Drohnen interessiert . Im Jahr 2015 wurde eine erste Inspektion durchgeführt . Ausgestattet mit Lasersensoren und einer hochauflösenden Kamera führt die Drohne einen autonomen Flug um das Gerät herum durch. Es erzeugt ein dreidimensionales Bild des Flugzeugs und überträgt es an einen Techniker. Letzterer kann dann in dieser Darstellung navigieren und zoomen, um ein hochauflösendes Foto eines Teils des Flugzeugs anzuzeigen. Der Bediener muss dann das Vorhandensein oder Fehlen von Fehlern visuell diagnostizieren. Dieser Ansatz vermeidet die Verwendung von Rolltreppen zur Beobachtung der oberen Teile des Geräts.
Gegründet in 2015 , Donecle, ein Startup - Toulouse , startete auch eine Drohne Ansatz und ist darauf spezialisiert , vor allem auf dem Nachweis von Auswirkungen von Blitzschlag an Flugzeugen. Diese Inspektion wird normalerweise von fünfzehn Personen durchgeführt, die mit Gurten und Wiegen ausgestattet sind. Sie dauert etwa acht Stunden . Die Immobilisierung des Flugzeugs und der Einsatz von Personal sind für Fluggesellschaften kostspielig . Die Operation wird auf 10.000 US-Dollar pro Stunde geschätzt. Die vom Start vorgeschlagene Lösung dauert zwanzig Minuten .
Donecle verwendet einen Schwarm Drohnen, die mit Lasersensoren und Mikrokameras ausgestattet sind. Die automatischen Fehlererkennungsalgorithmen, die mit Trainingssoftware in vorhandenen Bilddatenbanken trainiert wurden, können verschiedene Elemente identifizieren: Texturunregelmäßigkeiten , Pitot-Sonde , Niet , Öffnung, Text , Fehler , Korrosion , Ölflecken . Ein Schadensbericht gesendet den Betreibers Touchpad mit jedem Bereich von Interesse und der vorgeschlagenen Klassifizierung mit einer vorgesehenen Prozentsatz der Wahrscheinlichkeit . Nach dem Studium der Bilder wird das Urteil von einem qualifizierten Inspektor gefällt.
Das Airbus Aircam-Projekt zielt darauf ab, eine Drohnenlösung für die Hochinspektion von Flugzeugen zu entwickeln. Das Projekt wird im Airbus BizLab entwickelt, einem Startup-Beschleuniger in Toulouse. Es ist möglich, eine bestimmte Inspektion festzulegen, automatisch zu fliegen und hochauflösende Bilder der oberen Oberfläche zu erhalten. Die Analyse der gesammelten Daten erfolgt nach dem Flug. Es verwendet vereinfachte dreidimensionale Modelle von Flugzeugen, um Schäden zu identifizieren, automatisch auf der Struktur zu lokalisieren und zu erfassen. Airbus zeigte seine Drohneninspektionslösung auf der Farnborough Airshow im Juli 2016 .
In 2015 , in einem Interview mit dem gegebenen Französisch Wochenzeitschrift Air et Cosmos , Jean-Charles Marcos, Geschäftsführer von Akka Forschung , erklärt , dass , sobald die Industrie und vermarktet , würde die Air-Cobot zwischen 100.000 und 200.000 kosten Euro. . Es könnte den zivilen Bedarf in Bezug auf zerstörungsfreie Tests, aber auch in Bezug auf das Militär decken . Eine mögliche Fortsetzung des Projekts wäre der Eingriff des Roboters in Flugzeuge, die größer als der Airbus A320 sind . Akka Technologies plant, dass zwei Roboter für die Inspektion zusammenarbeiten: dieselbe mobile Plattform für die unteren Teile und eine Drohne für die oberen Teile. Wenn Mittel bereitgestellt werden, könnte diese zweite Phase im Zeitraum 2017 - 2020 stattfinden .
Auf der Singapore Airshow im Februar 2016 präsentierte die Airbus Group Air-Cobot und seinen Einsatz in ihrer Vision vom Hangar der Zukunft. Im selben Monat beauftragte die Regierung von Singapur die Airbus Group, Unternehmen, die für die Instandhaltung verantwortlich sind, dabei zu helfen, mit Nachbarländern wie Indonesien , Thailand und den Philippinen, die billiger waren, wettbewerbsfähig zu bleiben . Um die Produktivität zu verbessern , startet die Airbus Group inOktober 2016, ein Testhangar, in dem neue Technologien getestet werden können. In diesem Hangar der Zukunft werden Schäden am Flugzeug durch Kameras erkannt, die sich am Eingang des Hangars befinden, wenn das Flugzeug vorbeifährt. Der mobile Air-Cobot-Roboter und die Aircam-Projektdrohne werden diese erste Analyse verbessern.
Während der vierzehnten internationalen Konferenz Remote Engineering and Virtual Instrumentation vonMärz 2017Akka Research Toulouse, eines der Forschungs- und Entwicklungszentren von Akka Technologies, präsentiert seine Vision für den Flughafen der Zukunft. Neben Air-Cobot ist Co-Friend, ein intelligentes Videoüberwachungssystem zur Überwachung und Verbesserung des Flughafenbetriebs , ein früheres Projekt in dieser Forschungsrichtung . Zukünftige Forschungsarbeiten werden sich auf das Management dieser Vorgänge, autonome Fahrzeuge, zerstörungsfreie Tests und Mensch-Maschine-Interaktionen konzentrieren, um die Effizienz und Sicherheit auf Flughäfen zu erhöhen. Ab August 2017 arbeitet der Roboter einmal im Monat im Aeroscopia Aeronautical Museum in Blagnac . Projektforscher nutzen die Sammlung, um Tests und Akquisitionen an anderen Modellen von Airbus A400M- , Airbus A300- und Sud-Aviation SE 210 Caravelle-Flugzeugen durchzuführen .
Das 23. Oktober 2014wurde von der Airbus Group ein Patent angemeldet . Von 2014 bis 2016 wurde der Roboter in fünf Ausstellungen vorgestellt , von denen eine der Robotik und zwei der Luftfahrt gewidmet war . Die im Rahmen des Projekts entwickelten Forschungsergebnisse werden auf siebzehn Konferenzen vorgestellt . Sie führen zu zwei Doktorarbeiten und einundzwanzig wissenschaftlichen Artikeln : siebzehn Konferenzberichte und vier in Fachzeitschriften veröffentlichte. Einige der Veröffentlichungen konzentrieren sich auf die Navigation und / oder die Inspektion durch Air-Cobot, während sich der Rest auf sehr spezifische digitale Methoden oder Materiallösungen im Zusammenhang mit den Problemen des Projekts konzentriert. Auf der internationalen Konferenz Machine Control and Guidance (MCG) 2016 wurde der Preis für die beste endgültige Bewerbung an die Autoren der Veröffentlichung Human-Robot Collaboration zur Durchführung von Flugzeuginspektionen in Arbeitsumgebungen vergeben .
Das 17. April 2015Die Airbus Group sendet auf ihrem YouTube- Kanal ein Video, in dem das von der Kommunikationsagentur Clipatize produzierte Projekt vorgestellt wird . Das25. September 2015, Toulouse Métropol ein Werbevideo auf seinem YouTube - Kanal senden. Es präsentiert sich als attraktives Ökosystem, das in der Lage ist, die Zukunft aufzubauen, und betont seine internationale Sichtbarkeit. Der Air-Cobot-Demonstrator wurde ausgewählt, um die Robotikforschung in dieser Metropole zu veranschaulichen. Die an dem Projekt beteiligten Forscher oder Ingenieure , die sich während ihrer Entwicklung im Labor für Systemanalyse und Architektur befinden , präsentieren den Demonstrator regelmäßig Besuchern (externen Forschern, Industriepartnern, Studenten) und manchmal der Öffentlichkeit wie während des Wissenschaftsfestivals 2015 . Die Airbus Group sendet immer noch über ihren YouTube-Kanal die 17. Februar 2016eine Videopräsentation seines Hangars des zukünftigen Projekts, in dem er Air-Cobot einsetzen will. Ab August 2017 arbeitet der Roboter einmal im Monat im Aeroscopia Aeronautical Museum in Blagnac . Während das Wissenschaftsteam den Roboter in neuen Flugzeugen testet, werden den Besuchern Präsentationen des Projekts gegeben. Das Air-Cobot-Projekt ist eine der Veranstaltungen, die während des Wissenschaftsfestivals 2017 im Museum präsentiert werden.