Forschung | Software-Cluster https://software-cluster.org Europas leistungsstärkstes Netzwerk von Unternehmen, Ausbildungs- und Forschungseinrichtungen im Bereich der Software-Entwicklung Mon, 22 Jul 2019 11:58:00 +0000 de hourly 1 https://wordpress.org/?v=6.8.2 Netzüberwachung mit Big Data und KI https://software-cluster.org/netzuberwachung-mit-big-data-und-ki/ Mon, 22 Jul 2019 11:57:57 +0000 http://software-cluster.org/?p=7272 Forschungsprojekt geht den nächsten Schritt

Das Vorhaben „Fühler im Netz (FiN)“ startet auf breiter Basis durch. Aufbauend auf dem geförderten Forschungsvorhaben FiN werden nun in FiN 2.0 großflächige Lösungen zur Netzzustandsüberwachung mittels Big Data und künstlicher Intelligenz erprobt. Der Projekt Kick-Off fand am 25.06.2019 bei PPC in Mannheim statt.

Beitrag bearbeiten

Im Forschungsprojekt „Fühler im Netz“, das 2017 nach einer dreijährigen Laufzeit erfolgreich zu Ende ging, ist es gelungen, zentrale Herausforderungen der Netzüberwachung zu adressieren und erste praxistaugliche Lösungen zu demonstrieren. Die drei zentralen Herausforderungen des Netzbetriebs sind zum einen der systematische Ausbau der Netzzustandsüberwachung, die Zustandserfassung von Netzbetriebsmitteln sowie die Errichtung einer effizienten Kommunikationsinfrastruktur. Mit dem FiN-Ansatz konnten Synergien bei der Bewältigung dieser komplexen Themen gehoben und sehr kostengünstige Methoden zur Netzüberwachung bereitgestellt werden, die das Echtzeit-Netzmonitoring sowie die Zustandserfassung von Kabeln und Anlagen ermöglichen.

Dank der Förderung durch das Bundesministerium für Bildung und Forschung (BMBF) kann „Fühler im Netz 2.0“ gewonnene Erkenntnisse nutzen und den Fokus darauf legen, die Möglichkeiten zur Anlagen- und Netzzustandsüberwachung auszuweiten. Auch sollen Optimierungspotentiale gehoben werden, die sich aus der Erfassung und der automatisierten Analyse von Massendaten im großen Maßstab ergeben. Dafür werden Erkenntnisse über Spannungsverläufe und „Fingerprints“ im Breitband-Powerline (BPL)-Spektrum vertieft und Big Data Analysen ebenso wie Methoden der Künstlichen Intelligenz (KI) angewendet. Über 3500 BPL-Sensormodems werden hierfür im Rahmen des Projekts in den Netzgebieten der Netze BW, der Mainzer Netze und der Energieversorgung Leverkusen (EVL) installiert. Diese werden in einer hohen zeitlichen Auflösung Daten über den lokalen Netzzustand (insb. der Spannung) und den Zustand von Kabeln und Anlagen erfassen. Dadurch fallen innerhalb kürzester Zeit große Datenmengen an, welche mithilfe von Massendatenverarbeitungsmethoden erfasst und mittels KI-Algorithmen auf Muster und Auffälligkeiten untersucht werden. So kann eine Vorhersage des Spannungsverlaufs und der Asymmetrie zwischen den Phasen ermittelt werden. Diese Erkenntnisse werden in Zukunft insbesondere bei der Integration von E-Mobilität in den Verteilnetzen relevant.

Ingo Schönberg, Vorstandsvorsitzender der PPC freut sich auf das Projekt: „Mit Fühlern im Netz leisten wir einen wichtigen Beitrag zum sicheren und effizienten Betrieb der durch Energiewende und Sektorkopplung beanspruchten Verteilnetze.“ Fabian Karl, Projektleiter bei PPC, fügt hinzu: „Die groß angelegten Feldtests in den Netzgebieten der Projektpartner werden aufschlussreiche Erkenntnisse über den Einsatz der entwickelten Methode zur Netzüberwachung in der Masse bringen. Durch den Einsatz der Breitband-Powerline-Technologie mit integrierter Messsensorik werden wir zahlreiche netzdienliche Mehrwerte generieren können.“

Die Mitglieder des Projektkonsortiums unter der Leitung von PPC aus Mannheim sind die Netze BW, die Mainzer Netze und die Energieversorgung Leverkusen (EVL) aus dem Bereich Netze, das Deutsche Forschungszentrum für Künstliche Intelligenz und die Bergische Universität Wuppertal aus dem Bereich der Wissenschaft sowie die Software AG als Experte für Big Data Analysen. Das Projekt wird vom BMBF mit rund 2,5 Millionen Euro gefördert.

]]>
Forschungsprojekt zur Selbstheilung in Produktionsprozessen gestartet https://software-cluster.org/forschungsprojekt-zur-selbstheilung-in-produktionsprozessen-gestartet/ Mon, 03 Jun 2019 14:30:07 +0000 http://software-cluster.org/?p=7205 Wie lassen sich intelligente Fabriken entwickeln, die Fehler autonom erkennen und selbst Maßnahmen zur Behebung einleiten? Dieser Frage geht das Forschungsprojekt RESPOND nach. Die Ergebnisse sollen einen Beitrag dazu leisten, wie die Fertigung noch autonomer und dynamischer werden kann. Ziel ist es individuelle Produkte automatisiert und zuverlässig herzustellen.

Zum Kick-off trafen sich kürzlich in Karlsruhe alle Forschungspartner, bestehend aus Vertretern von Wirtschaft und Forschung, gemeinsam mit dem Projektträger. Zusammen untersuchen sie im Projekt RESPOND (Resiliente soziotechnische Prozesse im industriellen Internet der Dinge) wie sie bestehende Technologien weiterentwickeln können damit Fabriken die Fähigkeit erhalten sich selbst zu überwachen, zu heilen und zu organisieren – diese Fähigkeiten sind auch unter dem Stichwort Selbst-X-Eigenschaften bekannt. Dafür betrachtet die Forschergruppe verschiedene Abstraktionsebenen einer Fabrik: angefangen bei einzelnen Maschinen über Produktionsanlagen und die Aggregation von Sensordaten bis hin zum Workflowmanagement, das die Ausführung von Produktionsschritten auf hoher Abstraktionsebene organisiert.a

Ein wichtiger Aspekt ist die Modellierung von Prozessen und Kontext, die den Ablauf und die Situation der Produktion beschreiben, um Abweichungen vom gewünschten Verhalten zu erkennen und darauf reagieren zu können. Fällt zum Beispiel eine Maschine aus, muss ein intelligentes Produktionssystem erkennen, welche Maschine als Ersatz dienen kann, der Materialfluss muss umgeleitet werden und Fabrikarbeiter müssen benachrichtigt werden. Dafür werden Informationen über die Fähigkeiten der Maschinen, der Produkte, sowie über nachfolgende Bearbeitungsschritte und anderer Randbedingungen benötigt. Auch die Unterstützung des Menschen bei der Steuerung und Interaktion mit dem komplexen System der Industrie 4.0 mit Hilfe der Resilienz-Technologien steht dabei auf dem Programm.i

Neben der Hochschule Karlsruhe arbeiten Großunternehmen, wie die Software AG, Anwendungspartner wie die SITEC sowie weitere Forschungsinstitute wie das Fraunhofer IWU und das KIT am Projekt mit. Kleine und mittlere Unternehmen sind mit der IBIZ und der INTEC vertreten. Das Forschungsprojekt wird vom Bundesministerium für Bildung und Forschung bis Februar 2022 gefördert und soll bald erste Ergebnisse liefern.

]]>
EVAREST macht Lebensmitteldaten zum Wirtschaftsgut https://software-cluster.org/evarest-macht-lebensmitteldaten-zum-wirtschaftsgut/ Wed, 19 Sep 2018 04:08:27 +0000 http://software-cluster.org/?p=6997 Das Bundeswirtschaftsministerium hat im Rahmen der strategischen Einzelförderung den Forschungsantrag EVAREST zur Förderung ausgewählt. Beteiligte Partner aus dem Software-Cluster sind das DFKI als Konsortialführer, die Software AG sowie die Universität des Saarlandes. Mit der strategischen Einzelförderung möchte das Wirtschaftsministerium innovative Technologien und Lösungsansätze im IKT-Bereich frühzeitig aufgreifen, um deren praktische Einsatzfähigkeit zu erproben, Marktpotenziale zu beleuchten und Markthemmnisse sowie -barrieren zu identifizieren.

Ziel von EVAREST ist es, die in der Lebensmittelherstellung – quasi nebenbei – anfallenden Daten in sogenannte Datenprodukte zu überführen und auf diesem Weg den Lebensmittelherstellern zusätzliche Erlösquellen zu eröffnen. Ihnen soll es dank EVAREST möglich werden, die derzeit zur Überwachung, Steuerung und Optimierung ihrer Produktion genutzten Sensor-, Maschinen- und Anlagendaten Dritten, z.B. dem Handel oder Informations- bzw. Finanzdienstleistern, zum Kauf anzubieten. Die Daten werden dadurch nicht länger bloßes Mittel zum Zweck sein, sondern erhalten als handelbares Wirtschaftsgut einen Eigenwert. So werden bei der Lebensmittelproduktion für die lokale Auswahl natürlicher Rohstoffe, wie Gemüse, Getreide und Obst, z.B. Daten über Rohstoffqualität, saisonale und regionale Verfügbarkeit sowie über die Marktnachfrage erzeugt. Diese Daten können auch für Dritte von hohem Wert sein. Sie ermöglichen beispielsweise Finanz- und Versicherungsdienstleistern eine frühzeitige Vorhersage von Preisentwicklungen für Rohstoffe. Auf den Spotmärkten werden täglich rund 22 Mrd. Euro bewegt. Entsprechend hoch ist die Zahlungsbereitschaft für derartige Informationen. Dank EVAREST haben die Lebensmittelhersteller damit einen monetären Anreiz, geeignete Daten Dritten als Datenprodukt bereitzustellen. Dies wird einen wichtigen Beitrag für die Entstehung einer Datenökonomie in Deutschland leisten und über die Hebung bislang ungenutzter Wertschöpfungspotentiale echte Mehrwerte schaffen.

Nebeneinander von globaler wie lokaler Plattform

Das technische Herzstück von EVAREST bildet eine Datenplattform, die als zentrale Datendrehscheibe des Vorhabens fungiert. Zum einen laufen auf der Datenplattform die Daten aus der Lebensmittelproduktion zusammen. Sie werden in die Datenprodukte überführt und Dritten gegen Entgelt angeboten. Zum anderen stehen auf der Plattform auch analytische Basisdienste wie z.B. Condition Monitoring oder Predictive Maintenance bereit, mit denen aus den Produktionsdaten wertstiftende Einsichten und Erkenntnisse gewonnen werden können. Über die technische Umsetzung hinaus wird in EVAREST auch das Datenprodukt konzipiert bzw. spezifiziert und ein tragfähiges Geschäftsmodell zu seiner Vermarktung entwickelt.

Die für EVAREST zu entwickelnde Datenplattform ist technisch kein Monolith, sondern besteht aus einer lokalen sowie einer globalen Plattform. Dabei kann der Lebensmittelhersteller stufenlos und flexibel zwischen den beiden Plattformen wechseln. Dies ermöglicht es ihm, völlig frei zu entscheiden, welche Daten er über die globale Datenplattform Dritten zum Kauf anbieten und welche Daten er dagegen aus guten Gründen, z.B. weil sie wettbewerbssensible Informationen beinhalten, lieber nicht herausgeben möchte. Der Lebensmittelhersteller behält so die Hoheit über seine Daten. Zugleich gibt ihm EVAREST auch Konzepte und Methoden an die Hand, mit denen er nicht nur den monetären Wert seiner Datenprodukte einschätzen, sondern diese auch rechtssicher und verlässlich vertreiben kann.

Zum Konsortium gehören neben dem Deutschen Zentrum für Künstliche Intelligenz als Konsortialführer der Software AG und der Universität des Saarlandes mit dem Center for IT-Security, Privacy & Accountability – CISPA  – auch die Agrarmarkt Informations-Gesellschaft die Chocoladefabriken Lindt & Sprüngli sowie das FIR Aachen.

]]>
Mit Satellitendaten Luftverschmutzung bekämpfen https://software-cluster.org/mit-satellitendaten-luftverschmutzung-bekampfen/ Tue, 19 Jun 2018 10:55:59 +0000 http://software-cluster.org/?p=6963 SAUBER heißt das vom Bundesverkehrsministeriums (BMVI) geförderte Forschungsprojekt, das auf der CEBIT 2018 der Öffentlichkeit vorgestellt wurde.

Der Name ist Programm. Denn es geht im wahrsten Sinne des Wortes um saubere Luft. Ziel von SAUBER  ist es, eine Informationsplattform für eine nachhaltige Stadt- und Regionalentwicklung aufzubauen.  Das Projekt wird vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) gefördert. SAUBER (Satellitenbasiertes System zur Anzeige, Prognose und Simulation von Luftschadstoffen für eine nachhaltige Stadt- und Regionalentwicklung)) soll nicht nur einen Überblick über die aktuelle, sondern dank des Einsatzes Künstlicher Intelligenz auch Prognosen und Simulationen der zukünftigen Luftverschmutzung erlauben. Allein durch Feinstaub sterben in Deutschland jedes Jahr über 40.000 Menschen. Droht ein kritischer Grenzwert überschritten zu werden, kann die Schadstoffbelastung durch rechtzeitige Umplanungen oder Gegenmaßnahmen reduziert und  ggf. sogar ganz vermieden werden. Durch die Nutzung von Satellitendaten geht SAUBER in der Flächenabdeckung deutlich über die punktuellen Erhebungen der stationären Messstationen hinaus. Mittlerweile lassen sich Schadstoffe wie Stickoxide oder Feinstaub in hoher Auflösung aus dem Orbit aus erfassen.

Das Herzstück von SAUBER bildet eine Plattform, auf der alle relevanten Daten eingespielt, analysiert und zur Anzeige, Prognose und Simulation von Luftschadstoffen genutzt werden. Zu den Datenquellen zählen neben den Satelliten des Copernicus-Programms u.a. (aktuelle und historische) Verkehrs-, Wetter- bzw. Klimadaten sowie Ergebnisse der lokalen Messstationen oder Informationen zur Topographie bzw. Morphologie. Diese Daten werden miteinander verschnitten, um ein flächendeckendes und dabei dennoch detailliertes Bild der Luftverschmutzung zu zeichnen. Mit Hilfe von Künstlicher Intelligenz sollen Zusammenhänge bzw. Abhängigkeiten in den verschnittenen Daten aufgespürt und in entsprechende Prognosen und Simulationen für die Stadt-  bzw. Regionalentwicklung überführt werden.

SAUBER wird in der Umsetzung u.a. von der Stadt Stuttgart begleitet, die wegen ihrer Kessellage von der Luftverschmutzung besonders stark betroffen ist.

Das Projekt startet offiziell am 1. Oktober 2018. Konsortialführer ist die Software AG. Weitere Forschungspartner sind die geomer GmbH und das Start-up meggsimum aus der Metropolregion Rhein-Neckar, das Deutsche Zentrum für Luft- und Raumfahrt, das Fraunhofer Heinrich-Hertz-Institut sowie das Leibniz-Institut für ökologische Raumentwicklung (Ökologische Stadtplanung).

 

 

]]>
iTESA – Wie die Echtzeitanalyse von Twitter und Co. Reisen sicherer macht https://software-cluster.org/itesa-wie-die-echtzeitanalyse-von-twitter-und-co.-reisen-sicherer-macht Fri, 09 Mar 2018 12:07:10 +0000 http://software-cluster.org/?p=6353 Nach drei Jahren endet nun das Forschungsprojekt iTESA  (intelligent Traveller Early Situation Awareness), dessen Assoziierter Partner der Software-Cluster ist. Dieses Leuchtturmprojekt der Reisebranche hat ein automatisches Alarmsystem entwickelt, das Reisende in Echtzeit vor Reiserisiken warnt und es ihnen so ermöglicht, selbst unmittelbar vor Reisebeginn oder gar unterwegs noch umzudisponieren.

In einer globalisierten Welt reisen nicht nur Touristinnen und Touristen durch ferne Länder. Auch Geschäftsleute fliegen zu auswärtigen Handelspartnerinnen und Handelspartnern oder fahren durch boomende Wirtschaftsregionen. Doch das Reisen birgt immer auch Risiken: Mit Naturkatastrophen, Epidemien oder Terroranschlägen muss in manchen Regionen gerechnet werden. Beim Ausbruch einer akuten Krise kann es lange dauern, bis es einen vollständigen Überblick über die genaue Lage vor Ort gibt. Dadurch verlieren Unternehmen wertvolle Zeit, ihre Mitarbeiterinnen und Mitarbeiter zu schützen und in Sicherheit zu bringen. Wie können also Unternehmen ihrer gesetzlichen Informations- und Fürsorgepflicht gegenüber ihren Mitarbeiterinnen und Mitarbeitern besser nachkommen und sie vor solchen Vorfällen schützen? Das Smart-Data-Projekt „iTESA – Intelligent Traveller Early Situation Awareness“ möchte dieses Defizit beheben und Unternehmen und Reisenden ermöglichen, im Ernstfall schneller zu reagieren. Hierfür durchforstet iTESA mithilfe spezieller Datenanalysen und selbstlernender Algorithmen weltweit zahlreiche Quellen wie Internetseiten, soziale Netzwerke, Agentur- und Pressemeldungen sowie Nachrichten und Informationen von Behörden nach möglichen Reiserisiken. Dies geschieht stets unter Berücksichtigung des deutschen Datenschutzes. In der nächsten Stufe prüft iTESA die Meldungen auf enthaltene Risiken und  Glaubwürdigkeit sowie das jeweilige Risiko und ordnet einem Vorfall einen bestimmten Bedrohlichkeitsgrad zu. Neben der Analyse von Ereignissen stellt iTESA einen möglichst genauen geographischen Bezug her – bis hin zum betroffenen Straßenzug. Auf diese Weise kann der nötige Handlungsbedarf realistisch eingeschätzt werden. Durch einen Abgleich mit Reisedaten aus Traveller-Systemen (Buchungssysteme der Global Distribution Systems oder Leistungsträger) ist iTESA in der Lage, zu ermitteln, welche Mitarbeiterinnen und Mitarbeiter oder Kunden sich in der Gefahrenzone befinden oder planen, dorthin zu reisen. Per elektronischer Benachrichtigung können diese anschließend gewarnt und mit passenden Alternativrouten versorgt werden.

Mit der Leichtathletik-EM 2018 in Berlin, den Olympischen Sommerspielen in Tokio 2020 und Fußball WM Katar 2022 sollen nun drei ausgewählte Einsatzmöglichkeiten ausgelotet werden. Für die hierfür erforderlichen Anpassungen und Erweiterungen am ursprünglichen Konzept hat das BMWi kurzfristig  die Projektlaufzeit von iTESA um 3 Monate verlängert.

In das vom Bundesministerium für Wirtschaft und Energie (BMWi) geförderte Projekt haben alle Projektpartner ihre Expertise einfließen lassen: Die Software AG trat als Plattformbetreiber auf, travelbasys übernahm den Part des IT-Dienstleisters, die INQUENCE die des Spezialanbieters für AI-basierte Multi-Quellen-Aggregierung und Daten-Harmonisierung. Das Fraunhofer IVI brachte seine Kompetenz in puncto semantischer Analyse ein, und das Unabhängige Landeszentrum für Datenschutz Schleswig Holstein (ULD) bearbeitete datenschutzrechtliche, ethische und gesellschaftspolitische Fragen. iTESA ist eingebettet in das Smart Data Programm des BMWi.

Zur Demonstration der Funktionsweise von iTESA haben die Partner eine verteilte Plattform aufgebaut, auf der die verschiedenen Komponenten von iTESA verbunden sind. Jeder der vier Partner, die Komponenten beisteuern, betreibt dabei seine Komponenten auf eigener Infrastruktur. Die Software AG steuert eine Anwendung zum Streaming Analytics von Social Media Daten bei, die auf der Basis des Produkts Apama arbeitet.

Zudem arbeitete iTESA mit dem vom BMBF geförderten Big Data Kompetenzzentrum „Competence Center for Scalable Data Services and Solutions Dresden/Leipzig“ (ScaDS) zusammen.

Seit September 2017 läuft die verteilte Plattform im Probebetrieb. Hierbei werden aktuelle Nachrichtendaten analysiert und mit Buchungsdaten der Praxispartner abgeglichen. Mit dem Probebetrieb haben sich die zu Beginn des Projektes erarbeiteten Konzepte als tragfähig erwiesen.

Links:

smart-data-itesa.de

Video

 

]]>
Auszeichnungen für gute Lehre https://software-cluster.org/auszeichnungen-fuer-gute-lehre/ Tue, 21 Nov 2017 14:18:20 +0000 http://software-cluster.org/auszeichnungen-fuer-gute-lehre/

Darmstadt, 21. November 2017. Die Athene-Preise für Gute Lehre der Carlo und Karin Giersch-Stiftung an der TU Darmstadt in Höhe von insgesamt 40.000 Euro und der mit 6.000 Euro dotierte E-Teaching Award sind gestern an TU-Angehörige verliehen worden, die sich um eine ausgezeichnete Lehre verdient machen. Die Preisverleihung bildet traditionell den feierlichen Abschluss des Tags der Lehre an der TU Darmstadt.

Der mit 2.000 Euro dotierte Fachbereichs-Preis für gute Lehre am Fachbereich Informatik ging an unsere ehemalige Studienberaterin und Studienkoordinatorin Dr. Ulrike Brandt, die seit April im Ruhestand ist, sowie an unseren Studienberater und Auslandsbeauftragten Tim Neubacher für die hervorragende Betreuung im Rahmen der Fachstudienberatung.

Professor Dr. Karsten Weihe, Leiter des Fachgebiets Algorithmik und Masterstudent Thomas Lüdecke erhielten den E-Teaching Award für Ihre Online-Plattform „Nabla“. Hier können Studierende aufgrund einer automatisierten Aufgabengenerierung beliebig oft bestimmte Aufgabentypen bearbeiten und so zum Beispiel ihr Grundverständnis zu Algorithmen testen und festigen.

Der Fachbereich Informatik gratuliert den diesjährigen Preisträgerinnen und Preisträgern!

Den vollständigen Artikel mit allen Preisträgerinnen und Preisträgern finden Sie hier.

sip/jb

]]>
„Ausgezeichnet!“ Herausragende Leistung von Informatikern der TU Darmstadt https://software-cluster.org/ausgezeichnet-herausragende-leistung-von-informatikern-der-tu-darmstadt/ Thu, 16 Nov 2017 17:18:12 +0000 http://software-cluster.com/ausgezeichnet-herausragende-leistung-von-informatikern-der-tu-darmstadt/

Herausragende Leistungen von Studierenden hat die TU in einer Feierstunde öffentlich gewürdigt: Das Präsidium der TU hat gemeinsam mit den Preisstiftern Datenlotsen GmbH, Dreßler Bau GmbH, Liebig-Gruppe, CEOS GmbH und Deutscher Akademischer Austauschdienst sehr gute Bachelor- und Masterarbeiten ausgezeichnet. 

Der mit je 2500 Euro dotierte Datenlotsen-Preis wurde an vier Studierende der TU Darmstadt verliehen, unter den Preisträgern befinden sich zwei Studierende des Fachbereichs Informatik:

Masterarbeit von Hany Abdulsamad, Fachgebiet Intelligente Autonome Systeme (IAS)
„Stochastisch optimale Regelung mit linearisierten Modellen“

Trajektorien-orientiertes Reinforcement Learning beschäftigt sich mit der iterativen Verbesserung einer Steuerungsstrategie, basierend auf lokalen Approximationen der Dynamik und Gütefunktion eines hochkomplexen Systems.

Die Stabilität dieser Lernverfahren hängt sehr stark von der Gültigkeit dieser Approximationen ab. Im Rahmen dieser Arbeit wird eine neue Regularisierung für die Entwicklung der Steuerungsstrategie untersucht, die den Abstand zwischen zwei aufeinanderfolgenden State-Action-Verteilungen begrenzt und damit die Gültigkeit der Approximationen sicherstellt. Diese Regularisierung hat die Form einer neuen Beschränkung des allgemeinen Optimierungsproblems und wird durch eine Divergenz aus der Informationstheorie quantifiziert. Desweiteren wird eine zusätzliche Entropie-Unterschranke vorgeschlagen, um eine frühzeitige und suboptimale Konvergenz des Lernverfahrens zu verhindern und das Explorationspotential der Strategie aufrechterhalten und kontrollieren zu können. Zur experimentellen Validierung werden simulierte hochdynamische und nichtlineare Systeme untersucht. Die Ergebnisse zeigen im Vergleich zum aktuellen Stand der Technik eine erhebliche Verbesserung sowohl bezüglich der Qualität der gelernten Strategie als auch bezüglich der Effizienz des Verfahrens.

Bachelorarbeit von Karim Barth, Fachgebiet Simulation, Systemoptimierung und Robotik (SIM)
„Entwicklung einer Benutzerschnittstelle für teilautonome Inspektion mit mobilen Robotern in schwierigen Umgebungen“

Die Arbeit eines Operators auf Öl- und Gasplattformen ist mit lebensgefährlichen Risiken verbunden.

Die ARGOS-Challenge greift dieses Problem auf und strebt eine Lösung unter Einsatz von mobilen Robotern an, welche die Arbeit der menschlichen Mitarbeiter auf den Plattformen übernehmen sollen. Aktuelle Robotersysteme verfügen über hohe autonome Fähigkeiten, allerdings ist für die Integration in bestehende Arbeitsstrukturen eine Interaktion des Menschen mit dem Roboter nötig. Diese Arbeit beschäftigt sich mit der Entwicklung einer für die ARGOS-Challenge maßgeschneiderten Benutzerschnittstelle für mobile Inspektionsroboter. Bestehende Systeme sind speziell für Robotikexperten konzipiert. Für Domänenexperten wie Operatoren der Öl- und Gasindustrie sind diese meist verwirrend und ohne spezielle Ausbildung nicht bedienbar. Die hier eingeführte Supervision-Nutzerschnittstelle nutzt ein einfaches, reduziertes Design. Die Interaktionsmethoden orientieren sich an Videospielen. Ein Modell für Operationsmodi wird eingeführt, welches aus der Arbeitswelt abgeleitet ist. Die Nutzerfreundlichkeit der Benutzerschnittstelle wird in einer Evaluation nachgewiesen. Ein Roboter wird erfolgreich durch ein komplexes Szenario navigiert, insbesondere durch Probanden ohne Expertise in der Robotik.

Der Fachbereich Informatik gratuliert Hany Abdulsamad und Karim Barth herzlich zu Ihrer Auszeichnung!

Den vollständigen Artikel mit allen Preisträgerinnen und Preisträgern von „Ausgezeichnet!“ finden Sie hier

Über die Datenlotsen

Die Datenlotsen Informationssysteme GmbH hat den Datenlotsen-Preis gemeinsam mit der Universitätsleitung der TU Darmstadt ins Leben gerufen, um Nachwuchswissenschaftler/innen nachhaltig zu fördern und auf hervorragende Leistungen in den genannten Studiengängen aufmerksam zu machen.

Gemäß dem Unternehmenscredo „Für die Bildung der Zukunft“ unterstützen die Datenlotsen mit ihrer Software CampusNet Lernen, Lehren und Forschen an den deutschen Hochschulen. Mit dem Datenlotsen-Preis sollen junge Menschen motiviert werden, sich für das Studium der Informatik, der Mathematik oder des Wirtschaftsingenieurswesen zu entscheiden. Denn: Wissen und Bildung ist die größte Ressource unseres Landes, und die Zahl wissensintensiver Arbeitsplätze nimmt stetig zu.

Wer den Datenlotsen-Preis erhält, entscheidet eine Vergabekommission. Dieser gehören an: Herr Dr. Manfred Efinger als Kanzler der TU Darmstadt, Herr Professor Mantel (Informatik), Herr Professor Reif (Mathematik), Herr Professor Hinz (Wirtschaftswissenschaften) und Herr Stephan Sachse, geschäftsführender Gesellschafter der Datenlotsen Informationssysteme GmbH.

sip/cst/jb

]]>
Wie lernen Roboter? https://software-cluster.org/wie-lernen-roboter/ Mon, 13 Nov 2017 14:48:25 +0000 http://software-cluster.com/wie-lernen-roboter/ Informatiker der TU Darmstadt bei „Hessen Ideen“ erfolgreich https://software-cluster.org/informatiker-der-tu-darmstadt-bei-hessen-ideen-erfolgreich/ Mon, 13 Nov 2017 12:33:36 +0000 http://software-cluster.com/informatiker-der-tu-darmstadt-bei-hessen-ideen-erfolgreich/

Der hessische Wissenschaftsminister Boris Rhein hat am 9. November 2017 die Preisträgerinnen und Preisträger des diesjährigen Hessischen Ideenwettbewerbs „Hessen Ideen“ ausgezeichnet. Zu den Siegern gehören, wie das Ministerium mitteilt, zwei Teams der TU Darmstadt, darunter das Team um Informatiker des Fachgebiets Eingebettete Systeme und ihre Anwendungen (kurz ESA; Leitung: Prof. Dr. Andreas Koch). Sie erhielten für Ihr Projekt „F-Technologies“ den mit 3.500 Euro dotierten zweiten Preis.

„F-Technologies“ entwickelt hoch performante Anwendungen im Datencenter und in der Cloud auf der Basis von effizienten Beschleunigern wie Field-Programmable Gate Arrays (FPGAs), welche eine höhere Verarbeitungsgeschwindigkeit und eine höhere Energieeffizienz der Rechenprozesse ermöglichen. Die neu entwickelten technologischen Lösungen des Teams aus der TU Darmstadt adressieren die technologische Infrastruktur der Digitalisierung. Sie sollen in der Big-Data-Ära zukünftig eingesetzt werden, um rasant steigenden Datenmengen verknüpft mit nie dagewesenen Rechenanforderungen zu bewältigen. Besonders überzeugt hat die Jury der Beitrag der Forschung zur Entwicklung von Spitzentechnologie.

Das zweite Team der TU Darmstadt gewann mit seinem Projekt „Floating Office“ den Publikumspreis.

Der Wettbewerb für Hochschulgründungsideen „Hessen Ideen“ wurde in diesem Jahr zum zweiten Mal durchgeführt. Er richtet sich an gründungsaffine Hochschulangehörige, die mit ihrer Idee für ein Unternehmen noch am Anfang stehen.

HMWK / bjb / jb

]]>
Best Paper Award für Informatiker der TU Darmstadt https://software-cluster.org/best-paper-award-fuer-informatiker-der-tu-darmstadt/ Wed, 01 Nov 2017 11:50:11 +0000 http://software-cluster.com/best-paper-award-fuer-informatiker-der-tu-darmstadt/

Prof. Matthias Hollick, Matthias Schulz und Daniel Wegemer vom Fachgebiet Secure Mobile Networking Group (SEEMO) des Fachbereichs Informatik an der TU Darmstadt wurden beim ACM WiNTECH Workshop 2017 für ihre Einreichung „Nexmon: Build Your Own Wi-Fi Testbeds With Low-Level MAC and PHY-Access Using Firmware Patches on Off€-the-Shelf Mobile Devices“ mit dem Best Paper Award ausgezeichnet.

http://mssn.cs.purdue.edu/wintech2017/ACM WiNTECH 2017 fand am 20. Oktober 2017 in Snowbird, Utah, USA statt. Das Paper ist über die ACM digital library abrufbar. Die Vorstellung des Papers auf dem ACM WiNTECH Workshop ist auf Youtube eingestellt.

Abstract:

The most widespread Wi-Fi enabled devices are smartphones. They are mobile, close to people and available in large quantities, which makes them perfect candidates for real-world wireless testbeds. Unfortunately, most smartphones contain closed-source FullMAC Wi-Fi chips that hinder the modification of lower-layer Wi-Fi mechanisms and the implementation of new algorithms. To enable researchers‘ access to lower-layer frame processing and advanced physical-layer functionalities on Broadcom Wi-Fi chips, we developed the Nexmon firmware patching framework. It allows users to create firmware modifications for embedded ARM processors using C code and to change the behavior of Broadcom’s real-time processor using Assembly. Currently, our framework supports five Broadcom chips available in smartphones and Raspberry Pis. Our example patches enable monitor mode, frame injection, handling of ioctls, ucode compression and flashpatches. In a simple ping offloading example, we demonstrate how handling pings in firmware reduces power consumption by up to 165 mW and is nine times faster than in the kernel on a Nexus 5. Using Nexmon, researchers can unleash the full capabilities of off-the-shelf Wi-Fi devices.

Quelle: CRISP / CYSEC

]]>