Hinweis zur Studierendenkonfrenz Informatik 2014 (SKILL 2014)
Alle aktuellen Informationen finden Sie auf der Webseite zur Konferenz.

Abschlussarbeiten


Die folgenden Diplomarbeiten sind derzeit für interessierte Studenten zu vergeben. Sollten Sie einen anderen Abschluss (z.B. Bachelor, Master) anstreben, können die meisten Themen daraufhin angepasst werden. Kontaktieren Sie dafür bitte den entsprechenden Ansprechpartner. Darüber hinaus sind wir natürlich offen für Ihre Vorschläge.

Inhalt

Vorbereitete Themen


Konzeption einer Dienstleistungsplattform


Hintergrund
Dienstleistungen zu technischen Produkten sind für produzierende Unternehmen von sehr großer Bedeutung. Daneben ist es jedoch auch für die Kunden solcher Dienstleistungen wichtig, dass die Dienstleistungsportfolios der verschiedenen Anbieter vergleichbar, konfigurierbar und ggf. auch austauschbar sind. Seit einigen Jahren befasst sich daher der Bereich des Service Engineerings mit Fragestellungen zur Dienstleistungsentwicklung, -optimierung und –modellierung.


Eine Dienstleistungsplattform stellt verschiedene Dienstleistungen für Kunden bereit. Die Dienstleistungen sind einheitlich beschrieben und vergleichbar. So kann ein Kunde bspw. für ein technisches Produkt verschiedene Dienstleistungen von unterschiedlichen Anbietern erwerben, die sich ergänzen.


Ihre Aufgaben
Sie befassen sich in dieser Arbeit mit der Konzeption einer Dienstleistungsplattform. Hierzu gehören folgende Aufgaben.

  • Beschreibung einer Referenzarchitektur für die Dienstleistungsplattformen
  • Untersuchung von Methoden zur Beschreibung und Modellierung von Dienstleistungen
  • Untersuchung geeigneter Recommendation Engines, die den Kunden bei der Auswahl der besten Dienstleistung unterstützen
  • Definition von Variablitäten in Dienstleistungen

Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Es ist möglich, einzelne Aspekte der Plattform separat und detailliert zu betrachten. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt

Vergleich von elektronischen Akten


Hintergrund
In unterschiedlichen Branchen werden „elektronische Akten“ angewendet:

  • Lebenslaufakte für Erneuerbare-Energie-Anlagen
  • Lebenslaufakte für Luftfahrzeuge
  • Maschinenakte für technische Anlagen
  • Bauakte für die Bauplanung und –ausführung
  • Patientenakte im Krankenhaus (oder auch Gesundheitsakte)
  • E-Akte im e-Government

Diese Akten unterscheiden sich hinsichtlich der adressierten Benutzergruppen, ihres Informationsmodells und ihrer technischen Realisierung.


Ihre Aufgaben

  • Untersuchen Sie ausgewählte „elektronische Akten“ miteinander und analysieren Sie 
  • die relevanten Stakeholder,
    • die Geschäftsprozesse zur Akte,
    • das der Akte zugrundeliegende Informationsmodell sowie
    • die Referenzarchitektur der technischen Realisierung.
  • Entwickeln Sie ein Rahmenwerk für den Vergleich und definieren Sie Vergleichskriterien
  • Leiten Sie „Best Practices“ für elektronische Akten im Allgemeinen ab.

Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt


Generative Softwareentwicklung für betriebliche Informationssysteme (Bachelor / Master)


Hintergrund
Betriebliche Informations- und Anwendungssysteme sind i.d.R. datengetrieben, stellen hohe Anforderungen an die Sicherheit und implementieren häufig komplexe Geschäftsabläufe. Die Entwicklung dieser Anwendungen ist komplex und langwierig.


Um die Effizienz bei der Entwicklung zu steigern, können u.a. modellgetriebene Entwicklungsansätze angewendet werden (vgl. [1, 2]). Hierbei ist zu untersuchen, in welchen Gebieten ein modellgetriebener Ansatz am vielversprechendsten ist.


Ihre Aufgaben

  • Untersuchen Sie die Einsatzmöglichkeiten der modellgetriebenen Softwareentwicklung für betriebliche Informationssysteme
  • Entwickeln Sie eine Klassifikation für Softwaresysteme und arbeiten Sie relevante Eigenschaften für betriebliche Informations- und Anwendungssysteme her 
  • Entwickeln Sie exemplarische Erweiterungen für Spring Roo

Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt


Literatur
[1] Mellor, Stephen J.: MDA distilled : Principles of model-driven architecture. International student ed. [Hong Kong] : Pearson Education Asia, 2004. – ISBN 9788129705297
[2] Stahl, Thomas ; Völter, Markus ; Efftinge, Sven ; Haase, Arno: Modellgetriebene Softwareentwicklung: Techniken, Engineering, Management. dpunkt.verlag, 2007. – ISBN 978–3898644488

Weiterentwicklung einer Android-App zur Erfassung von Instandhaltungsdaten aus Windenergieanlagen (Bachelor / Master)


Hintergrund
Um die Instandhaltung von Windenergieanlagen (WEA) effizient abzuwickeln, die Zuverlässigkeit von WEA und Komponenten bewerten zu können und Instandhaltungsstrategien zu optimieren, sind belastbare Instandhaltungsdaten zwingend erforderlich. In der heutigen Organisation von Betriebsüberwachung und Instandhaltung werden entsprechende Daten häufig noch unzureichend, papierbasiert und in nicht standardisierter Form erfasst. Die Dokumentation von Instandhaltungsmaßnahmen ist für die Servicetechniker daher mit hohem Aufwand verbunden und erfolgt wenig intuitiv.


Die Fördergesellschaft Windenergie und andere Erneuerbare Energien (FGW e.V.) hat in einer technischen Richtlinie (TR 7 Rubrik D3) ein XML-basiertes Austauschformat (GSP) für Instandhaltungsdaten definiert. Mit Hilfe des GSP können bspw. Wartungsaufträge zu Erneuerbare-Energie-Anlagen ausgetauscht, bearbeitet und ausgewertet werden. Zur Nutzung der übermittelten Auftragsdaten und Vervollständigung durch Servicetechniker auf der WEA wurde am Fraunhofer IWES eine entsprechende Android-App konzipiert und in einem frühen Prototyp implementiert.


Ihre Aufgaben

  • Weiterentwicklung (Gestaltung und Implementierung) der bestehenden Applikation unter Verwendung der aktuellen Version des Globalen-Service-Protokolls (GSP).
  • Erstellen Sie Testdaten und einen Showcase für die Demonstration der Software.
  • Prüfung der Praxistauglichkeit im realen Serviceeinsatz
  • Vergleichen Sie die entwickelte App mit anderen in der Branche genutzten oder in Entwicklung befindlichen Lösungen zur mobilen Datenerfassung.
  • Diskutieren Sie die Inhalte des GSP und geben Sie Empfehlungen für zukünftige Erweiterungen.

Die Arbeit wird in Kooperation mit dem Fraunhofer-Institut für Windenergie und Energiesystemtechnik – IWES angeboten. Die fachliche Betreuung erfolgt durch das Fraunhofer IWES (Herr Sebastian Pfaffel), die technische Betreuung wird durch die Universität Leipzig Herr Johannes Schmidt übernommen.


Anmerkung
Die Arbeit ist als Bachelorarbeit konzipiert. Sie kann als Masterarbeit ausgebaut werden, jedoch ist hierzu das Thema zu erweitern.

Implementierung und Erweiterung des Globalen Service Protokolls (GSP)


Einführung
Um die Instandhaltung von WEA effizient abzuwickeln, die Zuverlässigkeit von WEA und Komponenten bewerten zu können und Instandhaltungsstrategien zu optimieren, sind be-lastbare Instandhaltungsdaten zwingend erforderlich. In der heutigen Organisation von Be-triebsüberwachung und Instandhaltung werden entsprechende Daten häufig noch unzu-reichend und in nicht standardisierter Form erfasst. Auch eine automatisierte Übermittlung erfolgt bisher kaum und ohne ein einheitliches Format.
Die Fördergesellschaft Windenergie und andere Erneuerbare Energien (FGW e.V.) hat in einer technischen Richtlinie (TR 7 Rubrik D3) ein Austauschformat (GSP) für Instandhaltungsdaten definiert. Mit Hilfe des GSP können bspw. Wartungsaufträge zu Erneuerbare-Energie-Anlagen ausgetauscht, bearbeitet und ausgewertet werden.


Ihre Aufgaben

  • Implementieren Sie eine Software, welche XML Dokumente im GSP-Datenformat sowie zugehörige Anhänge darstellen und erstellen kann.
  • Erstellen Sie Testdaten und einen Showcase für die Demonstration der Software.
  • Vergleichen Sie die Elemente des GSP mit anderen in der Branche genutzten oder in Entwicklung befindlichen Lösungen zum Instandhaltungsdatenmanagement.
  • Diskutieren Sie die Inhalte des GSP und geben Sie Empfehlungen für zukünftige Erweiterungen.

Die Arbeit wird in Kooperation mit dem Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) angeboten. Die fachliche Betreuung erfolgt durch das Fraunhofer IWES, die technische Betreuung wird durch den Lehrstuhl für Betriebliche Informationssysteme übernommen.


Kontakt
Die Arbeit kann sowohl als Bachelorarbeit angeboten werden. Bei Interesse melden Sie sich bitte bei Johannes Schmidt.

Standards für die Betriebsführung von Erneuerbare-Energie-Anlagen (Bachelor / Master)

Einführung
Die Stromerzeugung aus Erneuerbaren Energien gewinnt zunehmend an Bedeutung. Dies zeigt sich ganz besonders an den aktuellen politischen Bemühungen zum Netzausbau und an den Diskussion um die finanzielle Förderung für Solaranlagen.


Der Betriebsführer ist für den optimalen Betrieb und die Instandhaltung der Energieanlage zuständig. Auf Grund des steigenden Kostendrucks und der zunehmenden Konkurrenzsituation auf dem Markt für Betriebsführungsdienstleistungen ist eine nähere Untersuchung und Optimierung der Prozesse in der Betriebsführung notwendig. Für eine nahtlose Datenverarbeitung in der Betriebsführung ist die Anwendung verschiedener Normen und Standards notwendig.


Ziele der Arbeit
In dieser Arbeit befassen Sie sich mit aktuellen Standards und Normen, die im Anwendungsfeld der technischen Betriebsführung von Erneuerbare-Energie-Anlagen relevant sind. Dazu zählen unter anderem

  • Reference Designation System for Power Plants RDS-PP
  • Common Information Model CIM 
  • IEC 61850–7-X
  • IEC 61400–25

Geben Sie in der Arbeit einen Überblick über die relevanten Normen und erklären Sie jeweils die Ziele und Umsetzungen der Normen.


Untersuchen Sie die Möglichkeiten der nahtlosen Kombination der verschiedenen Normen anhand eines Beispiels. Falls möglich, entwickeln Sie einen Prototyp, der Ihren Ansatz demonstriert.


Referenzen

  1. RDS-PP Application specification Part 32: Wind energy, VGB-S-823-T32;2012–04-EN, draft, 2012.
  2. Technical product documentation—Reference designation system—Part 10: Power plants, ISO/TS 16952-10:2008, 2008.
  3. Communication networks and systems in substations— ALL PARTS, IEC 61850-SER ed1.0, 2012.
  4. Wind turbine generator systems—ALL PARTS, IEC 61400-SER ed1.0, 2011.
  5. M. Uslar, M. Specht, S. Rohjans, J. Trefke, and J. M. Vasquez Gonzalez, The Common Information Model CIM: IEC 61968/61970 and 62325—A practical introduction to the CIM, 2012nd ed. Berlin, Heidelberg: Springer 2012.

Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt

Terminabstimmung zu Erneuerbare-Energie-Anlage (Bachelor / Master)

Einführung
Der Anlagenbetreiber, oder stellvertretend der Betriebsführer, kooperiert während des Anlagenbetriebs mit einer Vielzahl von Unternehmen. Wenn ein Fehler an einer Erneuerbare-Energie-Anlage vorliegt, muss der verantwortliche Instandhaltungsdienstleister informiert und ein geeigneter Termin abgestimmt werden.


Ziele der Arbeit
Sie entwickeln eine Software / Plattform, mit deren Hilfe Anlagenbetreiber anlagenbezogene Termine mit anderen Unternehmen aushandeln können. Die Plattform muss die komplexen Abstimmungsprozesse unterstützen und Schnittstellen für andere betriebliche Informationssysteme anbieten. Sie können ggf. auf einer existierenden Applikation (programmiert in Ruby on Rails) aufbauen.
Sie sollen bereits am Markt existierende Software recherchieren, die eine derartige Funktionalität bieten. In der Arbeit sollen diese Systeme verglichen werden.
Die Anforderungen an die Software zur Terminabstimmung erheben Sie in Zusammenarbeit mit Vertretern aus der Branche der Erneuerbaren Energien.


Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt

Integrationstechniken für Daten von Erneuerbare-Energie-Anlagen (Bachelor / Master)

Einführung
Zu einer Erneuerbare-Energie-Anlage müssen die verschiedensten Daten verwaltet werden: Daten zur Anlagenstruktur, Dokumente aus dem Betrieb, Betriebsdaten oder Daten von externen Diensten (z.B. Wetterdaten). Die Daten liegen häufig in unterschiedlichen betrieblichen Informationssystemen vor.


Ziele der Arbeit
Sie untersuchen mögliche Integrationstechniken zur Verknüpfung von Daten zu Erneuerbare-Energie-Anlagen. Basis sind Daten zur Anlagenstruktur, die Sie mit einer geeigneten Dokumentenstruktur und mit Betriebsdaten verknüpfen. Sie erhalten Testdaten, um ihren Ansatz zu überprüfen.
Sie können in der Arbeit Methoden des Semantic Web oder der Datenintegration untersuchen und vergleichen oder sich auf eine Integrationsmethode spezialisieren.


Referenzen

  1. M. Uslar, M. Specht, S. Rohjans, J. Trefke, and J. M. Vasquez Gonzalez, The Common Information Model CIM: IEC 61968/61970 and 62325 – A practical introduction to the CIM, 2012nd ed. Berlin, Heidelberg: Springer-Verlag, 2012.
  2. A. Dengel, Semantische Technologien: Grundlagen – Konzepte – Anwendungen. Heidelberg: Springer, 2012.
  3. S. Helmis and R. Hollmann, Webbasierte Datenintegration: Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges, 1st ed. Wiesbaden: Vieweg+Teubner Verlag / GWV Fachverlage Gmb H Wiesbaden, 2009.
  4. R. Jung, Architekturen zur Datenintegration: Gestaltungsempfehlungen auf der Basis fachkonzeptueller Anforderungen, 1st ed. Wiesbaden: Deutscher Universitäts-Verlag, 2006.
  5. S. Conrad, Föderierte Datenbanksysteme: Konzepte der Datenintegration. Berlin: Springer-Verlag, 1997.
  6. U. Leser and F. Naumann, Informationsintegration: Architekturen und Methoden zur Integration verteilter und heterogener Datenquellen, 1st ed. Heidelberg: dpunkt-Verl, 2007.

Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt

Dokumentenverwaltung für Erneuerbare-Energie-Anlagen (Bachelor)

Einführung
Zu einer Anlage müssen zahlreiche Dokumente und Dokumentationen gepflegt werden. Die Dokumente müssen untereinander verknüpft und durchsuchbar sein. Der Anlagenbetreiber muss sich schnell einen Überblick über die Dokumentation der Anlage verschaffen können.


Ziele der Arbeit
Erarbeiten Sie die Anforderungen an die Dokumentation für Erneuerbare-Energie-Anlagen. Erklären und untersuchen Sie Dokumentationssystematiken und –klassifikationen.
Recherchieren Sie nach geeigneten (freien) Document Management Systemen (DMS) und bewerten Sie diese anhand von Ihnen entwickelter Kriterien.
Passen Sie ein bestehendes DMS gemäß den Anforderungen an die Dokumentenverwaltung für Erneuerbare-Energie-Anlagen an.


Referenzen

  1. K. H. Weber, Dokumentation verfahrenstechnischer Anlagen: Praxishandbuch mit Checklisten und Beispielen. Berlin, Heidelberg: Springer-Verlag, 2008.
  2. DIN Deutsches Institut für Normung e.V, Klassifikation und Kennzeichnung von Dokumenten für Anlagen, Systeme und Ausrüstungen Teil 1: Regeln und Tabellen zur Klassifikation (IEC 61355-1:2008); Deutsche Fassung EN 61355-1:2008, DIN EN 61355–1, 2009.
  3. K. Götzer, R. Schmale, B. Maier, and T. Komke, Dokumenten-Management: Informationen im Unternehmen effizient nutzen, 4th ed. Heidelberg: dpunkt-Verl, 2008.

Kontakt
Die Arbeit wird Bachelorarbeit angeboten. Bei Interesse melden Sie sich bitte bei Johannes Schmidt

Potentiale der modellgetriebenen Softwareentwicklung von Anwendungen für Erneuerbare Energie (Bachelor / Master)

Einführung
Immer mehr Standards und Normen basieren auf Modellen. Manche von ihnen beziehen sich auf Datenstrukturen (Referenzdatenmodelle) andere auf Daten und Methoden (Informationsmodelle).


Ziele der Arbeit
In dieser Arbeit sollen Sie einen Überblick über Modelle im Kontext der Erneuerbaren Energien bzw. der Energiewirtschaft im Allgemeinen recherchieren und in Beziehung setzen.
Untersuchen Sie mögliche Anwendungsgebiete dieser Normen und bewerten Sie die Potential einer modellgetriebenen Softwareentwicklungsmethode.


Referenzen

  1. 1. M. Uslar, M. Specht, S. Rohjans, J. Trefke, and J. M. Vasquez Gonzalez, The Common Information Model CIM: IEC 61968/61970 and 62325 – A practical introduction to the CIM, 2012nd ed. Berlin, Heidelberg: Springer-Verlag, 2012.
  • 2. DIN Deutsches Institut für Normung e.V, Dokumentenmanagement – Teil 2: Metadaten und Informationsreferenzmodelle (IEC 82045-2:2004); Deutsche Fassung EN 82045-2:2005, DIN EN 82045–2, 2005.
  1. T. Stahl, M. Völter, S. Efftinge, and A. Haase, Modellgetriebene Softwareentwicklung: Techniken, Engineering, Management, 2nd ed. s.l: dpunkt.verlag, 2007.

Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt

Integration in der Energiewirtschaft (Bachelor / Master)

Einführung
Die Akteure in der Energiewirtschaft – und besonders im Bereich der Erneuerbaren Energie – sind auf einen medienbruchfreien Austausch von Daten angewiesen. Hierzu ist es notwendig, dass die verschiedenen betrieblichen Informationssyteme über Unternehmensgrenzen hinweg integriert sind.


Ziele der Arbeit
Untersuchen Sie, welche Integrationstechniken und –methoden in der Energiewirtschaft angewendet werden. Untersuchen und Klassifizieren Sie die verschiedenen Ansätze.
Ihre Arbeit kann sich auf eine oder mehrere der folgenden spezialisieren:

  1. Welche domänenspezifischen Datenformate und Protokolle sind hierbei relevant?
  2. Welche Bedeutung besitzen zentrale Software-Plattformen für den Datenaustausch?
  3. Wie werden die besonderen Sicherheitsanforderungen der Branche umgesetzt?
  4. Wie stark sind Serviceorientierte Architekturen oder Messaging-Lösungen vertreten?

Referenzen

  1. M. Uslar, M. Specht, S. Rohjans, J. Trefke, and J. M. Vasquez Gonzalez, The Common Information Model CIM: IEC 61968/61970 and 62325 – A practical introduction to the CIM, 2012nd ed. Berlin, Heidelberg: Springer-Verlag, 2012.
  2. M. Thränert, Integration-Engineering: Grundlagen, Vorgehen und Fallstudien. Leipzig: LIV, 2009.
  3. H.-J. Appelrath and J. M. González, “Informationstechnik in der Energiewirtschaft,” in 12/2010, Handbuch Energiemanagement, H.-P. Beck, A. Bauer, E. Meller, and C. Salander, Eds. 30th ed, Frankfurt am Main: EW Medien und Kongresse Gmb H, 2010, pp. 10510–10534.
  4. D. Chen and F. B. Vernadat, “Standards on enterprise integration and engineering: state of the art,” International Journal of Computer Integrated Manufacturing, vol. 17, no. 3, pp. 235–253, 2004.

Kontakt
Die Arbeit kann sowohl als Bachelor- als auch Masterarbeit angeboten werden. Die konkrete Aufgabe der Arbeit wird entsprechend angepasst. Bei Interesse melden Sie sich bitte bei Johannes Schmidt

Implementierung eines Document Management Systems auf Basis von semantischen Technologien (Bachelor / Master)


Ziel der Arbeit ist die Implementierung eines Document Management Systems (DMS) auf Basis eines Referenzmodells für Dokumente. Sie entwickeln und optimieren eine Ontologie und binden diese in OntoWiki ein. Prüfen Sie, in wie fern exitierende Erweiterungen von OntoWiki ausreichend sind, um die Dokumente strukturiert zu speichern.


Implementierung Sie eine Erweiterung, die als Dokumentenstorage eine Cloud-basierte Lösung anbindet und mit den Daten in OntoWiki synchronisiert.


Ansprechpartner für dieses Thema sind Johannes Schmidt und Sebastian Tramp


Simulation als Methode zur Entscheidungsunterstützung im E-Commerce (Bachelor / Master)

Die optimale Konfiguration von komplexen E-Commerce-Systemen ist ein allgemein anerkanntes kritisches Problem. Dies liegt einerseits an der Umsatzrelevanz derartiger Systeme für die Unternehmen, andererseits betreffen mögliche Konfigurationsentscheidungen wie die Einführung einer neuen Zahlungsart oder die Realisierung eines zusätzlichen Vertriebskanals mittels Mobile Commerce neben wirtschaftlichen Bereichen auch technische und sozialwissenschaftliche Aspekte. Aufgrund dieser Multidimensionalität sind die Auswirkungen nicht klar durchschaubar und deterministisch berechenbar. Im E-Commerce haben sich daher verschiedene Methoden für die Entscheidungsunterstützung etabliert.


Ziel der Arbeit ist die Untersuchung von Methoden zur Entscheidungsunterstützung im E-Commerce. Dabei soll insbesondere der Ansatz der Simulation im Mittelpunkt der Betrachtungen stehen und herausgearbeitet werden für welche Problemklassen eine simulative Prognose geeignet ist.


Ihre Aufgaben umfassen

  • Einarbeitung in die E-Commerce-Domäne, insbesondere relevante Entscheidungsproblematiken
  • Einarbeitung in Methoden zur Entscheidungsunterstützung, insbesondere den Bereich der Simulation
  • Gegenüberstellung und Bewertung der gefundenen Ansätze

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten
  • Da im Rahmen dieser Abschlussarbeit keine Implementierungsarbeiten gefordert sind, eignet sich dieses Thema nicht nur für den Studiengang Informatik oder vergleichbare Studiengänge

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!

Evaluation von Simulationstechniken bzgl. deren Anwendbarkeit zur Entscheidungsunterstützung im E-Commerce (Bachelor / Master)

Für die simulative Prognose von E-Commerce-Wirkungsbeziehungen haben sich verschiedene Verfahren wie beispielsweise System-Dynamics oder agentenbasierte Simulation etabliert. Jede dieser Simulationstechniken zeichnet sich dabei durch eine spezielle Betrachtungsweise auf das zu untersuchende System aus.


Ziel dieser Arbeit ist die Gegenüberstellung verschiedener Simulationstechniken (Vorteile / Nachteile) sowie die Entwicklung eines Kriterienkatalogs für die Identifizierung der bestmöglichen Simulationstechnik für eine gegebene Fragestellung.


Ihre Aufgaben umfassen

  • Recherche nach und Einarbeitung in verschiedene Simulationstechniken, insbesondere im sozialwissenschaftlichen Bereich, System-Dynamics und agentenbasierte Simulation sind dabei zwingend mit zu berücksichtigen
  • Gegenüberstellung und Bewertung der gefundenen Ansätze
  • Erarbeitung eines Kriterienkatalogs für die Auswahl einer geeigneten Simulationstechnik

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten
  • Da im Rahmen dieser Abschlussarbeit keine Implementierungsarbeiten gefordert sind, eignet sich dieses Thema nicht nur für den Studiengang Informatik oder vergleichbare Studiengänge

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!

Entwicklung einer Simulation zur Entscheidungsunterstützung im E-Commerce (Bachelor / Master)

Die optimale Konfiguration von komplexen E-Commerce-Systemen ist ein allgemein anerkanntes kritisches Problem. Dies liegt einerseits an der Umsatzrelevanz derartiger Systeme für die Unternehmen, andererseits betreffen mögliche Konfigurationsentscheidungen wie die Einführung einer neuen Zahlungsart oder die Realisierung eines zusätzlichen Vertriebskanals mittels Mobile Commerce neben wirtschaftlichen Bereichen auch technische und sozialwissenschaftliche Aspekte. Aufgrund dieser Multidimensionalität sind die Auswirkungen nicht klar durchschaubar und deterministisch berechenbar. Daher stellen Simulationen einen vielversprechenden Ansatz zur Abschätzung von Entscheidungen dar.


Ziel dieser Arbeit ist die Entwicklung einer Simulation für die Entscheidungsunterstützung für eine genau spezifizierte Problemstellung, welche vor Beginn der Arbeit mit Ihrem Betreuer abzuklären ist. Mögliche Anwendungsfälle für den Einsatz der Simulation sind Fragestellungen im Bereich des Marketing (Affiliate-Marketing, Bannerwerbung, Marktplätze, ...) und Prognosen bzgl. der technischen Verfügbarkeit / Ausfallzeiten des Gesamtsystems in Abhängigkeit der eingesetzten Komponenten.


Ihre Aufgaben umfassen

  • Thematische Einarbeitung in die festgelegte Problemstellung
  • Konzeptuelle Entwicklung des Simulationsmodells
  • Implementierung des Simulationsmodells
  • Validierung der Simulation

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Programmierkenntnisse in JAVA
  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten

Auf Anfrage kann die Abschlussarbeit in Form einer Kooperation mit dem Unternehmen Intershop Communications AG bearbeitet werden.


Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!

Evaluation von Softwarewerkzeugen für die feature-basierte Variabilitätsmodellierung (Bachelor / Master)

Die Softwareproduktlinienentwicklung als Entwicklungsparadigma verfolgt das Ziel einer effektiven und geplanten Wiederverwendung von Softwarekomponenten. Hierbei wird die Entwicklung vieler gleichartiger Systeme fokussiert, statt wie bisher die Entwicklung von Einzelsystemen. Ein zentraler Aspekt der Softwareproduktlinienentwicklung ist dabei die Variabilitätsmodellierung, welche die Gemeinsamkeiten und Unterschiede zwischen den Einzelsystemen beschreibt. Ein weitverbreiteter Ansatz für die Realisierung von Softwareproduktlinien stellen konfigurationsbasierte Ansätze dar. Dabei wird Variabilität in Form von sogenannten Featuremodellen beschrieben und mittels eines Konfigurators die Ausprägungen der einzelnen Variationspunkte spezifiziert.


Ziel dieser Arbeit ist die Evaluation existierender Open-Source-Lösungen für die feature-basierte Variabilitätsmodellierung sowie die Realisierung eines Beispielmodells unter Anwendung eines der untersuchten Werkzeuge.


Ihre Aufgaben umfassen dabei

  • Einarbeitung in die Softwareproduktlinienentwicklung, insbesondere in den Bereich feature-basierte Variabilitätsmodellierung
  • Recherche nach Open-Source-Werkzeugen für die feature-basierte Variabilitätsmodellierung
  • Evaluation ausgewählter Open-Source-Lösungen anhand der mit Ihrem Betreuer erarbeiteten Evaluationskriterien
  • Praktische Umsetzung eines Beispiels mit einem ausgewählten Werkzeug

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Programmierkenntnisse in JAVA
  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!

Modellgetriebene Softwareentwicklung für agentenbasierte Simulation (Bachelor / Master)

Die agentenbasierte Simulation (ABS) ist ein Simulationsparadigma für die Modellierung und Simulation komplexer Systeme. Zentraler Bestandteil sind dabei autonom handelnde Agenten, die selbstständig ihre Umwelt wahrnehmen und entsprechend ihrer Ziele auf Umweltveränderungen reagieren. Das nach außen wahrnehmbare Gesamtverhalten eines Systems ergibt sich aus dem Verhalten der einzelnen Agenten sowie deren Interaktionen. Dieses Simulationsparadigma wird daher beispielsweise bei der Simulation von biologischen Populationen, aber auch zur Simulation von Kundenverhalten in betriebswirtschaftlichen Märkten eingesetzt.


Für die Entwicklung und Ausführung agentenbasierter Simulationen gibt es eine Vielzahl von spezialisierten Softwarewerkzeugen. In den letzten Jahren fand insbesondere die modellgetriebene Softwareentwicklung verstärkt Anwendung im Bereich der agentenbasierten Simulation, beispielhaft sei das Agent Modeling Framework (AMF) genannt.


Ziel dieser Arbeit ist die Erarbeitung des aktuellen Stand der Technik bzgl. modellgetriebener Softwareentwicklung im Bereich der agentenbasierten Simulation. Hierzu ist nach Softwarewerkzeugen für die modellgetriebene Entwicklung agentenbasierter Simulationen zu recherchieren und die gefundenen Werkzeuge hinsichtlich ihrer Praxistauglichkeit zu untersuchen. Softwarelösungen, welche die modellgetriebene Entwicklung für die Simulationsumgebung Repast Simphony ermöglichen sind dabei von besonderem Interesse.


Ihre Aufgaben umfassen dabei

  • Einarbeitung in das Themengebiet agentenbasierte Simulation
  • Einarbeitung in das Themengebiet modellgetriebene Softwareentwicklung
  • Erarbeitung des aktuellen Stand der Technik (Recherche nach Softwarewerkzeugen, Standards, Vorgehensmethodiken für modellgetriebene agentenbasierte Simulationsentwicklung)
  • Evaluation der gefundenen Softwarelösungen
  • Realisierung eines konkreten Simulationsmodells auf Basis des erarbeiteten Stand der Technik

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Programmierkenntnisse in JAVA
  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!

Integration von Simulationen am Beispiel der High-Level Architecture (Bachelor)

Für die Integration von Teilsimulationen zu komplexeren Simulationen existieren neben generischen Middlewarelösungen spezielle Integrationsframeworks. Diese stellen verschiedene Basisfunktionalitäten für den Datenaustausch der Teilsimulationen untereinander und das notwendige Zeitmanagement zur Verfügung. Der bekannteste Vertreter ist die vom US-amerikanischen Verteidigungsministerium entwickelte High-Level Architecture (HLA), die seit dem Jahr 2000 als IEEE-Standard definiert (IEEE-Standard 1516) ist.


Ziel dieser Bachelorarbeit ist die prototypische Anwendung der High-Level Architecture für die Integration von Teilsimulationen anhand eines konkreten Szenarios.


Ihre Aufgaben umfassen dabei

  • Einarbeitung in die Grundlagen der High-Level Architecture
  • Recherche nach konkreten Implementierungen des IEEE-Standards
  • Realisierung eines von Ihrem Betreuer vorgegebenen Anwendungsfalls mithilfe der HLA

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Programmierkenntnisse in JAVA
  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!

Evaluation von Frameworks für die Integration von Simulationen (Bachelor / Master)

Für die Integration von Teilsimulationen zu komplexeren Simulationen existieren neben generischen Middlewarelösungen spezielle Integrationsframeworks. Diese stellen verschiedene Basisfunktionalitäten für den Datenaustausch der Teilsimulationen untereinander und das notwendige Zeitmanagement zur Verfügung. Der bekannteste Vertreter ist die vom US-amerikanischen Verteidigungsministerium entwickelte High-Level Architecture (HLA), die seit dem Jahr 2000 als IEEE-Standard definiert (IEEE-Standard 1516) ist.


Ziel dieser Arbeit ist die gezielte Recherche nach Frameworks für die Integration von Simulationen und die anschließende Gegenüberstellung der gefundenen Ansätze.


Ihre Aufgaben umfassen dabei

  • Recherche nach Frameworks für die Integration von Simulationen
  • Vergleich der Integrationsframeworks
  • Realisierung eines praktischen Anwendungsfalls mithilfe eines ausgewählten Integrationsframeworks (in Zusammenarbeit mit Ihrem Betreuer)

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Programmierkenntnisse in JAVA
  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!

Entwicklung eines Kennzahlenmodells zur Erfolgskontrolle von E-Commerce-Systemen (Bachelor / Master)

Heutige E-Commerce-Systeme (insbesondere Online-Shop) stellen für Unternehmen einen relevanten Vertriebskanal für ihre Produkte und Dienstleistungen dar. Diese digitalen Systeme liefern umfangreiche Daten über das Verhalten der Kunden und ermöglichen so eine gute Erfolgskontrolle der Online-Shops an sich, durchgeführter Marketing-Aktionen (wie Rabatte oder Gutscheine) sowie anderer Maßnahmen in Online-Shops. Für den Zweck der Erfolgsbewertung haben sich zahlreiche Kennzahlen (Key Performance Indicator (KPI)) im E-Commerce etabliert, als Beispiel seinen Umsatz, Gewinn, Besucheranzahl, Konversionsrate, durchschnittlicher Warenkorbwert usw. genannt.


Ziel dieser Arbeit ist die Erarbeitung eines Kennzahlenmodells für E-Commerce-Systeme, welches die etablierten Kennzahlen für die wichtigsten Prozessschritte eines E-Commerce-Systems definiert.


Ihre Aufgaben umfassen dabei

  • Definition eines E-Commerce-Systems und der Prozessschritte innerhalb eines E-Commerce-Systems
  • Recherche nach existierenden Kennzahlensystemen für E-Commerce-Systeme (Existieren harmonisierende Standards oder Quasi-Standards?)
  • Erarbeitung eines eigenen Kennzahlensystems auf Basis der gefundenen Ansätze
    • Welche Berechnungsformel (und Einheit) liegt der jeweiligen Kennzahl zugrunde?
    • Welche Aussagen können durch die jeweilige Kennzahl getroffen werden?
    • Welchem Prozessschritt lässt sich diese Kennzahl zuordnen?

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Begeisterung für das genannte Thema
  • Freude am selbstständigen lösungsorientierten wissenschaftlichen Arbeiten
  • Da im Rahmen dieser Abschlussarbeit keine Implementierungsarbeiten gefordert sind, eignet sich dieses Thema nicht nur für den Studiengang Informatik oder vergleichbare Studiengänge

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an.


Bei Interesse wenden Sie sich bitte an Axel Hummel!


Semantische Suche für die Tourismus Domaine (Omikron)

Ziel der Arbeit ist die Erstellung und die Evaluation einer prototypischen semantischen Suchmaschine für die Tourismus-Branche. Die Suche soll auf Basis einfacher Textanfragen (wie z.B. „Cancun am Strand, 4 Sterne“) eine strukturierte Anfrage an existierende Tourismus-Datenbanken senden und bei Bedarf gezielt beim Nutzer fehlende Informationen einholen. Die besondere Herausforderung dieser Arbeit liegt im maschinellen Verstehen natürlichsprachlicher Anfragen.
Erwünschte Qualifikationen

  • Begeisterung für das Thema Semantik
  • Interesse an der eigenständigen Lösung von Herausforderungen in der IT 
  • Sehr gute Programmierkenntnisse (idealerweise in Java)
  • Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen
  • Gute Deutsch- und/oder Englischkenntnisse in Wort und Schrift

Wir bieten

  • Diplom- bzw. Masterarbeit bei der Omikron Data Quality Gmb H – einem führenden Anbieter von Such- und Datenqualitätslösungen
  • Intensive begleitende Betreuung
  • Mitarbeit an neuen Technologien, nah am aktuellen Stand der Forschung

Ansprechpartner: Sebastian Hellmann, Anja Maisch <anja.maisch@omikron.net>

Synchronisation von RDF Modellen im PKM Kontext

Ziel der Arbeit ist die Konzeption und prototypische Implementierung einer Sync ML Komponente, welche RDF Modelle mit Sync ML Clients wie iPhones, PDAs, ... synchronisieren kann. Die Sync ML – Synchronization Markup Language – ist ein plattformunabhängiger Standard zur Datensynchronisation zwischen Computern. Bei den Daten kann es sich um beliebige Informationen handeln, meist PIM-Daten wie Adressen, Kalendereinträge oder E-Mail-Nachrichten (> wpde ).
Diese Arbeit wird im Rahmen des Onto Wiki Projektes betreut. Vorkenntnisse in PHP sind von Vorteil.


Ansprechpartner: Sebastian Tramp


Entwicklung eines Statistiktools für ein E-Commerce-System (Bachlor)


Bachelor Praktikum / Bachelorarbeit


Mit Hilfe Statistiken werden in E-Commerce-Systemen Auswertungen zum Kaufverhalten und zur Optimierung des Angebotes vorgenommen.


Im Rahmen der ausgeschriebenen Abschlussarbeit soll auf Basis der Open-Source-E-Commerce-Systeme Zen Cart eine Erweiterung der bestehenden statistischen Auswertungsmöglichkeiten erarbeitet werden. Dabei soll eine zeitraumbezogene und artikelbezogene Auswertung ermöglicht werden und eine grafische Aufbereitung der Ergebnisse (z.B. mit Hilfe der Google-Chart-API) implementiert werden.


Wir bieten:
– kompetente inhaltliche und fachliche Betreuung
– einen konkreten Anwendungsfall


Als Interessent verfügen Sie idealerweise über:
– Vorerfahrungen mit E-Commerce-Systemen
– Kenntnisse in PHP und My SQL
– hohe Motivation und Interesse am Thema


Ansprechpartner: Kyrill Meyer


IT support und Product Service Systems (Bachlor / Master)

Einführung
Product Service Systeme (PSS) gewinnen im wissenschaftlichen Diskurs zunehmend an Bedeutung. Das Konzept beschreibt die Verbindung von Produkten und Dienstleistungen. Um das Design und Engineering von PSSs zu unterstützen wurde eine Vielzahl von IT support systemen entwickelt.
Ziel der ausgeschrieben Arbeit ist es ICT Systeme für PSS zu identifizieren und zu systematisieren, sowie Möglichkeiten der weiteren Nutzung und Erweiterbarkeit zu evaluieren.
Ihre Aufgaben

  • Darstellung des state of the art von PSS IT support
  • Systematisierung von PSS IT support und verwandten Forschungsfeldern
  • Evaluation der Möglichkeiten zur weiteren Nutzung und der Erweiterbarkeit von PSS IT support

Kontakt
Bei Interesse melden Sie sich bitte bei Christian Zinke.


Evaluation der Möglichkeiten und Voraussetzungen von Requirements Engineering / Management eines PLM-Systems in Bezug auf Weiterverwendung im Bereich des Service Engineerings (Praktikum mit Erweiterungsmöglichkeit auf BA/MA)


Aufgabe ist es die Möglichkeiten eines Requirements Engineering / Management eines existierenden PLM-Systems (Produkt-Lebenszyklus-Systems) ausloten und zu bewerten in Hinblick auf eine sinnvolle Anbindung an existierende Tools im Bereich des Service Engineerings.
Auf Basis dieser Evaluation kann eine Bachelor- oder Masterarbeit mit dem Ziel einer praktischen Implementierung angeschlossen werden.


Ihre Aufgabe ist:

  • Einarbeitung in das Projekt
  • Evaluation Requirements Engineering / Management eines existierenden PLM-Systems (Praktikum)
  • Konzeption und Implementierung des Service Engineeringtools in das PLM-System

Erwartete Kenntnisse:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Kenntnisse in aktuellen Web-Technologien

Wir bieten Ihnen eine umfangreiche Betreuung und eine praxisnahe Abschlussarbeit.


Ansprechpartner: Kyrill MeyerChristian Zinke


Referenzmodellierung für dynamische Prozesse (Master)

Referenzmodelle tragen in vielen Domänen dazu bei, gesammeltes Wissen und existierende Best Practices in angemessener Form darzustellen und für eine Wiederverwendung aufzubereiten. Die Nutzung von Referenzmodellen steht allerdings in einigen Bereichen vor besonderen Herausforderungen. Dazu gehören unter anderem stochastische Einflussgrößen auf Prozesse, die Interaktion zwischen vielen verschiedenen Prozessbeteiligten sowie die Notwendigkeit flexibler Prozessanpassungen. In der wissenschaftlichen Literatur existieren erste Überlegungen, wie auf diese Herausforderungen reagiert werden kann; eine umfassende Lösung wurde bisher allerdings noch nicht vorgestellt.


Ziel der Arbeit ist die Untersuchung und Gegenüberstellung existierender Referenzmodelle anhand der skizzierten Herausforderungen. Dabei soll ein Vergleichsrahmen entwickelt werden, mit dem die verschiedenen Modellierungsansätze miteinander verglichen werden können. Zur Lösung existierender Probleme sollen erste Vorschläge erarbeitet und in ein Vorschlag für ein Referenzmodell zusammengefasst werden.


Ihre Aufgaben umfassen

  • Einarbeitung in das Thema Referenzmodellierung
  • Identifikation besonderer Herausforderungen auf die Referenzmodellierung im Rahmen dynamischer Prozesse
  • Entwicklung erster Ansätze zur Modellierung von Referenzmodellen dynamischer Prozesse

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an. Die Arbeit ist im Umfeld eines aktuellen Forschungsprojekts angesiedelt und kann daher bei Interesse mit einer Tätigkeit als studentische / wissenschaftliche Hilfskraft kombiniert werden.


Bei Interesse wenden Sie sich bitte an Michael Becker!

Herausforderungen an Prozesse im Precision Farming (Master)

Durch fortschreitende technische Entwicklungen der vergangenen Jahre können Bestrebungen hin zu einer präzisen und zugleich diversifizierten und umweltgerechten Agrarwirtschaft unterstützt werden. Einerseits wird die Datenerfassung vereinfacht, andererseits können mittels Data-Mining-Algorithmen Muster erkannt und damit Vorhersagen getroffen und Anwendungsempfehlungen gegeben werden. Obwohl gerade kleinere Unternehmen von den Vorteilen des Precision Farming profitieren können, wird dies aufgrund hoher Investitionskosten hauptsächlich in Großbetrieben eingesetzt. Dazu ist es notwendig, Precision Farming als Dienstleistung über die Grenzen eines einzelnen Betriebes hinweg anzubieten.


Im Rahmen der Arbeit sollen existierende Prozesse des Precision Farmin auf ihre Schwachstellen(z.B. Medienbrüche, mangelnde Adaptionsfähigkeit) hin untersucht und den Besonderheiten der Domäne Landwirtschaft gegenüber gestellt werden. Anhand dieser Gegenüberstellung sollen verschiedene Lösungsmöglichkeiten, mit denen auf die Herausforderungen reagiert werden kann, vorgeschlagen und auf ihre Eignung hin überprüft werden.


Ihre Aufgaben umfassen

  • Identifikation von Besonderheiten der Domäne Landwirtschaft und Auswirkungen dieser Besonderheiten auf Prozesse des Precision Farming
  • Ableitung von Herausforderungen, die sich aufgrund der Besonderheiten ergeben
  • Untersuchung und Vergleich von Lösungsmöglichkeiten

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Fähigkeit zur selbstständigen Arbeit und Kommunikation mit Personen aus der Praxis

Wir bieten umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema an. Die Arbeit ist im Umfeld eines aktuellen Forschungsprojekts angesiedelt und kann daher bei Interesse mit einer Tätigkeit als studentische / wissenschaftliche Hilfskraft kombiniert werden. Sie erhalten außerdem wertvolle Einblicke in die Praxis.


Bei Interesse wenden Sie sich bitte an Michael Becker!

Ansätze zur Konfiguration komplexer Dienstleistungen (Bachelor oder Master)

Heutzutage bilden Dienstleistungen ein bedeutendes wirtschaftliches Standbein vieler Unternehmen. Gleichzeitig stehen diese Unternehmen vor der Herausforderung, in einem kompetitiven Markt zu bestehen, der zunehmend internationaler wird. Es ist notwendig, Dienstleistungen produktiv anzubieten; dabei dürfen gleichzeitig individuelle Bedürfnisse einzelner Kund_innen nicht außer Acht gelassen werden. Ein Ansatz, der sich in den letzten Jahren herausgebildet hat, um diese beiden gegenüberliegenden Pole zu vereinen, besteht in der Konfiguration komplexer Dienstleistungen. Dazu wurden in der wissenschaftlichen Literatur verschiedene Möglichkeiten präsentiert.


Ziel der Arbeit ist die Untersuchung der verschiedenen Ansätze zur Konfiguration komplexer Dienstleistungen. Die unterschiedlichen Ansätze sollen auf ihre Stärken und Schwächen hin untersucht werden. Dabei soll auf verschiedene Eigenschaften wie z.B. Grad der Formalisierung und Grad der Einbeziehung von Kund_innen eingegangen werden.


Ihre Aufgaben umfassen

  • Einarbeiten in verschiedene Möglichkeiten zur Modellierung und Konfiguration komplexer Dienstleistungen
  • Erarbeitung einer Literaturübersicht zu den Ansätzen
  • Aufstellen eines Vergleichsrahmens zur Bewertung der Ansätze

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, zur weiteren wissenschaftlichen Diskussion beizutragen.


Bei Interesse wenden Sie sich bitte an Michael Becker!

Implementierung von Mapping-Algorithmen für Geschäftsprozessmodelle (Bachelor)

Mit Hilfe von Geschäftsprozessen lassen sich Aktivitäten strukturiert darstellen und damit das gesammelte Wissen von Unternehmen organisieren. Prozesse werden unter anderem zur Kommunikation, zur Dokumentation und zum Training neuer Mitarbeiter_innen genutzt. Durch diese vielfältigen Anwendungsmöglichkeiten gibt es heutzutage eine Reihe verschiedener Prozessmodelle, die in der Regel in unternehmenseigenen Repositories abgelegt werden. Zur Organisation dieser Repositories (Identifikation von Duplikaten, Finden Ähnlicher Prozessmodelle etc.) ist die Suche nach Prozessmodellen notwendig. Eine notwendige Voraussetzung zur Suche nach Prozessmodellen stellt ein Mapping zwischen den jeweiligen Elementen dar, d.h. eine Übersicht darüber, welche Elemente eines Modells mit Elementen eines anderen Modells korrespondieren.


Ziel der Arbeit ist die Untersuchung eines Ansatzes zur Generierung von Mappings zwischen Prozessmodellelementen. Dieser Ansatz soll auf seine Stärken und Schwächen hin untersucht werden. Anschließend soll der Ansatz als ein Plug-In für das Tool Pro M implementiert werden.


Ihre Aufgaben umfassen

  • Einarbeiten in Mapping-Techniken für Geschäftsprozesse
  • Einarbeitung in die Architektur des Pro M- Frameworks
  • Implementierung einer generischen Mapping-Architektur für Pro M

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen.


Bei Interesse wenden Sie sich bitte an Michael Becker!

Untersuchung von Mapping-Algorithmen für Geschäftsprozessmodelle (Master)

Mit Hilfe von Geschäftsprozessen lassen sich Aktivitäten strukturiert darstellen und damit das gesammelte Wissen von Unternehmen organisieren. Prozesse werden unter anderem zur Kommunikation, zur Dokumentation und zum Training neuer Mitarbeiter_innen genutzt. Durch diese vielfältigen Anwendungsmöglichkeiten gibt es heutzutage eine Reihe verschiedener Prozessmodelle, die in der Regel in unternehmenseigenen Repositories abgelegt werden. Zur Organisation dieser Repositories (Identifikation von Duplikaten, Finden Ähnlicher Prozessmodelle etc.) ist die Suche nach Prozessmodellen notwendig. Eine notwendige Voraussetzung zur Suche nach Prozessmodellen stellt ein Mapping zwischen den jeweiligen Elementen dar, d.h. eine Übersicht darüber, welche Elemente eines Modells mit Elementen eines anderen Modells korrespondieren.


Ziel der Arbeit ist die Untersuchung existierender Ansätze zur Generierung von Mappings zwischen Prozessmodellelementen. Die unterschiedlichen Ansätze sollen auf ihre Stärken und Schwächen hin untersucht werden. Dabei soll auf verschiedenen Eigenschaften wie Genauigkeit des Mappings, Effektivität der Berechnung und Grenzen der Berechnung eingegangen werden.


Ihre Aufgaben umfassen

  • Einarbeiten in Mapping-Techniken für Geschäftsprozesse
  • Erarbeitung einer Literaturübersicht zu den Techniken
  • Aufstellen eines Vergleichsrahmens für die verschiedenen Ansätze

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen.


Bei Interesse wenden Sie sich bitte an Michael Becker!


Erweiterung eines PHP-basierten Web-Portals (Bachelor)

An dem Lehrstuhl wird ein Web-basiertes Management-System zur Anzeige und Verwaltung fest strukturierter Daten entwickelt. Im Rahmen einer Bachelor-Arbeit sollen Web 2.0 Erweiterungsmöglichkeiten untersucht und implementiert werden. Das Projekt basiert auf dem PHP-Framework Zend.


Ihre Aufgabe ist:

  • Einarbeitung in das Projekt und bei Bedarf in das Zend-Framework
  • Untersuchung der Erweiterungsmöglichkeiten
  • Konzeption und Implementierung von mindestens einer Erweiterung

Erwartete Kenntnisse:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Gute Kenntnisse in PHP und Java Script
  • Kenntnisse in aktuellen Web-Technologien

Wir bieten Ihnen eine umfangreiche Betreuung und eine praxisnahe Abschlussarbeit.


Ansprechpartner: Lars-Peter Meyer(Email) und Christian Zinke


Wiktionary 2 RDF Online Editor GUI 

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (currently for 4–6 languages). The configuration is currently done by configuring an XML file that serves as a wrapper for a language specific Wiktionary edition. The community would greatly benefit from an online tool that helps to create and update such xml wrapper configurations.
The editor should be able to load an existing config file and then give the RDF output for a piece of Wiki syntax. Measure of success is how easy a wrapper can be created and maintained.
Links:

Wiktionary 2 RDF Live Extraction

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor (see also the Master thesis extension: Built an Application Suite on Top of the Wiktionary2RDF Live Extraction
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (at the moment for 4–6 languages). However, only static dumps are produced and made available as download here: http://downloads.dbpedia.org/wiktionary
The DBpedia Live Extraction is also built on the framework and receives regular updates from Wikipedia and keeps an RDF triple store in sync. On the basis of this synced triple store, we can find potential improvements and provide *simple* suggestions to Wiktionary editors.
Goal is:

  1. to have a running Live Extraction for Wiktionary 2 RDF
  2. provide simple suggestions for editors of Wiktionary with a GUI

The DBpedia Extraction Framework is written in Scala, the GUI can be in any language (Java Script seems to be a good choice, however)


Links:


Built an (NLP) Application Suite on Top of the Wiktionary 2 RDF Live Extraction

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, research, Master thesis (see also the prerequisite topic Wiktionary2RDF Live Extraction, which is included here )
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

See description above (Wiktionary 2 RDF Live Extraction). This project has three potential flavours:

  1. collect existing tools and methods, which might be improved using Wiktionary data and then extend them and improve them. This includes tools such as QuicDic Apertium
  2. Create useful tools for the Wiktionary users and editors. Either by providing suggestions for editors of Wiktionary with a GUI e.g. based on Parsoid, checking consistency or automatically by bots
  3. Research: improve existing NLP systems based on the yet unproven assumption that Wiktionary data is much better than traditional lexica

Goal is:

  1. to have a running Live Extraction for Wiktionary 2 RDF
  2. built an application suite on top of the Live Extraction for Wiktionary 2 RDF that provides measurable benefits (for one of the three flavours)

Possible tools to include in the suite:


Links:


Web Annotation: Annotate It + NIF 

The tool Annotate It is written in Coffee Script and uses its own JSON format for data serialization. Goal of this project is to make it interoperable with NIF.
Links:

Web Annotation: My Annotation + NIF 

Improve Usability of MyAnnotation and make it interoperable with NIF.
Links:

NIF + Clarin's TCF 

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: NLP2RDF, Clarin-D

Create a converter from Clarin's TCF format to NIF (round trip). The resulting software will be hosted as a web service and will connect the Clarin and NLP2RDF world.
Links:

Explication of Statistical Relations

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Research / Explorative, Master thesis
Good chance for a scientific publication, if results are good.

Recent advances in semantic technologies (RDF, SPARQL, Sparqlify, RDB2RDF, Wiktionary 2 RDF, NIF, LLOD ) allow us to efficiently combine statistical data sets such as the Wortschatz with structured data such as Wiktionary 2 RDF with context information found in text using NIF .
The goal of this project is to research if statistical measures such as significant left/right neighbour/sentence co-occurrences or iterated co-occurrences can be used to assert the “correct” relation between terms in text and explicate it as an RDF property. The available structured data
Examples:

  • He wears a green shirt.
  • He wears a green t-shirt.

“shirt” and “t-shirt” occur frequently with color adjectives and the verb “wear”.
Research Questions:

  • Can we entail synonymy of “shirt” and “t-shirt”? Generally, not, but in certain contexts, yes. How can we measure this and produce RDF?
  • What can we do with the combination of Wortschatz, Wiktionary, NIF in RDF?

Links:

Technology:


Use-Case-driven Development and Improvement of RDB2RDF Mapping (Sparqlify)

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de, Claus Stadler – cstadler@informatik.uni-leipzig.de
Type: Research / Engineering, Master thesis
Involved communities: OWLG, LLOD cloud

The members of the Working Group for Open Data in Linguistics OWLG have expressed great interest in the conversion of their databases to RDF. In this context, we see a good chance that the Sparqlify tool, which is developed by our research group can greatly help to speed up this process. We expect you to help convert and interlink a great number of linguistic data sets and produce high quality Linked Data bubbles for the LLOD cloud. This process will, of course, reveal many missing features and gaps for improvements of Sparqlify. Goal of the project is therefore:

  1. Create mappings from relational databases to RDF (data is supplied by community)
  2. Systematically collect gaps and missing features
  3. Based on 2.: fix and improve Sparqlify with the aim to creating a production-ready software with high impact and great performance (involves possible benchmarking).

Links:

Badge Server for Gamification of Reward System for Online Communities

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis, Internship
Involved communities: DBpedia and many more.

The AKSW research group is involved in many online communities. Although the members of these communities are highly active and contribute work to the projects, there are not any reward mechanisms in place to remunerate this effort)). This practical problem can be solved by a badge server, which implements three operations:

  1. an admin/moderator can add a badge (including a description, what has to be achieved and an image)
  2. a community member can apply for a badge, presenting proof that he has successfully completed the task
  3. the admin/moderator approves the request and awards the badge to the user.

Example badges: “Over 100 commits to the DBpedia framework”, «Created a language config for http://dbpedia.org/Wiktionary".
To be an effective system usability needs to be high and the awarding and displaying of badges need to be disseminate correctly, e.g. with RDF, RSS, Widgets, etc.
Before implementing the student has to do research and make sure, whether there is already a similar open-source implementation.


Overview Links:


Bridging NIF, ITS and XLIFF

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis (or Master thesis, if an integration into the Okapi Framework is done)
Involved communities: NLP2RDF and the http://www.w3.org/International/multilingualweb/lt/ MultilingualWeb-LT Working Group

ITS and XLIFF are two formats, which are widely used in the internationalisation and localization industry. The main goal of this thesis is to provide software and algorithms that are able to transform the both formats lossless into the newly developed NLP Interchange Format and back (round-trip bridge). One of the challenge is to provide an algorithm that allows to transform offset annotations into XML/HTML markup.
Overview Links:

Technical details:

Make the DBpedia resource page more interactive/attractive

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Voluntary student project / internship / Bachelor thesis
Involved communities: DBpedia

Change the DBpedia resource html display page (i.e. http://dbpedia.org/page/Steve_Martin) and make it more interactive by integrating information from other LOD datasets. This can be achieved by working on both the front-end (html/css/javascript) and the server-side. For the server side we use Open Link Virtuoso VSP technology (similar to PHP) but we are open to other suggestions as well. If the implementation is good, this work will be deployed to DBpedia.


Ideas on what we imagine to accomplish may come from Freebase.

Create a new geodata LOD dataset

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis / Master thesis
Involved communities: DBpedia, linkedgeodata

Bachelor thesis: The purpose of this thesis will be to create a new LOD Dataset from Yahoo WOEID – Where On Earth Identifier. WOIED is supported / updated by Yahoo, used by many geodata applications (i.e. Flickr) and is considered to be an established place categorization. After converting the dataset to triples, the next step will be to link it with other LOD datasets, such as Linked Geo Data, DBpedia, geonames.
Master thesis: It’s not very clear if this is qualified to be extended as a Master thesis, but an idea would be to use this and other LOD datasets and create a LOD tourist guide.

Semi-automatic Wikipedia article correction

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: DBpedia and Wikipedia

We have developed a DBpedia extractor that extracts metadata from templates, thus, we have information for correct infobox usage in Wikipedia articles (metadata). Using this metadata we can check if Wikipedia authors use proper infobox declarations inside articles, identify wrong usage and suggest corrections. The benefits of resolving these errors are: 1) Correct the Wikipedia articles and 2) get better and more DBpedia triples.


We have 2 specific example cases here:

  • An editor misspells an infobox instance (i.e.“Infobox Artist” to “Infobox Artist”). This would result in hiding the infobox from the page display, as mediawiki would not know how to render it.
  • An editor misspells an infobox property (i.e. “birth place” to “birthplace”). This would also result in hiding the property from the Infobox display.

In both cases DBpedia gets wrong or no results at all.


There is already a simple preliminary shell script implemented for this but we are looking for a program implementation (preferably in Scala / Java in order to include it in the DBpedia Framework) that will also use LIMES for suggesting corrections.


Links:


Entwicklung und Umsetzung eines Konzepts zum Datenaustausch zwischen dem Soft Wiki- Werkzeug und dem Requirements Interchange Format

Diplom / Master- Arbeit


Requirements Interchange Format (RIF) ist der zukünftige Standard für den Datenaustausch im Requirements-Management, das Strukturen für Anforderungen und deren Beschreibungen enthält. Soft Wiki ist eine auf dem Semantic Web und Web 2.0 basierende Plattform zur Anforderungserfassung in einer sehr frühen Phase des Entwicklungsprozesses. Ziel dieser Arbeit die Integration des Requirements-Managment-Werkzeug IRqA des Industriepartners QA-Systems in das Soft Wiki- Konzept.


Ihre Aufgabe ist:

  • Entwicklung eines Konzepts zur Datenübernahme aus dem Soft Wiki- Werkzeug (basierend auf Onto Wiki) in das Requirements-Interchange-Format (RIF).
  • Implementierung eines Konverters für den Datenaustausch zwischen SWORE und dem RIF-XML-Schema.
  • Dokumentation des strukturierten Entwicklungsprozesses nach gängigen Qualitätsstandards.

Folgende Voraussetzungen und Fähigkeiten sind notwendig:


  • gute englische Sprachkenntnisse
  • XML-Basiswissen, gute Kenntnisse in der Skriptsprache PHP Version 5
  • Studium der Informatik oder vergleichbarer Ausrichtungen

Wir bieten:

  • Grundlagenvermittlung im Bereich Requirements-Management
  • Betreuung durch den Industriepartner

Ansprechpartner: Thomas Riechert


Erweiterung des LinkedGeoData-Browsers (Masterarbeit)

Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen.
Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte.


Ziel der Arbeit ist das Überarbeiten des Browsers gemä­ß der im Rahmen der Arbeit noch näher zu spezifizierenden Anwendungsfälle. Dabei liegt der primäre Fokus auf der Performanz der im Hintergrund ablaufenden Anfragen an die Datenquellen. Für die Anwendungsfälle sollen daher verschiedene Datenrepräsentationen und Anfragestrategien erarbeitet und bewertet werden. Die Ergebnisse sollen in eine Anpassung des Browsers an die Anwendungsfälle einflie­ßen, wofür eine passende Architektur zu konzipieren und umzusetzen ist. Sofern es die Zeit erlaubt, wäre es möglich, den überarbeiteten Browser noch in einem Usability-testing zu unterziehen.


Aufgabenstellung

  • Konzeption von Anwendungszenarien für den Browser
  • Evaluation verschiedener Repräsentationen von Geodaten und entsprechender Querystrategien in Bezug auf Performanz
  • Konzeption einer geeigneten Architektur des Browsers
  • Implementierung, dabei ggf. Anpassung der GUI
  • Eventuell Usability-testing

Vorraussetzungen

  • Kenntnisse in PHP und Java-Script
  • Kenntnisse in Java und Semantic Web-Technologien vorteilhaft aber nicht Bedingung

Wir bieten

  • Umfassende Betreuung durch am Thema stark interessierte Mitarbeiter
  • Mitarbeit an Publikationen (falls gewünscht)

Bei Interesse können Sie sich an Claus Stadler und Jens Lehmann wenden.

Geo-Spiel: Interlinking

Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen. Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte.


Analog wurde in der AKSW-Gruppe mit VeriLinks ein Spiel-Framework entwickelt, dessen Kernidee es ist Spieler im Hintergrund Verknüpfungen (Links) zwischen Wissensbasen validieren zu lassen. Mehrere Spieler können dabei um Punkte / Geld spielen, während sie wertvolles Feedback zu den Links liefern.


Kernidee dieser Arbeit ist es beide Komponenten zu vereinigen: Der Spieler startet (analog zu Spielen wie Parallel Kingdom) auf einer Karte, z.B. dem Ort an dem er sich gerade befindet. Auf diesem Kartenausschnitt werden Elemente aus Linked Geo Data angezeigt, z.B. bestimmte Häuser, Restaurants, Sehenswürdigkeiten, Pubs usw. Gleichzeitig sollen Objekte aus anderen Wissensbasen angzeigt werden, z.B. Bilder aus Flickr. Ziel ist es die Objekte zuzuordnen, d.h. einem Linked Geo Data- Objekt ein Objekt aus einer anderen Wissensbasen zuzuordnen. Zum Beispiel kann der Spieler entscheiden, ob ein bestimmtes Bild tatsächlich zu einer Sehenswürdigkeit gehört. Wenn ein Spieler mit seiner Entscheidung mit anderen Spielern übereinstimmt, so erhalten diese Spieler Punkte. Die Punkte können dann genutzt werden um bestimmte Fähigkeiten zu erlernen, Territorium zu beanspruchen usw. Der Arbeit ist an der Stelle keine Grenze gesetzt.


Ihre Aufgabe ist:

  • Entwickeln eines Online-Spiels nach der oben beschriebenen Idee
  • Einarbeitung in Semantic Web Technologien wie RDF

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Javascript-Kenntnisse
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Claus Stadler – cstadler@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Distributed Researcher Network

Semantic Web Technologien erlauben den globalen Austausch von Informationen. Insbesondere sind in den letzten Jahren Ideen entwickelt wurden um Daten dezentral verwalten zu können, wie z.B. hier beschrieben. In dieser Arbeit sollen verteilte Semantic Web Technologien am Anwendungsszenario von Forscherwebseiten (wie z.B. http://jens-lehmann.org ) realisiert werden. Die meisten Forscher verwalten in irgendeiner Form Publikationen, Präsentationen, Ereignisse usw. Um den Verwaltungsaufwand dafür zu reduzieren ist eine Kombination aus verschiedenen Datenquellen notwendig: 1.) Information die aus zentralen Quellen kommen, z.B. Publikationen aus Google Scholar. 2.) Informationen die aus dem Netzwerk des Forschers kommen, z.B. kann ein Ko-Autor eines Artikels bereits Informationen hinterlegt haben (z.B. Thema des Artikels oder die Zuordnung zu einem Projekt), die man selbst wiederverwenden möchte. 3.) Selbst erstellte Informationen. Mit Techniken des verteilten semantischen Webs lassen sich diese Szenarien realisieren. Die prinzipielle Protokoll- und Toolunterstützung existiert bereits, z.B. im OntoWiki Tool. Ziel der Arbeit ist die Anpassung auf den konkreten Anwendungsfall der Erstellung von Forscherwebseiten, d.h. insbesondere a) Synchronisationsdienste mit z.B. Google Scholar und b) die Entwicklung eines Front-Ends (d.h. der eigentlichen Forscherwebseite) unter Nutzung der im Backend gesammelten Daten. Solch ein System bietet Vorteile gegenüber existierenden Möglichkeiten für einen Wissenschaftler eine eigene Webseite zu erstellen:


  • Vorteile gegenüber normalen traditionellen Webseiten:
    • weniger Verwaltungsaufwand, da z.B. nur ein Autor eine Publikation eintragen muss
    • viel mehr Möglichkeiten beim browsen/filtern/visualisieren
    • bessere Wiederverwendung der Daten z.B. können sie dann leichter den Seiten von Arbeitsgruppe oder Projekt eingeblendet werden
  • Vorteile gegenüber arbeitsgruppen-/projektspezifischen Seiten:
    • viele Forscher wechseln mehrfach die Arbeitsgruppe während ihrer Karriere – statt dann woanders neu anzufangen (ev. mit einem anderen System) kann man einfach existierende Daten behalten
  • Vorteile gegenüber zentralen Diensten wie Google Scholar, MS Academic Search:
    • man hat selbst die Kontrolle über seine Daten
    • höhere Qualität
    • man bestimmt selbst was man präsentiert (z.B. nicht nur Publikationen sondern auch Präsentationen, Informationen zu eingeworbenem Funding usw.)
    • man kann die eigenen Daten beliebig anreichern z.B. nach verschiedenen Themen / Projekten gruppieren oder eigene Kurzzusammenfassungen schreiben (siehe z.B. http://korrekt.org)

Ihre Aufgabe ist:

  • Entwickeln von Synchronisationsdiensten z.B. Google Scholar, Bibsonomy, MS Academic Search, DBLP
  • Anpassung des Onto Wiki- Systems z.B. spezielle Eingabe-Templates
  • Entwicklung eines leichtgewichtigen, flexiblen Front-Ends für Forscherwebseiten

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Javascript-Kenntnisse
  • PHP-Kenntnisse
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Sebastian Tramp – tramp@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Games with a Purpose: Interlinking

Games with a Purpose ist eine Forschungsrichtung, bei der Spaß an Spielen verknüpft wird mit häufig arbeitsintensiven Aufgaben, die durch das Spiel im Hintergrund erledigt werden. Eine solche Aufgabe ist das verknüpfen von Wissen aus unterschiedlichen Wissensbasen («Interlinking»). In dem Bereich wurden viele Verfahren entwickelt, deren Evaluation sich allerdings nur schwierig automatisieren lässt. Innerhalb des LATC-Projekts wurde deshalb eine grundlegende Spielidee entwickelt, die das Bewerten von Verknüpfungen erlaubt. Dabei können 2 oder mehr Spieler miteinander um Punkte / Geld spielen, während sie wertvolles Feedback für die Interlinking-Algorithmen im Hintergrund liefern. Ziel der Arbeit ist die Verfeinerung der Spielidee und deren Implementierung in einem Onlinespiel mit möglichst hohem Suchtfaktor. :-)


Ihre Aufgabe ist:

  • Entwickeln eines einfachen Online-Spiels
  • Einarbeitung in Semantic Web Technologien wie RDF

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Browsen, Suchen und Navigieren in DBpedia mit Hilfe maschinellen Lernens

Anfang des Jahres wurde das sehr erfolgreiche DBpedia-Projekt gegründet. Ziel dieses Projektes ist es Informationen aus Wikipedia extrahieren und sie mit anderen Wissensbasen zu verbinden. Wikipedia ist eine der am häufigst besuchten Seiten weltweit (Position 8 im Oktober 2008 laut http://alexa.com) auf der von Menschen eine riesige Menge an Wissen zusammengetragen wird. Eine Herausforderung bei dieser Menge von innerhalb des DBpedia-Projektes extrahierten Informationen ist Navigationsmöglichkeiten innerhalb der DBpedia-Daten anzubieten. Dafür wurde in einer Vorarbeit der DBpedia Navigator entwickelt, der das OWL-Lernsystem DL-Learner verwendet. Ziel der Arbeit ist es dieses Werkzeug zu einem Endnutzer DBpedia-Viewer weiterzuentwickeln und dabei Machine Learning Methoden für die Generierung von Navigationsvorschlägen (auf Basis der zuletzt angeschauten Instanzen) zu verwenden.


Ihre Aufgabe ist:

  • Verbesserung der generierten Navigationsvorschläge: ein existierender neuer OWL-Lernalgorithmus soll auf diesen Anwendungsfall angepasst werden
  • Erweiterung des DBpedia Navigator User Interfaces: verbessertes Ranking der Suchergebnisse, nutzerfreundliche Klassenhierarchie-Anzeige, verbesserte Anzeige der Instanzdaten mit Templates
  • Integration von anderen Wissensbasen, die mit DBpedia verknüpft sind z.B. Geonames

Kenntnisse:

  • Java- und PHP-Kenntnisse
  • Interesse an Semantic Web, Machine Learning
  • Studium der Informatik oder vergleichbarer Studiengänge

Wir bieten:

  • eine umfangreiche Betreuung
  • Teamarbeit in der Forschungsgruppe AKSW
  • Mitarbeit an interessanten und erfolgreichen Projekten mit Potential die Nutzung von DBpedia/Wikipedia zu verbessern

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Anwendung von Ontologielernverfahren im medizinischen Bereich

Die Ontologiesprache OWL ist einer der Grundbausteine des Semantic Web und wird bereits in großem Umfang im biologischen und medizinischen Bereich eingesetzt. Das automatische Lernen in Ontologien aus Instanzdaten erlaubt dabei neue interessante Anwendungen im medizinischen Bereich, z.B. können anhand von Daten zu Patientenuntersuchungen neue Erkenntnisse über Krankheiten gewonnen werden. Bei dieser Arbeit ermöglichen wir die Zusammenarbeit mit dem Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE).


Ihre Aufgabe ist:

  • Einarbeitung in Lernverfahren für OWL-Ontologien und das Open Source Tool DL-Learner
  • Erarbeitung eines oder mehrerer konkreter Anwendungsszenarien
  • Evaluation existierender Lernverfahren an diesen Anwendungsszenarien

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Semantic Web, insbesondere OWL 
  • Machine Learning (anwendungsorientiert)

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Allgemeines medizinisches Interesse ist ebenfalls günstig, aber nicht notwendig.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen. Bei erfolgreicher Umsetzung kann die Arbeit signifikante wissenschaftliche Resultate liefern.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Database to OWL Converter

Relationale Datenbanken bilden heute das Rückgrat vieler Anwendungen. Die Migration bzw. Bereitstellung solcher Strukturen für das Semantische Web ist häufig ein schwieriger, manueller Prozess. Ziel der Arbeit ist deshalb ein Tool zu entwickeln, welches interaktiv und semi-automatisch eine OWL-Ontologie aus einer relationalen Datenbank extrahiert. Dabei soll auf existierende Techniken zurückgegriffen werden um zuerst in einem ersten Schritt eine OWL-Ontologie auf Basis des Schemas (unter teilweiser Berücksichtigung der Daten) einer Datenbank zu extrahieren, die im zweiten Schritt durch Lernverfahren PDF Document[1] angereichert wird. Das entwickelte Tool soll Teil des DL-Learner Open-Source-Projekts werden. Als konkrete Anwendung soll in der Arbeit eine Produktontologie für Mercedes Benz Fahrzeuge entstehen.


Ihre Aufgabe ist:

  • sichten der Literatur und Werkzeuge zur Verknüpfung von OWL und relationalen Strukturen: [PDF Document2 – Seite 78ff, 3, PDF Document4, PDF Document5, PDF Document6, R2D2]
  • schreiben eines Datenbank-zu-OWL-Konverters auf Basis des DL-Learners
  • anwenden des Tools zur Erstellung einer Mercedes Benz Produktontologie (Daten größtenteils vorhanden)

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Semantic Web, insbesondere OWL 
  • Kenntnisse in Java und relationalen Datenbanken
  • Kenntnisse in Projektarbeit und Subversion sind vorteilhaft

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten

  • eine umfangreiche Betreuung
  • Teamarbeit in der Forschungsgruppe AKSW
  • eine praxisnahe Mitarbeit an einem Tool mit Zukunftspotential
  • praktische Zusammenarbeit mit einem Mitarbeiter der Daimler AG

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

SPARQL-Query-Plugin für Semantic Media Wiki

Media Wiki ist das Wiki-System auf welchem Wikipedia basiert. Semantic Media Wiki ist eine Erweiterung, mit der Wiki-Texte mittels einer typisierung der Wiki-Links semantisch annotiert werden können. Die dabei entstehende Wissensbasis kann mit speziellen ASK-Queries angefragt werden. Die Möglichkeiten der ASK-Queries sind dabei relativ begrenzt. Mit SPARQL existiert ein W3C-Standard zum Abfragen von Wissensbasen. Im Rahmen der Arbeit soll eine Erweiterung für Semantic Media Wiki realisiert werden, welche eine Abfrage der Wissensbasis mit SPARQL erlaubt.


Konkret erreicht werden soll:

  • Implementierung eines SWM-Plugins, welches in Wiki-Seiten eingebettete SPARQL-Abfragen ermöglicht
  • Mapping der SPARQL-Anfragen auf den My SQL basierten Semantic Media Wiki Triple Store

Dazu sind die folgenden Voraussetzungen und Fähigkeiten notwendig:

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbarer Ausrichtungen
  • Kenntnisse in Web-Applikationsentwicklung, insbesondere PHP/
  • Erfahrung mit Datenbanken

Wir bieten Ihnen:

  • eine praxisnahe Diplomarbeit mit dem Potential ein für viele Nutzer extrem nützliches Werkzeug für Semantic Media Wiki zu schaffen sowie
  • eine umfangreiche Betreuung.

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Sören Auer – auer@informatik.uni-leipzig.de – Skype: soerenauer – +49 (32) 222201209

Ruby / Python Portierung von Triplify

Das größte Hindernis für eine umfassende Verbreitung des Semantic Web ist im Moment noch die mangelnde Verfügbarkeit von semantisch ausgezeichneten Daten, Informationen und Wissen (z.B. als RDF oder Linked Data). Andererseits wird bereits ein weitaus überwiegender Teil von Webseiten von datenbankbasierten Webanwendungen (wie CMS, Blogs, Wikis, Foren, Groupware etc.) generiert. ((http://Triplify.org Triplify}} macht es zum Kinderspiel solche Webanwendungen zu semantifizieren, also die in einer relationalen Datenbank gespeicherten Inhalte als RDF, Linked Data oder JSON zu publizieren. Triplify basiert auf der Definition von Datenbankabfragen, die relevante Informationen auswählen und deren Ergebnisse dann von Triplify automatisch in RDF-Statements (Triples) konvertiert und im Web publiziert werden. Im Moment besteht Triplify as ca. 300 Zeilen Quellcode, ist allerdings nur in PHP verfügbar.


Konkret erreicht werden soll:

  • Portierung des Triplify Scripts in Ruby und/oder Python
  • Erstellen einer Triplify-Konfiguration für ein oder mehre populäre Ruby / Python Webanwendungen

Dazu sind die folgenden Voraussetzungen und Fähigkeiten notwendig:

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbarer Ausrichtungen
  • Kenntnisse in Web-Applikationsentwicklung insbesondere Ruby / Python und DBMS (vor allem MySQL)
  • Interesse am Themengebiet des (Social) Semantic Web

Wir bieten Ihnen:

  • eine projektnahe Diplomarbeit mit großem Potential die Verbreitung von semantischen Schnittstellen entscheidend zu verbessern sowie
  • eine umfangreiche Betreuung.

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Sören Auer – auer@informatik.uni-leipzig.de – Skype: soerenauer – +49 (32) 222201209

Semantic Chess

Schach gehört zu den kompliziertesten und beliebtesten Spielen der Welt. Über Jahrhunderte hinweg wurden Millionen von Schachpartien von Tausenden von Leuten dokumentiert und meist im PGN Format gespeichert. Obwohl PGN eine Lingua Franca für Schachengines darstellt, erlaubt dieses Datenformat keine semantische Interpretation der Partien. So können Anfragen wie “Which bulgarian players have an ELO over 2000” nicht beantwortet worden. Ziel dieser Arbeit ist die Konvertierung von PGN nach RDF und zurück sowie die Umsetzung einer semantischen Suche über Schachpartien in RDF. Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Axel Ngonga – ngonga@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Evaluation von Clustering-Algorithmen für Protein-Protein-Interaktion (Bachelor / Master)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Insbesondere bei der Extraktion von Proteinkomplexen aus Graphen wurden in den letzten Jahren neue spezialisierte Algorithmen entwickelt. Ziel dieser Arbeit ist die Implementierung und Evaluation von Algorithmen zur Extraktion von Proteinkomplexen (IPCA, DPClus und COD) mit Hilfe des CVK Frameworks. Ihre Aufgaben wären:
– Die Implementierung der Algorithmen ins CVK
– Die Evaluation dieser Algorithmen mit echten Daten


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Hierarchisches Border Flow (Bachelor)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Der BorderFlow Algorithmus erlaubt die zeiteffiziente Berechnung von Clustern in großen Graphen. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation einer Erweiterung des Border Flow- Algorithmus, die es erlauben soll, hierarchisch mit Border Flow zu clustern. Ihre Aufgaben wären:
– Konzeption und Implementierung einer Bibliothek von Methoden zum Berechnen von Cluster-Ähnlichkeiten
– Implementierung eines iterativen Ansatzes zum hierarchischen Clustern mittels Border Flow
– Evaluation auf synthetische und echten Daten aus der Biologie


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Porting Clustering to the Cloud (Bachelor / Master)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Besonders in der Biologie und in der Informatik entstehen riesige Netzwerke (mit Millionen von Knoten und Kanten), die nicht mehr zeiteffizient in einem Prozess analysiert werden können. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation eines Ansatzes zu Paralleliserung von BorderFlow, einem Graph-Clustering-Verfahren. Ihre Aufgaben wären:
– Konzeption eines Map Reduce Ansatzes für die Parallelisierung von Border Flow
– Umsetzung des Ansatzes und Implementierung mittels des Hadoop-Frameworks
– Evaluation auf synthetische und echten Daten aus der Biologie


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Applying Pseudo-Relevance Feedback to Population Learning (Master / Diplom)

Das Web of Data besteht bereits aus mehrerer Milliarden Tripeln, Tendenz steigend. Jedoch sind schätzungsweise nur 3–5% der Daten im Web of Data miteinander verlinkt. Zur automatischen verlinkung von Instanzen aus unterschiedlichen Wissensbasen werden bisher Werkzeuge benutzt, die Instanzen anhand einer Ähnlichkeitsmetrik miteinander vergleichen (z.B. LIMES). Ziel dieser Arbeit ist es, Pseudo-Relevance Feedback mit maschinellem Lernen zu verbinden, um bestmögliche Konfiguration für LIMES automatich zu berechnen. Das Rahmenwerk sowie entsprechende Vorarbeiten exisitieren bereits. Ihre Aufgaben wären:
– Erarbeitung eines entsprechenden Ansatzes
– Konzeption und Implementierung eines Prototyps
– Evaluation anhand verschiedener Use Cases


Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java
– Interesse an Machine Learning


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Cytoscape-Plugin für Border Flow


Graph Clustering wird erfreut sich einer wachsenden Popularität in den unterschiedlichsten Anwendungsgebieten, wie z.B. Information Retrieval, Bioinformatik, Data Mining, etc. Insbesondere in den ersten zwei Disziplinen ist der explorative Ansatz zentral für die Weiterverwendung der Ergebnisse. Ein populäres Visualiserungswerkzeug für diese Zwecke ist Cytoscape. Ihre Aufgabe besteht darin, ein Cytoscape Plugin für den BorderFlow-Algorithmus zu entwickeln, d.h.
– Erarbeitung einer Architektur für die Integration
– Entwicklung des Plugins
– Integration des Plugins und Tests


Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java
– Interesse an Graph Clustering und Anwendungen


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen.Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341


“Consuming Linked Data” Erweiterung für Shopsysteme im B2B

Linked Data / Semantic Web / RDF wird im Bereich der Business Intelligence für alle Beteiligten immer interessanter. Auch Anbieter von eCommerce-Plattformen wie Oxid E und Magento bieten mittlerweile RDFa Plugins zur maschinenlesbaren Repräsentation von Produkten und Produktkatalogen an (Linked Data produzierender Teilnehmer).


Im B2B Market werden diese – als RDF repräsentierten – Informationen bisher allerdings nur geringfügig ausgewertet. Eine Möglichkeit RDF in diesem Umfeld direkt wiederzuverwenden wäre die Integration von Produktdaten (repräsentiert mit dem Good Relations Vokabular) in eCommerce-Plattformen mittels geeigneter Plugins (Linked Data konsumierender Teilnehmer). Im Rahmen der Arbeit ist die Verwendung von Linked Data zur Shopdaten-integration zu untersuchen und anhand eines Oxid E- Shop Plugins prototypisch zu implementieren.


Dieses Thema kann im Rahmen einer Diplom- bzw Masterarbeit bearbeitet werden.
Gute Kenntnisse in PHP und hinreichende Kentnisse von Konzepten des Semantic Web / Linked Data Web sind hierfür Vorraussetzung


Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Michael Martin


Repräsentation und Publikation von Datenerhebungen im Linked Data Web


Zur Repräsentation und Publikation von Umfrage-Rohdaten sowie den dazugehörigen Fragekatalogen eignen sich besonders Technologien des Linked Data Web. Werden diese Daten in nicht-aggregierter Form mit Hilfe von RDF veröffentlicht, wird einerseits deren Wiederverwendungspotential massiv erhöht und andererseits ein größerer Kreis von Dateninteressenten aquiriert.
Im Rahmen dieser Arbeit ist eine Web-Applikation (oder auch eine Onto Wiki- Komponente) mit folgenden Eigenschaften zu entwickeln:

  • Benutzerfreundliche Erstellung von Fragenkatalogen auf Basis des Survey-Vokabulars
  • Durchführung von Umfragen auf Basis erstellter Fragenkataloge
  • Exemplarische Transformation von Umfrageergebnissen aus bestehenden Datenerhebungswerkzeugen (auf Basis einer zuvor getätigten Evaluation)
  • Erzeugung eines statistischen Daten-Raumes (in RDF) auf Basis des erzeugten Rohdaten-RDF-Models unter Verwendung des DataCube-Vokabulars

Dieses Thema kann im Rahmen einer Diplom-, Master- und unter Umständen sogar Bachelorarbeit bearbeitet werden.
Hinreichende Kentnisse von Konzepten des Semantic Web / Linked Data Web sind hierfür Vorraussetzung


Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Michael Martin



Nachhaltigkeit und Product Service Systems (Bachlor / Master)

Einführung
Product Service Systeme (PSS) gewinnen im wissenschaftlichen Diskurs zunehmend an Bedeutung. PSS beschreibt dabei die Verbindung von Produkten und Dienstleistungen. Dieser Ansatz wurde u.a. entwickelt mit dem Ziel die Nachhaltigkeit von Produkten und Dienstleistungen zu steigern. Die Forschung um PSS hat jedoch sich weiterentwickelt und es stellt sich die Frage, welchen Reifegrad diese Forschung besitzt und in welchem Verhältnis sie zu den ursprünglichen Ansätzen steht.
Ziel der ausgeschrieben Arbeit ist es die aktuellen Entwicklungen der PSS Forschung zu systematisieren und sie in Kontrast zu den ursprünglichen Arbeiten zu stellen.
Leitende Fragen könnten sein
* Sind Product Service Systems tatsächlich nachhaltig(er)/ökologisch(er)?
* Welchen Reifegrad hat die PSS Forschung in der Wissenschaft und in der Praxis?
* Wie wird Nachhaltigkeit in PSS beschrieben und gemessen?
Ihre Aufgaben

  • Darstellung des state of the art von PSS 
  • Systematisierung und Kategorisierung von PSS Ansätzen und verwandte Forschungsthemen
  • Gegenüberstellung und Diskussion von früheren und aktuellen Arbeiten

Kontakt
Bei Interesse melden Sie sich bitte bei Christian Zinke.


Servitization – innovativ oder alter Hut? (Bachlor / Master)

Einführung
Das Phänomen der „Servitization“ ist seit einigen Jahren zunehmend in der Wissenschaft präsent und beschreibt generell die zunehmende Bedeutung von Dienstleistungen innerhalb der Produktion. Jedoch wird innerhalb dieses Diskurses die Neuartigkeit der “Servitization” bezweifelt.
Ziel der ausgeschrieben Arbeit ist es den aktuellen Forschungsstand und Entwicklungen im Bereich der „Servitization“ zu beschreiben und zu systematisieren. Weiterhin steht „Servitization“ in einem engen Bezug zu „dematerialization“ und Nachhaltigkeit. Diesen Bezug gilt es zu detaillieren und zu systematisieren.
Leitende Fragen könnten sein
* Ist die „Servitization“ ein neues Phänomen?
* Was beinhaltet „Servitization“ und zu welchen Themen hat es eine hohe Relevanz.
* Führt “Servitization” zu einer “dematerialization”?
* Führt “Servitization” zu mehr Nachhaltigkeit?
Ihre Aufgaben

  • Darstellung des state of the art von “Servitization”
  • Systematisierung und Kategorisierung von “Servitization” Definition und Verwendungen
  • Kontrastieren von “Servitization” und verwandten Forschungsfeldern («dematerialization”, Nachhaltigkeit)

Kontakt
Bei Interesse melden Sie sich bitte bei Christian Zinke.


Enhancement of the music ontology towards the needs of the music business

The music ontology specifies the main concepts and properties for music description in the Semantic Web. These can be artists, albums, tracks, composer, remixer, live performances etc. The ontology does not yet entirely cover properties related to the music business (e.g. properties related to collecting societies). These shall be identified, added and treated for a user friendly usage within the Semantic Web:

  • item analysis of the current state of semantic data in the music ontology
  • item analysis of the current state of possible semantic data and actual technical implementations in the music industry
  • item concept for the enhancement of the music ontology
  • item implementation of a user friendly prototype for the access, visualization and data integration of the semantic data based on the music ontology

For further information pls contact:
Ronny Gey(Email); Frank Schumacher (Email)

Analyse von Metadatenstandards in der Musikbranche. (Bachelor / Master)

Ihr Aufgabengebiet:
Die Vermarktung von Kulturgütern in der digitalen Welt findet statt, ohne dass dafür definierte Pro-zesse und deren technische Realisierung in Anwendungen und Schnittstellen existieren. Eine Her-ausforderung bei der Bedienung dieses Marktes stellt die Tatsache dar, dass viele der Marktteil-nehmer Klein- und Kleinstunternehmen sind, die derlei Prozessdefinitionen und Implementierungen für ein branchenweites Informations- und Wissensmanagement nicht alleine initiieren können. Der Bedarf an einer medienbruchfreien, also ohne manuelle Kopiervorgänge funktionierenden Ar-tefaktverwaltung als Basis der informationstechnischen Unterstützung ist durch die Vielzahl der Marktteilnehmer sehr hoch und wird durch die jährliche Höhe der nicht zugeordneten Vergütungen an die Urheber deutlich belegt.

  • IST-Analyse vorhandener Metadatenstandards in der Musikbranche (Marktteilnehmer, ein-gesetzte Softwarelösungen und Schnittstellen)
  • Entwicklung einer Systematik für eine semantische Zuordnung der Metadaten zwischen den einzelnen Formaten
  • Erstellung eines übergreifenden Metadatenmodells

Wir bieten Ihnen:

  • Intensive Betreuung bei der Konzeption, Organisation und Durchführung Ihrer Abschlussarbeit
  • den Einstieg in ein interessantes Themengebiet mit Zukunftsperspektiven
  • die Möglichkeit der gemeinsamen Publikation der Ergebnisse
  • je nach Umfang und wissenschaftlicher Tiefe ein Bachelor- oder Masterarbeitsthema

Wir erwarten von Ihnen:

  • Studium der Informatik / Wirtschaftswissenschaften / Wirtschaftsinformatik oder vergleichbarer Studiengänge
  • Interesse und grundlegendes Verständnis für die Problematik der Dienstleistungsentwicklung und des Innovationsmanagements
  • eine selbständige und systematische Arbeitsweise

Ansprechpartner: Ronny Gey(Email) und Frank Schumacher (Email)

Darstellung und Einordnung aktueller Innovationsmodelle und –strategien in Bezug auf ein zukunftsorientiertes IT-Dienstleistungsmanagement. (Bachelor / Master)

Ihr Aufgabengebiet:
Für ein erfolgreiches Bestehen am Markt sind auch im IT-Dienstleistungssektor Innovationen und ein erfolgreiches Innovationsmanagement notwendig. Dieses muss den besonderen Anforderungen des IT-Bereichs sowie des Dienstleistungsmanagements genügen.

  • Einordnung, Beschreibung und Abgrenzung von Innovationsmodellen im aktuellen Diskurs
  • Einordnung, Beschreibung und Abgrenzung des Dienstleistungsmanagements im aktuellen Diskurs
  • Kritische Darstellung von Innovationsmodellen für Innovationen im IT-Dienstleistungsma-nagement
  • Gerne auch eigene Ideen / Themenvorschläge in diesem Rahmen

Wir bieten Ihnen:

  • Intensive Betreuung bei der Konzeption, Organisation und Durchführung Ihrer Abschlussarbeit
  • den Einstieg in ein interessantes Themengebiet mit Zukunftsperspektiven
  • die Möglichkeit der gemeinsamen Publikation der Ergebnisse
  • je nach Umfang und wissenschaftlicher Tiefe ein Bachelor- oder Masterarbeitsthema

Wir erwarten von Ihnen:

  • Studium der Wirtschaftswissenschaften oder vergleichbarer Studiengänge
  • Interesse und grundlegendes Verständnis für die Problematik der Dienstleistungsentwicklung und des Innovationsmanagements
  • eine selbständige und systematische Arbeitsweise
  • wissenschaftliche Sensibilität

Ansprechpartner: Ronny Gey(Email) und Michael Thieme (Email)

Darstellung unternehmerischer Handlungsoptionen innerhalb des Open Innovation Paradigmas (Bachelor / Master)

Ihr Aufgabengebiet:
Unter Open Innovation (Chesbrough 2003. Open Innovation: The new imperative for creating and profiting from technology.) wird allgemein die Öffnung des unternehmerischen Innovationsprozes-ses zur Außenwelt verstanden. Dies führt zu einer enormen Erweiterung von unternehmerischen Handlungsoptionen in Bezug auf das Innovationsmanagement. Diese sollen im Rahmen der Arbeit erfasst, kategorisiert und mit Hilfe ausgewählter Fallstudien belegt werden.

  • Einordnung, Beschreibung und Abgrenzung des Open Innovation Paradigmas innerhalb des Themenkomplexes Innovation und Innovationsmanagement
  • Ausarbeitung und Klassifizierung unternehmerischer Handlungsalternativen im Rahmen des Open Innovation Ansatzes
  • exemplarische Darstellung mehrerer Alternativen anhand von frei wählbaren Fallstudien (z.B. aus den Bereichen Open Source, Unternehmensnetzwerke, Patentierungsszenarien etc.)
  • Gerne auch eigene Ideen / Themenvorschläge in diesem Rahmen

Wir bieten Ihnen:

  • Intensive Betreuung bei der Konzeption, Organisation und Durchführung Ihrer Abschlussarbeit
  • den Einstieg in ein interessantes Themengebiet mit Zukunftsperspektiven
  • die Möglichkeit der gemeinsamen Publikation der Ergebnisse
  • je nach Umfang und wissenschaftlicher Tiefe ein Bachelor- oder Masterarbeitsthema

Wir erwarten von Ihnen:

  • Studium der Wirtschaftswissenschaften oder vergleichbarer Studiengänge
  • Interesse und grundlegendes Verständnis für die Problematik der Dienstleistungsentwicklung und des Innovationsmanagements
  • eine selbständige und systematische Arbeitsweise
  • wissenschaftliche Sensibilität

Ansprechpartner: Ronny Gey(Email) und Michael Thieme (Email)

Regionale Innovationsnetzwerke am Beispiel des Innovationsraumes Leipzig. (Bachelor / Master)

Ihr Aufgabengebiet:
Innovationsnetzwerke sind ein mögliches Szenario im Rahmen des Open Innovation Paradigmas für kleine und mittlere Unternehmen (KMU), um auf gestiegenen Kostendruck und einen mittlerwei-le globalen Wettbewerb zu reagieren. Gerade regionale Netzwerke mit häufig sehr informellen Strukturen haben sich als kreative, innovative und durchaus erfolgreiche Milieus bewiesen.

  • Einordnung, Beschreibung und Abgrenzung der Begriffe Innovationsnetzwerk und innovati-ve Milieus
  • Skizzierung des Innovationsraumes Leipzig und der darin vorhandenen Akteure anhand selbst zu entwickelnder Kriterien
  • Qualitative Bewertung des Innovationsraumes Leipzig als innovatives Milieu
  • Gerne auch eigene Ideen / Themenvorschläge in diesem Rahmen

Wir bieten Ihnen:

  • Intensive Betreuung bei der Konzeption, Organisation und Durchführung Ihrer Abschlussarbeit
  • Kontakt zu innovativen Firmen der Leipziger (Kreativ-)Wirtschaft
  • den Einstieg in ein interessantes Themengebiet mit Zukunftsperspektiven
  • die Möglichkeit der gemeinsamen Publikation der Ergebnisse
  • je nach Umfang und wissenschaftlicher Tiefe ein Bachelor- oder Masterarbeitsthema

Wir erwarten von Ihnen:

  • Studium der Wirtschaftswissenschaften oder vergleichbarer Studiengänge
  • Interesse und grundlegendes Verständnis für die Problematik der Dienstleistungsentwicklung und des Innovationsmanagements
  • eine selbständige und systematische Arbeitsweise
  • wissenschaftliche Sensibilität

Ansprechpartner: Ronny Gey(Email) und Michael Thieme (Email)

M3-Level-basierten Transformation zur Integration von ERP-Systemen

M3-Level-basierte Transformationen transformieren Modelle und deren Metamodelle auf Basis von Abbildungsregeln, die zwischen Meta-Metamodellen definiert wurden. Bisher wurde dieser Ansatz im Bereich der Metamodellierungswerkzeuge angewendet. Man kann allerdings davon ausgehen, dass die notwendige Struktur (ein Modellraum mit drei Modell-Ebene) ebenfalls in anderen Anwendungsbereichen vorkommt. Es wird angenommen, dass solch ein Modellraum auch im Bereich der betrieblichen Informationssysteme, speziell den ERP-Systemen, vorkommt. Ziel der Arbeit ist es diese Annahme zu bestätigen und darauf aufbauend eine M3-Level-basierte Transformation zwischen zwei ausgewählten ERP-Systemen zu entwickeln.


Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden. Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Heiko Kern.

Realisierung von Views und Viewpoints in EMF/GMF basierten Editoren

Mit Werkzeugen der modellgetriebenen Entwicklung wie dem Eclipse Modeling Framework (EMF) und dem Graphical Modeling Framework (GMF) lassen sich einfach Editoren für domänspezifische Sprachen erzeugen. Ein verbreitetes Problem ist die Realisierung von Sichten auf komplexen Sprachen um Benutzer mit der Komplexität eines Modells nicht zu überfordern, aber trotzdem ein konsitetntes Gesamtmodell zu erzeugen.


Ziel der Arbeit ist es im gegebenen Technikraum Möglichkeiten für die Realisierung dieser Anforderung zu entwicklen und zu evaluieren.


Anforderungen:

  • beherrschen einer Programmiersprache (Java)
  • Kenntnisse in EMF und GMF wünschenswert

Aufgaben:

  • Recherche existierender Verfahren
  • Konzeption geeigneter Verfahren
  • Implementierung auf Basis eines existierenden Editors für Unternehmensarchitekturen
  • Evaluation der implementierten Verfahren

Wir bieten:

  • exzellente Betreuung
  • Mitarbeit an Publikationen (falls gewünscht)

Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Martin Gebauer

Erstellung eines Systems zur Identifizierung von Ressourcen (Master / Diplom)


Ressourcen werden im Semantic Web mittels URI identifiziert und anhand dieser mit Metainformationen versehen. Allerdings ist es möglich, dass unterschiedliche URIs auf dieselbe reale Ressource zeigen. Im entstehenden Web of Data ist dieses Problem nach wie vor häufig anzutreffen, so dass unterschiedliche Dienste identische Ressourcen beschreiben, diese allerdings unterschiedlich identifizieren und somit eher schwach verknüpfte Dateninseln entstehen, als ein stark verknüpftes Web of Data.


Ziel der Arbeit ist es ein System zu erstellen, dass anhand von URIs und Metainformationen (sowohl in strukturierter als auch unstrukturierter Form) einer Ressource einen Abgleich mit einer anderen Datenbasis vollzieht und mögliche Übereinstimmungen nennt und gewichtet.


Ein solches System kann beispielsweise genutzt werden Produktinformationen zusammenzuführen. So publiziert Best Buy.com, einer der größten Einzelhändler, sein Sortiment mittels RDF. Ein einzelnes Angebot wird allerdings durch seine Best Buy URI identifiziert, andere Anbeiter, die das gleiche Produkt verkaufen, referenzieren diese jedoch nicht, obwohl Sie ähnliche Beschreibungsmechnismen verwenden. Mittels dieses Identifikationssystem wäre es möglich die Produktbeschreibungen auf die gleiche Ressource zusammenzuführen und so beispielsweise einen Preisvergleich zu ermöglichen.


Es soll in Abgrenzung zum (http://www.ontologymatching.org/ Object Matching)) auf eine existierende Forschungslücke gezielt werden. Ähnlich des Vorgehens bei ebXML soll ein Agreement Schritt zwischen zwei Wissensbasen vollzogen werden. Dies soll auf Grundlage eines vorher erstellten Datenprofils und bereits existierenden Mappings zu dritten Wissensbasen geschehen. Nach diesem Agreement soll es möglich sein on the fly Abgleiche zu erstellen und Identität zwischen URIs zu bestätigen.


Anforderungen:

  • beherrschen einer Programmiersprache (Java, PHP)
  • Kenntnisse im Bereich Semantic Web(Sören Auer) oder Datenintegration (Andreas Thor)
  • Erfahrung im Bereich des Erstellen von Mappings (z.B. durch eine Bachelorarbeit, Praktika)
  • die Einstiegshürde für die Thematik ist relativ hoch, da verschiedene Themen auf dem aktuellen Stand der Forschung angewendet werden müssen. Dafür bietet die Arbeit eine sehr gute Ausbaufähigkeit, da Sie sowohl Praxisrelevanz, als auch Forschungsrelevanz hat.

Aufgaben:


Wir bieten:

  • exzellente Betreuung
  • Mitarbeit an Publikationen (falls gewünscht)

Wenn dieses Thema Sie interessiert, bitte an Jörg Unbehauen wenden.

IBM: Abschlußarbeiten


IBM bieten die Möglichkeit, universitäre Abschlußarbeiten zum Schwerpunkt Digitale Spiele im Unternehmen zu erstellen. Im Rahmen des Diplomandenprogramms können aktuelle, wissenschaftliche Themen bearbeiten werden.


Zur Themenübersicht bei IBM


ITmitte.de - Empfehlung von Bewerbern für IT Jobs, Stellen und Praktika in Mitteldeutschland, insbesondere in Leipzig

Abschlussarbeiten bei ITmitte.de Partner-Firmen

BIS ist Partner von ITmitte. Zu den Abschlussarbeiten bei ITmitte.de Partner-Firmen.


Conversion of XML dataset to RDF

The aim of this task is to convert XML data to RDF.


The following steps should be done:

  1. Acquisition of the Google Patents and European Patent XML data
  2. Formulation of a schema to convert XML data to RDF, see example here: http://goo.gl/IUogC
  3. Implement a methodology to use the schema to convert the XML data to RDF

Students need the following prerequisites to perform this task:

  1. Programming skills
  2. Background on working with XML data

Contact: Amrapali Zaveri

Zur Zeit bearbeitete Themen (alphabetisch)

Ralf Rublack (Diplomarbeit): A Survey on Variability Modeling Tools and their Usage in Industry

Betreuer: Thorsten Berger


Anja Krabbes: Analyse von Handelsplattformen der Gaswirtschaft und Konzeption einer darauf aufbauenden Produktlinie (Arbeitstitel)

Bachelorarbeit
Betreuer: Uni Leipzig: Thomas Riechert, Thorsten Berger
ECG Erdgas-Consult GmbH: Marco Täschner


Zeitraum: 01.02.2008 – 31.05.2008


Inhalt


Martin Weise: Evaluation und Integration eines Map Abstraction Layers in vakantieland (Bachelorarbeit)

Das holländische Tourismusportal vakantieland wurde als semantische Web-Applikation redesigned und mit aktuellen Technologien wie RDF und SPARQL versehen. Derzeit wird die GoogleMap-Api zur Darstellung von POIs (Point Of Interests) auf entsprechenden Kartenausschnitten im Browser (mit aktiviertem und ausgeschaltetem Java Script) verwendet. Allerdings ist es mit Map Abstraction Layers wie openlayers und mapstraction möglich, die Darstellung von Karten unabhängig von einem speziellen Kartenabieter zu gestalten. Hierzu sind die anwendungsfallspezifischen Funktionalitäten zu ermitteln und eine performante Implementierung zu erstellen. Kenntnisse in PHP, Java Script und Ajax nicht notwendig aber von Vorteil.


Ansprechpartner: Michael Martin


Richard Beyer: ...


Betreuer: Thomas Riechert


Björn Buchwald (Bachelorarbeit): Integration von Geodaten in ein Planungssystem

Beschreibung:
WILMA veranstaltet regelmäßig das WILMA Dinner-Hopping um den Leipziger Austauschstudenten die Kontaktaufnahme untereinander und zu deutschen Studenten zu erleichtern. Dabei bewirten die Studenten in 2er-Teams in ihrer Wohnung für einen Gang eines 3-Gänge-Menüs vier andere Studenten, bei den beiden anderen Gängen sind sie dann zu Gast bei ihren Kommilitonen. Für die Unterstützung der Routenplanung unter Beachtung von Nebenbedingungen und Benachrichtigung der Teilnehmer soll eine Softwarelösung konzipiert und umgesetzt werden.


Betreuer: Michael Thieme


Abgeschlossene Arbeiten

Diese sind auf einer Extra-Seite zu finden.


 
Zu dieser Seite gibt es 2 Dateien. [Zeige Dateien/Upload]
Kein Kommentar. [Zeige Kommentare]