Abgeschlossene Arbeiten

Zu den aktuell bearbeiteten Arbeiten.


Inhalt

2011

Torsten Kretzschmar: Produktkonfiguration mit Hilfe des Open-Source-E-Commerce Werkzeuges Zen Cart


Bachelor Praktikum / Bachelorarbeit


Ein Produktkonfigurator ist eine Software, die zum Lösen eines Konfigurationsproblems benutzt wird. Im Umfeld des E-Commerce ermöglichen Produktkonfiguratoren mittels vorher definierter Beziehungen die kundenindividuelle Anpassung eines Produktes, auch Mass Customization genannt. Er ist damit die Schnittstelle zwischen Kunde und Anbieter. Beispiele sind Car-Konfiguratoren der Autohersteller.


Im Rahmen der ausgeschriebenen Abschlussarbeit soll auf Basis der Open-Source-E-Commerce-Systeme Zen Cart ein Produktkonfigurator erarbeitet werden. Dieser soll es einerseits ermöglichen, die entsprechenden Produkteigenschaften initial zu erfassen und andererseits dem Kunden dabei helfen, ein Produkt entsprechend vorgegebener Kriterien im Sinne einer Verkaufsberatung zu konfigurieren und das so konfigurierte Produkt anschließend sofort zu bestellen.


Betreuer: Kyrill Meyer


Dennis Welz: Ein Editor für Service Blueprints


Bachelorarbeit


Service Blueprinting ist eine Methode für die grafische Analyse und Darstellung von Geschäftsprozessen im Dienstleistungsbereiche. Die Blueprints haben eine einfache Syntax und sind als Managementinstrument sehr hilfreiche.
Im Rahmen der ausgeschriebenen Abschlussarbeit soll ein einfacher webbasierter Editor für die Erstellung von Service Blueprints umgesetzt werden.


Ansprechpartner: Kyrill Meyer

2010

Christoph Riess: Evaluations-Pattern in Semantic Web Wissensbasen


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Elena Kop: Eine Semantic Web Ontologie für den Gasmarkt


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Konrad Abicht: Gewichtung von Aussagen in RDF Graphen

Diese Bacherlorarbeit soll verschiedene Möglichkeit zur Gewichtung von Aussagen in RDF Graphen untersuchen und einen Prototypen für eine Graph-Visualisierung mit gewichteter Darstellung von Kanten hervorbringen.


Betreuer: Sebastian Tramp
Mehr Infos: http://aksw.org/


Natanael Arndt: Entwicklung eines mobilen Social Semantic Web Clients

Diese Bachelorarbeit hat zum Ziel, einen Social Semantic Web Client für die Android-Plattform zu entwckeln. Dieser Client soll in der Lage sein, sowohl den Social Graphen des Nutzers zu visualisieren, als auch den Graphen zu erweitern (neue Bekannte hinzufügen).


Betreuer: Sebastian Tramp
Mehr Infos: http://aksw.org/http://code.google.com/p/mssw/


Rolland Brunec: Ein modularer und backend-unabhängiger SPARQL / SPARUL Parser für PHP


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Jonas Brekle: Spezifikation, Implementierung und Integration einer abstrakten SPARQL Query Klasse für die Erfurt-API

In this bachelor thesis I documented the planning and programming of an SPARQL-query class for the Erfurt-API and it’s integration with Onto Wiki – an Agile Knowledgement Engineering Tool. It is used as an Abstract Syntax Tree (AST) by a SPARQL-Parser or directly by program logic to represent a query that can be flexibly handled.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Atanas Alexandrov: Tagging in Semantischen Daten-Wikis

Ziel der Arbeit ist die Entwicklung einer Tagging – Komponente für die Verschlagwortung von beliebigen Ressourcen in einem semantischen Daten-Wiki. Dabei sollen folgende Tagging-Möglichkeiten gegeneinander untersucht werden:

  • Klassisches vs. semantisches Tagging
  • Community- vs. Nutzerzentriertes Tagging
  • Nutzer- vs. Computergeneriertes Tagging

Die Arbeit beinhaltet die Konzeption und Implementierung der Tagging-Komponente für das semantische Daten-Wiki OntoWiki, welche obigen Tagging-Methoden implementiert.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Jörg Heinicke: Entwicklung eines Modells zur Progrnose des Lastbedarfs in einem Versorgungsgebiet

Ziel der Arbeit ist, ein Prognosemodell aufzubauen, welches den Lastbedarf für ein Versorgungsgebiet vorhersagen kann. Dieses Modell soll die Einflussfaktoren Lasthistorie, Wetter (Temperatur, Luftfeuchte, Globalstrahlung, ...) und kalendarische Merkmale berücksichtigen und auf dieser Basis Resttags-, Folgetags-, Monats- und Jahresprognosen anfertigen. Die Ergebnisse des Modells sind dann auf der einen Seite mit den Prognosen anderer Modelle und auf der anderen Seite mit gemessenen Lastwerten zu vergleichen.


Die Diplomarbeit wird in Zusammenarbeit mit der LEM Leipzig durchgeführt.
Das Ingenieurbüro Last- und Energiemanagement (L.E.M.) wurde 1997 aus der damaligen Technischen Hochschule Leipzig heraus gegründet. Seit dem entwickelt L.E.M. Softwareprodukte für den liberalisierten Energiemarkt. Die Hauptanwender sind Energieversorger und die Industrie. Die L.E.M. Software dient der Datenhaltung, Datenanalyse, Prognose des Strom-, Gas-, Wärme- oder Wasserbedarfs und Prognose der Einspeiseleistung aus erneuerbaren Energien. Weiterhin wird der Handel bzw. die Beschaffung von Energie in einem Portfolio- und Risikomanagement abgebildet.


Betreuer an der Universität Leipzig: Kyrill Meyer


bei der L.E.M. Leipzig:
Dr. Harald Heinrich
L.E.M. Ingenieurbüro Last- und Energiemanagement
Moschelesstr. 7
04109 Leipzig
Tel.: 0341 1245947
E-mail: harald@lemleipzig.com


Martin Meinhold: Integration von Legacy-Anwendungen durch eine Beobachter-Architektur

In dieser Masterarbeit soll eine spezielle Technik der Systemerweiterung und der Systemintegration untersucht werden, welche auf einer Agententechnologie beruht. Diese ist besonders für Situationen geeignet, in denen traditionelle Methoden (z.B. Servicifizierung) aufgrund der Aufgabenstellung nicht gerechtfertigt sind. Eine besondere Klasse von Problemen bildet dabei die Integration von Legacy-Anwendungen, bei der es darum geht, die Vorzüge der bewährten Anwendungen zu erhalten und zu verbessern. Es soll ein Integrationsszenario beschrieben werden, bei welchem eine traditionelle Altanwendung auf COBOL-und Mainframebasis um E-Procurement-Funktionalitäten erweitert werden können. Am Ende soll ein Showcase im Integrationslabor entstehen.


Betreuer: Fred Stefan
Mehr Infos: Integrationslabor


Anbindung externer Datenquellen an ein Praxisinformationssystem mit Hilfe der GDT-Schnittstelle


Bachelorarbeit


Über die xDT-Schnittstellen ist im Bereich der Medizin der Austausch zwischen Geräten und Informationssystemen in kleinem Maßstab möglich. Für einen Anwendungsfall ist eine solche Anbindung zu konzipieren und umzusetzen. Dabei ist eine externe Hardware als Bild- und Datenquelle an ein existierendes Praxisinformationssystem (elektronische Patientenakte) unter Nutzung der GDT-Schnittstelle anzubinden.


Betreuer: Kyrill Meyer

2009

Steffen Becker: Musikempfehlungen im Semantic Web

Jamendo ist eine Internet-Plattform für freie Musik mit über 10000 veröffentlichten Alben, über 60000 Album-Rezensionen und fast einer halben Million aktiver Mitglieder. Lieder können kostenfrei abgespielt werden und viele Informationen über Alben, Lieder, Tags usw. sind inzwischen ebenfalls frei und Semantic Web konform verfügbar. Ziel der Arbeit ist es ein Tool für Musikempfehlungen in Jamendo (mit potentiellen Erweiterungen auf andere verfügbare Musik) zu entwickeln. Dazu soll unter Einbindung zum Beispiel des Yahoo! Media Players ein kleines “Web-Radio” entwickelt werden, welches auf Jamendo verfügbare Lieder abspielt und im Hintergrund den DL-Learner als Machine Learning Tool verwendet um Musikempfehlungen zu bekommen.


Ihre Aufgabe ist:

  • Entwickeln einer (strukturell recht einfachen) Web-Oberfläche
  • Einarbeitung in und Anbindung an den DL-Learner und Jamendo
  • Test & evtl. Weiterentwicklung der Musikempfehlungen

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web, insbesondere OWL 
  • Interesse an Machine Learning (anwendungsorientiert)

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Philipp Frischmuth: Interwiki-Kommunikation in semantischen Daten-Wikis

Semantische Wiki könnten sich als eine der Killer-Applikationen des Semantic Web herausstellen, da sie die Prinzipien und Technologien des Semantic Web “im Kleinen” nutzen und somit das Potential semantischer Technologien mehr ausschöpfen als andere Applikationen. Diese “Semantischen Inseln” im Web sollen nun im nächsten Schritt miteinander, und mit anderen semantischen Applikationen, kommunizieren können. Ziel der Arbeit ist ein Konzept und die Implementierung für eine solche Kommunikation zwischen Semantischen Wikis und anderen Semantischen Datenquellen.
Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Nomunbilegt Batsukh: Unterstützung von Online Shop Systemen mit Semantischen Technologien

Ziel der Arbeit ist die Konzeption, prototypische Implementierung und Evaluation eine semantischen Online Shop Erweiterung für den ebrosia.de Weinshop. Die vorhandenen Shopdaten sollen in einen RDF Triple Store auf Basis von Onto Wiki überführt werden und der existierende Shop durch zusätzliche Widgets z.B. für facettenbasiertes Browsen erweitert werden. Die Arbeit ist in das Bmb F Projekt LE4SW integriert und wird in Zusammenarbeit mit der ebrosia GmbH & Co. KG betreut.


Betreuer: Sebastian Dietzold (BIS, Uni Leipzig), Mathias Lieber (ebrosia)
Mehr Infos: http://aksw.org/


Norman Heino: Intelligente RDFa Widgets

Ziel der Arbeit ist das Konzept, die Spezikation und die Implementierung von intelligenten RDFa Widgets für den Einsatz in read/write Web-Mashup und Onto Wiki. Die Widgets sollen sich insofern intelligent verhalten, als das sie Context- und Hintergrundwissen von SPARQL-Endpoints und über Linked Data beziehen und daraus Entscheidungen über die zu präsentierenden Oberflächenelemente ableiten.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Jörg Unbehauen: Konzept und Implementierung eines Semantischen Agenten

Ziel der Arbeit ist die Konzeption und Implementierung eines Semantischen Agenten für das Instant Messaging Network Jabber (d.h. auf Basis von XMPP). Dieser Agent soll in der Lage sein, über XMPP gestellte Anfragen zu interpretieren und mit Hilfe einer RDF Knowledge Base zu beantworten. Der Agent kommuniziert dabei sowohl mit seinem Nutzer als auch mit anderen Agenten.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/Projects/xOperator


Martin Peklo: Konzept und Implementierung einer Java Script RDF API


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Feng Qiu: Semantisches Plugin Repository

Ziel der Arbeit ist die Realisierung eines Registrierungsportals für Onto Wiki Erweiterungen und einem dazugehörigen Repository-Client im Onto Wiki, welcher die Recherche von Plugins und Funktionalitäten wie Auto-Update und Installation unterstützt. Das Repository soll dabei auf semantischen Technologien aufbauen und somit stark verteilte und vernetzte Plugin-Beschreibungen unterstützen.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Patrick Wabnitz: Evaluation des IBM Web Sphere Message Brokers zur datei-basierten Integration

Viele etablierte Integrationslösungen stoßen schnell an ihre Grenzen, sobald Legacy-Anwendungen der älteren Generation involviert sind. Da diese Anwendungen nicht nach den heutigen Prinzipien der Portabilität und Flexibilität konzipiert wurden, fehlen oft geeignete Schnittstellen, um sie in eine möglichst flexible IT-Infrastruktur integrieren zu können. Hierfür existieren viele Integrationsmuster. Eines davon ist die nachrichtenbasierte Integration.


Ziel der Arbeit ist es, den IBM Web Sphere Message Brokers näher zu untersuchen und den nachrichtenbasierten Ansatz zur Integration einer Flatfile-basierten Legacy-Anwendungen exemplarisch im Integrationslabor zu realisieren.


Betreuer: Fred Stefan
Mehr Infos: Integrationslabor


Faceted Browsing für DBpedia


Diplomarbeit


Betreuer: Sören Auer


Ausnutzung von Mehrsprachigkeit für die DBpedia-Infobox Extraktion


Diplomarbeit


Betreuer: Sören Auer


Michael Lühr: IT-basierte Dienstleistungen als Mittel der überbetriebliche Information und Organisation

Bachelor-Arbeit


IT-basierte Dienstleistungen können an vielen Stellen die überbetriebliche Zusammenarbeit unterstützen und dabei den notwendigen Datenaustausch realisieren. Dafür ist es jedoch notwendig, dass ein Service Engineering erfolgt, um die Dienstleistung zu erstellen (Prozesse analysieren, Ressourcen verstehen und die Leistungen ableiten) und auf eine die entsprechende softwaretechnische Unterstützung umgesetzt wird.


Die Aufgabe der Arbeit lautet:

  • Einarbeitung in ein Fallbeispiel (kassenärztlicher Notfalldienst) und Durchführung des Service Engineerings unter vorgegebenen Parametern.
  • Realisierung einer technischen Unterstützung für die konstruierte IT-basierte Dienstleistung als Komponente für das Content Management System Joomla.
  • Dokumentation der Ergebnisse.

Betreuer: Kyrill Meyer


Patrick Arnold: Vergleichende Untersuchung zweier Web-Plattformen zur IT-Unterstützung eines Regionalentwicklungs-Netzwerks


Art der Arbeit: Bachelorarbeit
Zeitraum: 06/2009 – 10/2009
Betreuung: Hans-Gert Gräbe
Siehe Übersicht der Abschlussarbeiten


Tom-Michael Hesse: Zur Koevolution von Wissen und Information


Art der Arbeit: Bachelorarbeit
Zeitraum: 06/2009 – 09/2009
Betreuung: Hans-Gert Gräbe
Siehe Übersicht der Abschlussarbeiten


Marvin Frommhold: Integration des Elate-Aufgabenframeworks in die LMS-Plattform OLAT


Art der Arbeit: Bachelorarbeit
Zeitraum: 06/2009 – 09/2009
Betreuer: Hans-Gert Gräbe
Siehe Übersicht der Abschlussarbeiten


Daniel Gerber: Operative Prozessunterstützung durch Integration einer Prüfungsverwaltung in das LMS OLAT


Art der Arbeit: Bachelorarbeit
Zeitraum: 06/2009 – 09/2009
Betreuung: Hans-Gert Gräbe
Siehe Übersicht der Abschlussarbeiten

2008

Sebastian Knappe: Navigation in DBpedia mit Hilfe maschinellen Lernens

Anfang 2007 wurde das sehr erfolgreiche DBpedia-Projekt gegründet. Ziel dieses Projektes ist es Informationen aus Wikipedia zu extrahieren und sie mit anderen Wissensbasen zu verbinden. Wikipedia ist eine der am häufigst besuchten Seiten weltweit (Position 9 im 3. Viertel 2007 laut http://alexa.com) auf der von Menschen eine riesige Menge an Wissen zusammengetragen wird. Eine Herausforderung bei den großen Mengen von innerhalb des DBpedia-Projektes extrahierten Informationen ist Navigationsmöglichkeiten innerhalb der DBpedia-Daten anzubieten. Genauer sollen ausgehend von ausgewählten Objekten (z.B. konkreten Personen) abstrakte Beschreibungen (z.B. “weibliche Politiker”) für diese Objekte gefunden werden um dann ähnliche Objekte zeigen zu können, zu denen der Nutzer navigieren kann. Für den ersten dieser beiden Schritte soll dabei das OWL-Lernsystem DL-Learner eingesetzt und erweitert werden.


Ihre Aufgabe ist:

  • erweitern des DL-Learners für die oben beschriebene Aufgabe
  • implementieren eines Webuserinterfaces in PHP zur praktischen Umsetzung der Aufgabe (Kommunikation mit dem DL-Learner erfolgt über dessen Web-Service-Schnittstelle)

Betreuer: Jens Lehmann


Vu Duc Minh: Integration eines OWL-Reasoners und eines OWL-Lernsystems in Ontowiki

Ontowiki (http://ontowiki.net/) ist ein Ontologie-Editor zur Unterstützung agiler, verteilter Verarbeitung von Wissensbasen. Die Aufgabe eines OWL-Reasoners (z.B. Pellet, KAON2, Fact++, Racer) ist es implizit und explizit in einer Ontologie vorhandenes Wissen zu ermitteln. Der Reasoning-Service ist somit einer der zentralen Komponenten eines Ontologie-Editors. Auch die Integration von Tools zur einfacheren Konstruktion von Ontologien mit Methoden des maschinellen Lernens ist eine sinnvolle Erweiterung und ein aktuell interessantes Forschungsgebiet. In diesem Bereich entwickeln wir die Software DL-Learner. Eine Herausforderung besteht darin diese Komponenten in geeigneter Weise zu integrieren.


Betreuer: Jens Lehmann, Sebastian Dietzold


Thomas Kappel: Integration von Sozialen Netzwerken

Das Internet ist in den letzten Jahren immer weiter in die privaten Bereich der Menschen vorgedrungen. So ist es nicht verwunderlich, dass hier auch immer mehr soziale Netzwerke aufgebaut werden, einige von ihnen erweitern die Kommunikation realer Netzwerke, andere finden sich nur im Netz wieder.


Die Nutzung dieser häufig versteckten Kapazitäten soll im Mittelpunkt dieser Masterarbeit stehen:
Ziel ist die Integration bestehender sozialer Netzwerke in ein zentrales Portal – in diesem Fall in OntoWiki.


Die zahlreichen virtuellen Identitäten des Benutzers können in dieses Portal eingebunden werden, die im jeweiligen Netzwerk aufgefundenen Informationen über diesen und andere Nutzer werden dann
gesammelt und für den Nutzer transparent dargestellt. Für diesen selbst spielt es kaum eine Rolle, auf welchem Wege er einen Kontakt zu einem anderen Nutzer aufbaut, ganz gleich zu welchem Netzwerk
er gehört. Soziale Netzwerkdienste (Social Network Services, SNS) wie Xing und Studi VZ sollen
dabei ebenso berücksichtigt werden können wie lokale E-Mail- und Instant-Messaging-Adressbücher.
Einige dieser Schnittstellen sollen im Rahmen dieser Masterarbeit bereits in Software umgesetzt und erprobt werden.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Christian Kötteritzsch: DL-Learner-Plugin für Protegé

Protegé ist einer der am häufigsten genutzten OWL-Ontologie-Editoren. Protegé ist in Java geschrieben und besitzt eine ausgereifte Plugin-Architektur. Ziel der Arbeit soll es sein ein Plugin für DL-Learner (ein Tool zum Lernen von Ontologieklassen) in Protegé zu entwickeln.


Ihre Aufgabe ist:

  • Entwicklung eines DL-Learner-Plugins für Protegé

Kenntnisse:

  • Java-Kenntnisse sind erforderlich (sowohl Protegé als auch DL-Learner sind in Java geschrieben)
  • Studium der Informatik oder vergleichbarer Studiengänge

Wir bieten:

  • eine umfangreiche Betreuung
  • Teamarbeit in der Forschungsgruppe AKSW
  • Mitarbeit an interessanten und erfolgreichen Projekten

Die Arbeit kann auch als Bachelorpraktikum+Bachelorarbeit absolviert werden.


Betreuer: Jens Lehmann


Lorenz Bühmann: Ontology Repair and Enrichment


Betreuer: Jens Lehmann


Maria Moritz: Integration eines OWL-Reasoners und eines OWL-Lernsystems in Ontowiki

Ontowiki (http://ontowiki.net/) ist ein Ontologie-Editor zur Unterstützung agiler, verteilter Verarbeitung von Wissensbasen. Die Aufgabe eines OWL-Reasoners (z.B. Pellet, KAON2, Fact++, Racer) ist es implizit und explizit in einer Ontologie vorhandenes Wissen zu ermitteln. Der Reasoning-Service ist somit einer der zentralen Komponenten eines Ontologie-Editors. Auch die Integration von Tools zur einfacheren Konstruktion von Ontologien mit Methoden des maschinellen Lernens ist eine sinnvolle Erweiterung und ein aktuell interessantes Forschungsgebiet. In diesem Bereich entwickeln wir die Software DL-Learner. Eine Herausforderung besteht darin diese Komponenten in geeigneter Weise zu integrieren.


Betreuer: Jens Lehmann, Sebastian Dietzold


Rolland Brunec: Extending OntoWiki with a Manchester OWL Syntax Parser

Betreuer: Jens Lehmann


Leszek Kotas: Evaluation und Erweiterung des Onto Wiki Plugin-Systems (Bachelorarbeit)

Das nachhaltiges Wachstum eines Open-Source Projektes hängt im extremen Maße von einer aktiven Community ab, welche sich um dieses Projekt bildet. Eine wichtige Möglichkeiten der Wachstumsförderung einer Community ist die Bereitstellung einer Umgebung, mit welcher Mitglieder der Community an der Applikation programmieren können ohne alle Einzelheiten des Gesamtsystems kennen zu müssen. Dies sollte auch durch eine entsprechende Einstiegsdokumentation unterstützt werden.
Ziel der Arbeit ist die Evaluation und Erweiterung des Onto Wiki Plugin-Systems, damit es Community-Building Anforderungen genügt.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org


Thanh Nghia Lam: SPARQL Templates für die Darstellung von RDF Inhalten in einem Wiki (Bachelorarbeit)

Ziel der Arbeit ist die Erstellung bzw. Erweiterung eines Semantischen Datenbank welche die organisatorischen Inhalte des BIS Lehrstuhles enthält. Darauf aufbauend sollen im zweiten Schritt Wiki-Templates erstellt werden, welche mit Hilfe von SPARQL Abfragen Visualisierungen der RDF Daten in unserem Wiki produzieren.


Keywords: PHP, RDF, Wiki, SPARQL
Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.org/


Tilo Hielscher: Entwicklung einer Java-basierten Oberfläche für DL-Learner

DL-Learner ist ein Machine Learning Tool für die weit verbreitete Ontologiesprache OWL. Neben der existierenden Kommandozeilenbenutzung für DL-Learner soll innerhalb der Arbeit eine graphische Oberfläche entwickelt werden. Da DL-Learner in Java geschrieben ist, bieten sich hier auf Java basierende Toolkits wie Swing oder SWT an.


Ihre Aufgabe ist:

  • Entwicklung einer graphischen Benutzeroberfläche für DL-Learner

Erforderliche Kenntnisse:

  • Java-Kenntnisse
  • Kenntnisse in einer auf Java basierenden GUI-Bibliothek
  • Studium der Informatik oder vergleichbarer Studiengänge

Wir bieten:

  • eine umfangreiche Betreuung
  • Teamarbeit in der Forschungsgruppe AKSW
  • praxisnahe Mitarbeit an einem Open Source Projekt

Die Arbeit kann auch als Bachelorpraktikum+Bachelorarbeit absolviert werden.


Betreuer: Jens Lehmann


Sebastian Hellmann: Comparision of Concept Learning Algorithms for Terminologies


Die auf Beschreibungslogiken (Description Logics) basierende Ontologiesprache OWL ist einer der Grundbausteine des Semantic Web. Die Erstellung von Ontologien ist jedoch eine schwierige Aufgabe, so dass ein großer Bedarf an Werkzeugen zur Unterstützung des (halb-)automatischen Erstellens von Ontologien besteht. Als ein möglicher Lösungsweg wurden bereits verschiedene Ansätze zum Lernen von Klassen aus Beispielen entwickelt (siehe PDF DocumentDiplomarbeit Jens Lehmann und weitere Referenzen) und teilweise in praktischen Systemen umgesetzt.


Ihre Aufgabe ist:


  • Beschreibung und Vergleich der Charakteristika existierender Algorithmen zum Lernen von Konzepten aus Beispielen
  • Beschreibung konkreter Anwendungsszenarien
  • entwickeln bzw. verwenden von Benchmarks zum Vergleich dieser Systeme und Evaluation der Ergebnisse (optional auch die Entwicklung eines eigenen Ansatzes)

Interesse an folgenden Fachgebieten ist für die Bearbeitung der Arbeit vorteilhaft:


  • Semantic Web, insbesondere OWL 
  • Machine Learning
  • Description Logics

Vorwissen wird nicht erwartet, sondern kann ggf. während der Arbeit vermittelt werden. Ein Studium der Informatik oder vergleichbarer Studiengänge wird vorausgesetzt.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. In einer ambitionierten Arbeit geben wir Ihnen die Möglichkeit auf einem sehr aktuellen Forschungsgebiet mit guter Zukunftsperspektive sowohl theoretische als auch praktische Aufgaben zu übernehmen.


Betreuer: JensLehmann
Keywords: Machine Learning, Semantic Web, OWL, Description Logics, Benchmarks


Tom Weiland: Controller Design für Semantische Webanwendungen

Betreuer: Jens Lehmann


Ruslan Masold: Verwendung von Benutzeroberflächen mit Web 2.0 Technologien in einer semantischen Webapplikation

Betreuer: Jens Lehmann


Stefan Berger: Access Control on Triple Stores (Diplomarbeit)

Keywords: RDF, PHP, Semantic Web, Access Control, Triple Stores
Betreuung: Sebastian Dietzold


Michael Haschke: Semantic Personal Knowledge Management

Das Semantic Web ist eine Erweiterung der bisherigen Infrastruktur des Webs um eine semantische Schicht. Personal Knowledge Management (PKM) stellt ein über Ziele definiertes System zur Organisation persönlich wichtiger Informations- und Wissenseinheiten dar. Beides kann miteinander angewendet werden. Diese Arbeit analysiert die Anforderungen und derzeitige Grundlagen für ein persönliches Wissensmanagement basierend auf Technologien des Semantic Web. Weiter wird die Integration von PKM in Onto Wiki, einer agilen, wiki-ähnlichen Semantic Web-Applikation, spezifiziert und implementiert.


Betreuer: Sebastian Dietzold
Mehr Infos: http://aksw.informatik.uni-leipzig.de/


Jan Hellich: IT-Risikoanalyse und IT-Risiko-Ontologie Im Rahmen einer Risikoanalyse für die Carl Zeiss Jena Gmb H


Betreuer: Thomas Riechert


Enrico Hörnig: Eine flexible und wartbare Umsetzung des Beschlusses BK6–06–009 zur Liberalisierung des deutschen Strommarktes durch Anwendung modellgetriebener Softwareentwicklungsprinzipien


Betreuer: Stefan Kühne
Keywords: Modellgetriebene Softwareentwicklung, Generative Softwareentwicklung, Software-Evolution, BK6–06–009 der Bundesnetzagentur, EDIFACT


Jens Keller: Wiederverwendung beim Entwurf domänenspezifischer Modellierungssprachen im Kontext modellgetriebener Softwareentwicklung unter Nutzung des EMF/GMF-Frameworks am Beispiel der Domäne prozessbasierte Integration im E-Government


Betreuer: Stefan Kühne
Keywords: Modellgetriebene Softwareentwicklung, Modelltransformation, Service-orientierte Architektur (SOA), Wiederverwendung


Thomas Sobik: Management von Standard Operation Procedures

Analyse von Anforderungen für den Einsatz im Kontext Klinischer Studien und Evaluation eines bestehenden Werkzeuges.
Das Bachelor-Praktikum zu dieser Arbeit wurde im Institut für Medizinische Informatik, Statistik und Epidemiologie geleistet.


Betreuer: Sebastian Dietzold


Steffen Dienst: Ein Framework für Online-Tests in einer verteilten serviceorientierten Architektur


Betreuer: Hans-Gert Gräbe
Mehr Infos: Elate-Projekt


Edouard Daoud: Verwaltung und Ausführung funktionaler Testfälle mit Testlink und Tormid


Art der Arbeit: Diplomarbeit
Zeitraum: 07/2008 – 01/2009
Hans-Gert Gräbe, zusammen mit Frank Stummer, ipoque Leipzig
Die Arbeit ist nicht öffentlich verfügbar

2007

Anke Gonschorreck: Extraktion einer Klassenhierarchie basierend auf den Wikipedia-Kategorien

Betreuer: Jens Lehmann


Fan Zhang: Internationalisierung und Usability von Ontologie-Editoren am Beispiel Onto Wiki

Betreuer: Jens Lehmann


Katrin Baasch: Der Einsatz eines interaktionsorientierten und kooperativen Werkzeugs zur Erhebung von Anforderungen im E-Gevernment

Betreuer: Thomas Riechert


Jan Fienhold: Strukturierung von Lernobjekten durch Lerngemeinschaften auf Basis von interaktionsorientierten und kollaborativen Technologien

Betreuer: Thomas Riechert


Atanas Alexandrov: Implementierung eines alternativen RDF Store Backends für Onto Wiki auf Basis der Oracle 10g Triple Funktionalitäten und Ablage einer Topic Map der Domäne «Schlafstörungen» (Bachelorarbeit)


Ziel der Arbeit ist die Implementierung eines Datenbank-Backends für Onto Wiki. Alternativ zu den herkömmlichen relationalen Datenbanken, welche in Onto Wiki durch die generische DB-Layer API adodb angesprochen werden, soll ein Backend entstehen, welche direkt die von Oracle zur Verfügung gestellten Triple-Operationen nutzt. Die Implementierung soll sich in die bestehende API integrieren, im üblichen Maße dokumentiert sein (phpdoc) und in guter Kommunikation mit dem Rest des Entwickler-Teams entstehen.


Eine weitere Zielsetzung der Arbeit ist die Nutzung des Datenbank-Backends zur Ablage eines RDF-Modells einer Topic Map. Die Topic Map der Domäne «Schlafstörungen» soll in Zusammenhang mit dem von Robotron koordinierten EU-Projekt ENN-ICS (European Neurological Network – Interactive Communication System) entwickelt werden. Entsprechende Entitäten der Topic Map werden in Form von Glossarbegriffen bereitgestellt.


Die Arbeit umfasst insbesondere:

  • Einarbeitung in das Resource Description Framework (RDF) und Co-Standards
  • Einarbeitung in die Oracle 10g Triple Funktionalitäten
  • Entwicklung eines Datenbank-Backends für Onto Wiki auf Basis der Oracle 10g Triple Funktionalitäten
  • Konzeption und Implementierung einer Topic Map der Domäne «Schlafstörungen» als RDF-Modell
  • Ablage des RDF-Modells unter Verwendung des entwickelten Datenbank-Backends
  • Referenzierung bereitgestellten Glossarbegriffe aus der Topic Map 
  • Dokumentation der Ergebnisse

Betreuer BIS: Sebastian Dietzold
Betreuer Robotron (Industriekontakt): Lars Geldner, Robotron Datenbank-Software Gmb H


Links: Interner Bereich
Keywords: RDF, PHP, Semantic Web, Triple Stores, Oracle


Martin Peklo: Semantische Supportdatenbank (Bachelorarbeit)

Betreuung: Sebastian Dietzold
Keywords: RDF, PHP, Semantic Web, Industry Use Case, Lecos


Kristian Voelpel: Design and implementation of an RDF-template language

Betreuer: Sören Auer
Mehr Infos: http://aksw.informatik.uni-leipzig.de/


Christian Weiske: Efficient database implementation and enhancements for SPARQL

Betreuer: Sören Auer
Mehr Infos: http://aksw.informatik.uni-leipzig.de/


Du hast keine Leseberechtigung für den Quelltext.

Qinli Liu: Software tests – the way from concept to test execution for custom software


Art der Arbeit: Diplomarbeit
Zeitraum: 06/2008 – 01/2009
Hans-Gert Gräbe, zusammen mit Karl-Friedrich Bach, Frank Hollenberg, IBM Kiel


Udo Huscheck: Automatisierte Verfeinerung domänenspezifischer Modellierungssprachen durch Modelltransformationsansätze am Beispiel der Serviceorchestrierung in der E-Government-Domäne Meldewesen


Betreuer: Stefan Kühne
Keywords: Modellgetriebene Softwareentwicklung, Modelltransformation, Refinement


Jörg Schüppel: Extraction of Semantics from Wikipedia

Betreuer: Sören Auer, Jens Lehmann
Mehr Infos: http://aksw.org/Projects/dbpedia
Keywords: Wikipedia, Semantic Web, Extraction


Enrico Popp: Web DAV Dateisystem für RDF Modelle und tagged Files

Ziel der Arbeit ist die Spezifikation und Implementierung eines Web DAV-basierten Filesystems, welches den Zugriff auf RDF Modelle und getaggte Dokumente zur Verfügung stellt. Grundidee ist die Generierung einer Strukur aus Verzeichnissen, Dateien und Web DAV- Metadaten auf Basis eines semantischen Wikis. Diese Arbeit ist in das Forschungsprojekt Soft Wiki eingegliedert.


Betreuer: Sebastian Dietzold
Keywords: SemanticWeb, RDF, WebDAV, Tags, PHP


Marco Schubert: Analyse und Transformation agiler Entwicklungsprozesse des Software Engineering auf den Bereich des Service Engineering


Kurzdarstellung
Das Service Engineering etabliert sich zunehmend als vergleichbare Disziplin zum Software und Produkt Engineering. Diesbezüglich wurden verschiedene Vorgehens- und Entwicklungsmodelle zur strukturierten Planung und Erstellung von Dienstleistungen entwickelt, welche sich sehr stark an einem phasenorientierten Vorgehen anlehnen. Demgegenüber werden insbesondere im Software Engineering zunehmend neben den „monolithischen“ Entwicklungsprozessen (bspw. V-Modell) agile Methodiken (bspw. Extreme-Programming) entwickelt und eingesetzt. Die Vorteile dieser Herangehensweisen scheinen auch für den Bereich des Service Engineering entsprechendes Potential zu besitzen.


Die Aufgabe besteht darin:

  • die agilen Vorgehen und Methoden der Softwareentwicklung zu analysieren und deren Schnittmengen bzgl. Grundidee und erwarteter Vorteile herauszuarbeiten,
  • existierender Service Engineering Ansätze zu betrachten,
  • Gemeinsamkeiten des Software und Service Engineering herausarbeiten und 
  • insbesondere die Übertragbarkeit agiler Softwareentwicklungsansätze auf den Bereich des Service Engineering zu analysieren sowie
  • einen Vorschlag einer agilen Service Engineering Entwicklungsmethode auszuarbeiten.

Betreuer: Kyrill Meyer / Martin Böttcher
Abgabe der Arbeit: 29.03.2007


Robert Schwarzer: Testen modellgetrieben entwickelter Software auf Basis des Rhapsody-OX-Frameworks am Beispiel der ARTIS-Plattform


Art der Arbeit: Diplomarbeit
Zeitraum: 01/2007 – 07/2007
Betreuung: Hans-Gert Gräbe; Florian Adolf, DLR Braunschweig
Siehe Übersicht der Abschlussarbeiten


Thorsten Berger: Softwareproduktlinien-Entwicklung – Domain Engineering: Konzepte, Probleme und Lösungsansätze.

Software Product Line Engineering (SPLE) has become the most successful approach for software reuse in the last ten years. It has proven to reduce development times, lower costs and improve the quality of software-intensive systems. One of its key points is the up-front development of a flexible and highly extensible platform (Domain Engineering) as a basis for deriving concrete applications (Application Engineering).


The thesis describes the Domain Engineering in a case study that deals with the development of an Open Source project in the J2EE environment. It mainly focuses on concerns regarding the high-level architecture and process descriptions as proposed by the framework. To fit the needs of the project it also had to be tailored in numerours aspects. Furthermore, the experience gained during the lifecycle of the project yields an estimation of theoretical and practical issues of the development approach. The thesis also shows open questions in the SPLE research field.


One of the most important enablers of SPLE in the case study has been the usage of J2EE portal standards, which provide an extensive infrastructure for web application delivery and integration. In a product line view, portals offer mechanisms for extreme late binding of complex functionality. However, there have been many more technologies and frameworks that supported building the platform. These have been e.g. an Io C component framework, MVC frameworks, AOP or model-driven/generative approaches, whose application in the product line context of the case study will be shown.


The case study comprises the Domain Requirements Engineering, Domain Design and Domain Realisation subprocesses of the Product Line Framework. In addition, an overview of verification and validation techniques (static analysis as well as the Domain Testing) for the platform will be shown.


Betreuer: Thomas Riechert
Links: elatePortal, Access deniedInterner Bereich


Mariya Kotomanova: Definition von Services für die Enterprise SOA im Rahmen des Recipe-Managements im System SAP ERP 6.0


Betreuer: Maik Thränert



Heiko Kern: Vergleich und Abbildung zweier Metamodellierungsansätze am Beispiel von ARIS und Eclipse EMF/GMF


Betreuer: Stefan Kühne
Keywords: Modellgetriebene Softwareentwicklung, Metamodellierung, Metametamodell, ARIS, Eclipse GMF
Abgabe: April 2007


Sten Grohmann: Dienstleistungsbeschreibung auf Basis existierender Web Service Standards

Im Bereich der Produktionswirtschaft existieren verschiedene Ansätze und Standards zur Definition und Beschreibung eines Produktes, womit dieses relativ eindeutig spezifiziert werden kann. Solche Definitions- und Beschreibungsansätze werden zunehmend auch für den Bereich der Dienstleistungsentwicklung eingesetzt. Hierbei werden derzeit oft die Ansätze der Produktionswirtschaft genommen und versucht, diese auf Dienstleistungen zu adaptieren.


Konträr dazu werden in der Diplomarbeit existierende Ansätze im Web Service Bereich genutzt, um diese an klassische Dienstleistungen anzupassen. Viele der Beschreibungsstandards von Web Services orientieren sich vorwiegend auf technische Aspekte. Daher wird betrachtet, inwiefern diese Definitionsansätze abstrahiert werden können, um Dienstleistungen zu beschreiben.


Aufgabe im Rahmen der Diplomarbeit:

  • existierende Beschreibungsansätze für den Bereich Web Services herausarbeiten und darlegen (hierzu sollen sowohl „einfache“ Methoden (bspw. WSDL) als auch semantische Ansätze (bspw. OWL-S) betrachtet werden),
  • Anforderungen an die Dienstleistungsbeschreibung herausarbeiten sowie
  • die Anwendungsmöglichkeiten herausgearbeiteter Standards auf die Dienstleistungsbeschreibung darlegen.

Betreuer: Martin Böttcher, Kyrill Meyer

2006

Torsten Hein: Entwicklung und Evaluation von Caching-Strategien für Anfragen an RDF-Triple-Stores


Bearbeitungszeitram: 01.05.06 bis 31.10.06
Betreuer: Sören Auer
Links: Public CVS, Access deniedInterner Bereich
Keywords: Powl, RAP, RDF, PHP


Denis Gärtner: LDAP Query to SPARQL Transformation

Ziel der Arbeit ist die Entwicklung einer Query-Transformation von LDAP zu SPARQL. Beliebige LDAP Anfragen sollen in SPARQL Anfragen umgewandelt werden, welche Ergebisse aus einem RDF Triple Store zurückliefern. Diese Ergebnismenge wird dann wiederum über LDAP an den anfragenden Client zurückgeliefert. Der LDAP2SPARQL Query-Transformator soll innerhalb eines Open LDAP Backends arbeiten.


Betreuer: Sebastian Dietzold
Links: Public CVS
Keywords: LDAP, SPARQL, RDF, OpenLDAP


Jan Kunze: Spezifikation eines Archivierungsformats für Daten einer Arztpraxis in HL7 Version 3 und dessen Umsetzung als Ontologie

Betreuer: Thomas Riechert
Links:
Keywords:
(Access deniedInterner Bereich)


Christian Lehmann: Implementierung eines D2RQ Mapping Backends für RAP (RDF API for PHP)

Das Semantic Web soll die unüberschaubare Masse an Daten des World Wide Web durch Metadaten, die mittels RDF beschrieben werden, besser strukturieren und maschinenlesbar machen. Dabei spielt die Transformation der bereits in relationalen Datenbanken abgelegten Daten nach RDF eine essentielle Rolle. Ein Mapping-Mechanismus, welcher Anfragen von RDF-Anwendungen auf relationale Daten abbildet, bietet eine komfortable Umsetzung ohne Replikation der bestehenden Daten. Diese Masterarbeit beschreibt R2D2, ein Mapping Werkzeug zur Abbildung von relationalen Daten auf RDF basierten Ontologien. R2D2 soll in PHP implementiert werden und als Basis RAP nutzen.


Betreuer: Sebastian Dietzold
Keywords: D2QL, RAP, RDF, PHP


Daniel Rost: Die Internationalisierung IT-basierter, produktbegleitender Dienstleistungen – Technologien und Methoden


Betreuer: Kyrill Meyer
Abgabe der Arbeit: bis Oktober 2006


Christian Welzel: Entwicklung einer domänenspezifischen Modellierungssprache für die Prozesssteuerung von OSCI-XMeld


Betreuer: Stefan Kühne
Keywords: E-Government, Meldewesen, Domänenspezifische Modellierungssprache, Metamodellierung, Modellgetriebene Softwareentwicklung
Abgabe: Juli 2006


 
Zu dieser Seite gibt es keine Dateien. [Zeige Dateien/Upload]
Kein Kommentar. [Zeige Kommentare]