Abschlussarbeiten


Die folgenden Diplomarbeiten sind derzeit für interessierte Studenten zu vergeben. Sollten Sie einen anderen Abschluss (z.B. Bachelor, Master) anstreben, können die meisten Themen daraufhin angepasst werden. Kontaktieren Sie dafür bitte den entsprechenden Ansprechpartner. Darüber hinaus sind wir natürlich offen für Ihre Vorschläge.

Inhalt

Vorbereitete Themen


Abschlussarbeiten in der Arbeitsgruppe AKSW sind auf der Seite http://aksw.org/Teaching verfügbar


IT support und Product Service Systems (Bachlor / Master)

Einführung
Product Service Systeme (PSS) gewinnen im wissenschaftlichen Diskurs zunehmend an Bedeutung. Das Konzept beschreibt die Verbindung von Produkten und Dienstleistungen. Um das Design und Engineering von PSSs zu unterstützen wurde eine Vielzahl von IT support systemen entwickelt.
Ziel der ausgeschrieben Arbeit ist es ICT Systeme für PSS zu identifizieren und zu systematisieren, sowie Möglichkeiten der weiteren Nutzung und Erweiterbarkeit zu evaluieren.
Ihre Aufgaben

  • Darstellung des state of the art von PSS IT support
  • Systematisierung von PSS IT support und verwandten Forschungsfeldern
  • Evaluation der Möglichkeiten zur weiteren Nutzung und der Erweiterbarkeit von PSS IT support

Kontakt
Bei Interesse melden Sie sich bitte bei Christian Zinke.


Evaluation der Möglichkeiten und Voraussetzungen von Requirements Engineering / Management eines PLM-Systems in Bezug auf Weiterverwendung im Bereich des Service Engineerings (Praktikum mit Erweiterungsmöglichkeit auf BA/MA)


Aufgabe ist es die Möglichkeiten eines Requirements Engineering / Management eines existierenden PLM-Systems (Produkt-Lebenszyklus-Systems) ausloten und zu bewerten in Hinblick auf eine sinnvolle Anbindung an existierende Tools im Bereich des Service Engineerings.
Auf Basis dieser Evaluation kann eine Bachelor- oder Masterarbeit mit dem Ziel einer praktischen Implementierung angeschlossen werden.


Ihre Aufgabe ist:

  • Einarbeitung in das Projekt
  • Evaluation Requirements Engineering / Management eines existierenden PLM-Systems (Praktikum)
  • Konzeption und Implementierung des Service Engineeringtools in das PLM-System

Erwartete Kenntnisse:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Kenntnisse in aktuellen Web-Technologien

Wir bieten Ihnen eine umfangreiche Betreuung und eine praxisnahe Abschlussarbeit.


Ansprechpartner: Kyrill MeyerChristian Zinke


Erweiterung eines PHP-basierten Web-Portals (Bachelor)

An dem Lehrstuhl wird ein Web-basiertes Management-System zur Anzeige und Verwaltung fest strukturierter Daten entwickelt. Im Rahmen einer Bachelor-Arbeit sollen Web 2.0 Erweiterungsmöglichkeiten untersucht und implementiert werden. Das Projekt basiert auf dem PHP-Framework Zend.


Ihre Aufgabe ist:

  • Einarbeitung in das Projekt und bei Bedarf in das Zend-Framework
  • Untersuchung der Erweiterungsmöglichkeiten
  • Konzeption und Implementierung von mindestens einer Erweiterung

Erwartete Kenntnisse:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Gute Kenntnisse in PHP und Java Script
  • Kenntnisse in aktuellen Web-Technologien

Wir bieten Ihnen eine umfangreiche Betreuung und eine praxisnahe Abschlussarbeit.


Ansprechpartner: Christian Zinke


Wiktionary 2 RDF Online Editor GUI 

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (currently for 4–6 languages). The configuration is currently done by configuring an XML file that serves as a wrapper for a language specific Wiktionary edition. The community would greatly benefit from an online tool that helps to create and update such xml wrapper configurations.
The editor should be able to load an existing config file and then give the RDF output for a piece of Wiki syntax. Measure of success is how easy a wrapper can be created and maintained.
Links:

Wiktionary 2 RDF Live Extraction

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor (see also the Master thesis extension: Built an Application Suite on Top of the Wiktionary2RDF Live Extraction
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (at the moment for 4–6 languages). However, only static dumps are produced and made available as download here: http://downloads.dbpedia.org/wiktionary
The DBpedia Live Extraction is also built on the framework and receives regular updates from Wikipedia and keeps an RDF triple store in sync. On the basis of this synced triple store, we can find potential improvements and provide *simple* suggestions to Wiktionary editors.
Goal is:

  1. to have a running Live Extraction for Wiktionary 2 RDF
  2. provide simple suggestions for editors of Wiktionary with a GUI

The DBpedia Extraction Framework is written in Scala, the GUI can be in any language (Java Script seems to be a good choice, however)


Links:


Built an (NLP) Application Suite on Top of the Wiktionary 2 RDF Live Extraction

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, research, Master thesis (see also the prerequisite topic Wiktionary2RDF Live Extraction, which is included here )
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

See description above (Wiktionary 2 RDF Live Extraction). This project has three potential flavours:

  1. collect existing tools and methods, which might be improved using Wiktionary data and then extend them and improve them. This includes tools such as QuicDic Apertium
  2. Create useful tools for the Wiktionary users and editors. Either by providing suggestions for editors of Wiktionary with a GUI e.g. based on Parsoid, checking consistency or automatically by bots
  3. Research: improve existing NLP systems based on the yet unproven assumption that Wiktionary data is much better than traditional lexica

Goal is:

  1. to have a running Live Extraction for Wiktionary 2 RDF
  2. built an application suite on top of the Live Extraction for Wiktionary 2 RDF that provides measurable benefits (for one of the three flavours)

Possible tools to include in the suite:


Links:


Web Annotation: Annotate It + NIF 

The tool Annotate It is written in Coffee Script and uses its own JSON format for data serialization. Goal of this project is to make it interoperable with NIF.
Links:

Web Annotation: My Annotation + NIF 

Improve Usability of MyAnnotation and make it interoperable with NIF.
Links:

NIF + Clarin's TCF 

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: NLP2RDF, Clarin-D

Create a converter from Clarin's TCF format to NIF (round trip). The resulting software will be hosted as a web service and will connect the Clarin and NLP2RDF world.
Links:

Explication of Statistical Relations

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Research / Explorative, Master thesis
Good chance for a scientific publication, if results are good.

Recent advances in semantic technologies (RDF, SPARQL, Sparqlify, RDB2RDF, Wiktionary 2 RDF, NIF, LLOD ) allow us to efficiently combine statistical data sets such as the Wortschatz with structured data such as Wiktionary 2 RDF with context information found in text using NIF .
The goal of this project is to research if statistical measures such as significant left/right neighbour/sentence co-occurrences or iterated co-occurrences can be used to assert the “correct” relation between terms in text and explicate it as an RDF property. The available structured data
Examples:

  • He wears a green shirt.
  • He wears a green t-shirt.

“shirt” and “t-shirt” occur frequently with color adjectives and the verb “wear”.
Research Questions:

  • Can we entail synonymy of “shirt” and “t-shirt”? Generally, not, but in certain contexts, yes. How can we measure this and produce RDF?
  • What can we do with the combination of Wortschatz, Wiktionary, NIF in RDF?

Links:

Technology:


Use-Case-driven Development and Improvement of RDB2RDF Mapping (Sparqlify)

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de, Claus Stadler – cstadler@informatik.uni-leipzig.de
Type: Research / Engineering, Master thesis
Involved communities: OWLG, LLOD cloud

The members of the Working Group for Open Data in Linguistics OWLG have expressed great interest in the conversion of their databases to RDF. In this context, we see a good chance that the Sparqlify tool, which is developed by our research group can greatly help to speed up this process. We expect you to help convert and interlink a great number of linguistic data sets and produce high quality Linked Data bubbles for the LLOD cloud. This process will, of course, reveal many missing features and gaps for improvements of Sparqlify. Goal of the project is therefore:

  1. Create mappings from relational databases to RDF (data is supplied by community)
  2. Systematically collect gaps and missing features
  3. Based on 2.: fix and improve Sparqlify with the aim to creating a production-ready software with high impact and great performance (involves possible benchmarking).

Links:

Badge Server for Gamification of Reward System for Online Communities

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis, Internship
Involved communities: DBpedia and many more.

The AKSW research group is involved in many online communities. Although the members of these communities are highly active and contribute work to the projects, there are not any reward mechanisms in place to remunerate this effort)). This practical problem can be solved by a badge server, which implements three operations:

  1. an admin/moderator can add a badge (including a description, what has to be achieved and an image)
  2. a community member can apply for a badge, presenting proof that he has successfully completed the task
  3. the admin/moderator approves the request and awards the badge to the user.

Example badges: “Over 100 commits to the DBpedia framework”, «Created a language config for http://dbpedia.org/Wiktionary".
To be an effective system usability needs to be high and the awarding and displaying of badges need to be disseminate correctly, e.g. with RDF, RSS, Widgets, etc.
Before implementing the student has to do research and make sure, whether there is already a similar open-source implementation.


Overview Links:


Bridging NIF, ITS and XLIFF

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis (or Master thesis, if an integration into the Okapi Framework is done)
Involved communities: NLP2RDF and the http://www.w3.org/International/multilingualweb/lt/ MultilingualWeb-LT Working Group

ITS and XLIFF are two formats, which are widely used in the internationalisation and localization industry. The main goal of this thesis is to provide software and algorithms that are able to transform the both formats lossless into the newly developed NLP Interchange Format and back (round-trip bridge). One of the challenge is to provide an algorithm that allows to transform offset annotations into XML/HTML markup.
Overview Links:

Technical details:

Make the DBpedia resource page more interactive/attractive

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Voluntary student project / internship / Bachelor thesis
Involved communities: DBpedia

Change the DBpedia resource html display page (i.e. http://dbpedia.org/page/Steve_Martin) and make it more interactive by integrating information from other LOD datasets. This can be achieved by working on both the front-end (html/css/javascript) and the server-side. For the server side we use Open Link Virtuoso VSP technology (similar to PHP) but we are open to other suggestions as well. If the implementation is good, this work will be deployed to DBpedia.


Ideas on what we imagine to accomplish may come from Freebase.

Create a new geodata LOD dataset

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis / Master thesis
Involved communities: DBpedia, linkedgeodata

Bachelor thesis: The purpose of this thesis will be to create a new LOD Dataset from Yahoo WOEID – Where On Earth Identifier. WOIED is supported / updated by Yahoo, used by many geodata applications (i.e. Flickr) and is considered to be an established place categorization. After converting the dataset to triples, the next step will be to link it with other LOD datasets, such as Linked Geo Data, DBpedia, geonames.
Master thesis: It’s not very clear if this is qualified to be extended as a Master thesis, but an idea would be to use this and other LOD datasets and create a LOD tourist guide.

Semi-automatic Wikipedia article correction

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: DBpedia and Wikipedia

We have developed a DBpedia extractor that extracts metadata from templates, thus, we have information for correct infobox usage in Wikipedia articles (metadata). Using this metadata we can check if Wikipedia authors use proper infobox declarations inside articles, identify wrong usage and suggest corrections. The benefits of resolving these errors are: 1) Correct the Wikipedia articles and 2) get better and more DBpedia triples.


We have 2 specific example cases here:

  • An editor misspells an infobox instance (i.e.“Infobox Artist” to “Infobox Artist”). This would result in hiding the infobox from the page display, as mediawiki would not know how to render it.
  • An editor misspells an infobox property (i.e. “birth place” to “birthplace”). This would also result in hiding the property from the Infobox display.

In both cases DBpedia gets wrong or no results at all.


There is already a simple preliminary shell script implemented for this but we are looking for a program implementation (preferably in Scala / Java in order to include it in the DBpedia Framework) that will also use LIMES for suggesting corrections.


Links:


Entwicklung und Umsetzung eines Konzepts zum Datenaustausch zwischen dem Soft Wiki- Werkzeug und dem Requirements Interchange Format

Diplom / Master- Arbeit


Requirements Interchange Format (RIF) ist der zukünftige Standard für den Datenaustausch im Requirements-Management, das Strukturen für Anforderungen und deren Beschreibungen enthält. Soft Wiki ist eine auf dem Semantic Web und Web 2.0 basierende Plattform zur Anforderungserfassung in einer sehr frühen Phase des Entwicklungsprozesses. Ziel dieser Arbeit die Integration des Requirements-Managment-Werkzeug IRqA des Industriepartners QA-Systems in das Soft Wiki- Konzept.


Ihre Aufgabe ist:

  • Entwicklung eines Konzepts zur Datenübernahme aus dem Soft Wiki- Werkzeug (basierend auf Onto Wiki) in das Requirements-Interchange-Format (RIF).
  • Implementierung eines Konverters für den Datenaustausch zwischen SWORE und dem RIF-XML-Schema.
  • Dokumentation des strukturierten Entwicklungsprozesses nach gängigen Qualitätsstandards.

Folgende Voraussetzungen und Fähigkeiten sind notwendig:


  • gute englische Sprachkenntnisse
  • XML-Basiswissen, gute Kenntnisse in der Skriptsprache PHP Version 5
  • Studium der Informatik oder vergleichbarer Ausrichtungen

Wir bieten:

  • Grundlagenvermittlung im Bereich Requirements-Management
  • Betreuung durch den Industriepartner

Ansprechpartner: Thomas Riechert


Game Theory: Distributed Solving (Master)


One of the grand challenges of Artificial Intelligence research is to solve games by proving perfect strategies. Recent success have been reported for 2 person limit Texas hold'em poker (Science journal, 2015) and checkers (Science journal, 2007). (Weakly) solving a game means to know which party can win (and how) from the starting position. Those solutions partially have applications in economy, but are also done for the sheer joy of solving those hard games.


The aim of this master thesis is to design a distributed game solver, which can run on a cluster of processing nodes. Once this is done, it should be applied to a game of choice (Skat, Chess and Go are the current candidates). Depending on the game of choice, a detailed solving strategy will be designed to allow taking the particularities of each game into account (e.g. for Skat a mixed strategy Nash equilibrium needs to be computed). Access to very large computational resources will be provided such that it is likely that more complex (fragments of) games can be solved.


What we expect:

  • the master thesis is mostly suitable for excellent students who aim at a scientific career and are motivated by achieving unprecedented results
  • motivation to read a book on game theory basics (approx. 1–2 weeks effort)
  • motivation to obtain basics on distributed computing (e.g. AMQP)
  • programming knowledge in at least one of these languages: C++, Java, Python

What we offer:

  • comprehensive supervision
  • very significant computational resources
  • support & collaboration in follow-up publications

if you are interested in this topic, please contact:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Erweiterung des LinkedGeoData-Browsers (Masterarbeit)

Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen.
Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte.


Ziel der Arbeit ist das Überarbeiten des Browsers gemä­ß der im Rahmen der Arbeit noch näher zu spezifizierenden Anwendungsfälle. Dabei liegt der primäre Fokus auf der Performanz der im Hintergrund ablaufenden Anfragen an die Datenquellen. Für die Anwendungsfälle sollen daher verschiedene Datenrepräsentationen und Anfragestrategien erarbeitet und bewertet werden. Die Ergebnisse sollen in eine Anpassung des Browsers an die Anwendungsfälle einflie­ßen, wofür eine passende Architektur zu konzipieren und umzusetzen ist. Sofern es die Zeit erlaubt, wäre es möglich, den überarbeiteten Browser noch in einem Usability-testing zu unterziehen.


Aufgabenstellung

  • Konzeption von Anwendungszenarien für den Browser
  • Evaluation verschiedener Repräsentationen von Geodaten und entsprechender Querystrategien in Bezug auf Performanz
  • Konzeption einer geeigneten Architektur des Browsers
  • Implementierung, dabei ggf. Anpassung der GUI
  • Eventuell Usability-testing

Vorraussetzungen

  • Kenntnisse in PHP und Java-Script
  • Kenntnisse in Java und Semantic Web-Technologien vorteilhaft aber nicht Bedingung

Wir bieten

  • Umfassende Betreuung durch am Thema stark interessierte Mitarbeiter
  • Mitarbeit an Publikationen (falls gewünscht)

Bei Interesse können Sie sich an Claus Stadler und Jens Lehmann wenden.

Geo-Spiel: Interlinking

Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen. Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte.


Analog wurde in der AKSW-Gruppe mit VeriLinks ein Spiel-Framework entwickelt, dessen Kernidee es ist Spieler im Hintergrund Verknüpfungen (Links) zwischen Wissensbasen validieren zu lassen. Mehrere Spieler können dabei um Punkte / Geld spielen, während sie wertvolles Feedback zu den Links liefern.


Kernidee dieser Arbeit ist es beide Komponenten zu vereinigen: Der Spieler startet (analog zu Spielen wie Parallel Kingdom) auf einer Karte, z.B. dem Ort an dem er sich gerade befindet. Auf diesem Kartenausschnitt werden Elemente aus Linked Geo Data angezeigt, z.B. bestimmte Häuser, Restaurants, Sehenswürdigkeiten, Pubs usw. Gleichzeitig sollen Objekte aus anderen Wissensbasen angzeigt werden, z.B. Bilder aus Flickr. Ziel ist es die Objekte zuzuordnen, d.h. einem Linked Geo Data- Objekt ein Objekt aus einer anderen Wissensbasen zuzuordnen. Zum Beispiel kann der Spieler entscheiden, ob ein bestimmtes Bild tatsächlich zu einer Sehenswürdigkeit gehört. Wenn ein Spieler mit seiner Entscheidung mit anderen Spielern übereinstimmt, so erhalten diese Spieler Punkte. Die Punkte können dann genutzt werden um bestimmte Fähigkeiten zu erlernen, Territorium zu beanspruchen usw. Der Arbeit ist an der Stelle keine Grenze gesetzt.


Ihre Aufgabe ist:

  • Entwickeln eines Online-Spiels nach der oben beschriebenen Idee
  • Einarbeitung in Semantic Web Technologien wie RDF

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Javascript-Kenntnisse
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Claus Stadler – cstadler@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Distributed Researcher Network

Semantic Web Technologien erlauben den globalen Austausch von Informationen. Insbesondere sind in den letzten Jahren Ideen entwickelt wurden um Daten dezentral verwalten zu können, wie z.B. hier beschrieben. In dieser Arbeit sollen verteilte Semantic Web Technologien am Anwendungsszenario von Forscherwebseiten (wie z.B. http://jens-lehmann.org ) realisiert werden. Die meisten Forscher verwalten in irgendeiner Form Publikationen, Präsentationen, Ereignisse usw. Um den Verwaltungsaufwand dafür zu reduzieren ist eine Kombination aus verschiedenen Datenquellen notwendig: 1.) Information die aus zentralen Quellen kommen, z.B. Publikationen aus Google Scholar. 2.) Informationen die aus dem Netzwerk des Forschers kommen, z.B. kann ein Ko-Autor eines Artikels bereits Informationen hinterlegt haben (z.B. Thema des Artikels oder die Zuordnung zu einem Projekt), die man selbst wiederverwenden möchte. 3.) Selbst erstellte Informationen. Mit Techniken des verteilten semantischen Webs lassen sich diese Szenarien realisieren. Die prinzipielle Protokoll- und Toolunterstützung existiert bereits, z.B. im OntoWiki Tool. Ziel der Arbeit ist die Anpassung auf den konkreten Anwendungsfall der Erstellung von Forscherwebseiten, d.h. insbesondere a) Synchronisationsdienste mit z.B. Google Scholar und b) die Entwicklung eines Front-Ends (d.h. der eigentlichen Forscherwebseite) unter Nutzung der im Backend gesammelten Daten. Solch ein System bietet Vorteile gegenüber existierenden Möglichkeiten für einen Wissenschaftler eine eigene Webseite zu erstellen:


  • Vorteile gegenüber normalen traditionellen Webseiten:
    • weniger Verwaltungsaufwand, da z.B. nur ein Autor eine Publikation eintragen muss
    • viel mehr Möglichkeiten beim browsen/filtern/visualisieren
    • bessere Wiederverwendung der Daten z.B. können sie dann leichter den Seiten von Arbeitsgruppe oder Projekt eingeblendet werden
  • Vorteile gegenüber arbeitsgruppen-/projektspezifischen Seiten:
    • viele Forscher wechseln mehrfach die Arbeitsgruppe während ihrer Karriere – statt dann woanders neu anzufangen (ev. mit einem anderen System) kann man einfach existierende Daten behalten
  • Vorteile gegenüber zentralen Diensten wie Google Scholar, MS Academic Search:
    • man hat selbst die Kontrolle über seine Daten
    • höhere Qualität
    • man bestimmt selbst was man präsentiert (z.B. nicht nur Publikationen sondern auch Präsentationen, Informationen zu eingeworbenem Funding usw.)
    • man kann die eigenen Daten beliebig anreichern z.B. nach verschiedenen Themen / Projekten gruppieren oder eigene Kurzzusammenfassungen schreiben (siehe z.B. http://korrekt.org)

Ihre Aufgabe ist:

  • Entwickeln von Synchronisationsdiensten z.B. Google Scholar, Bibsonomy, MS Academic Search, DBLP
  • Anpassung des Onto Wiki- Systems z.B. spezielle Eingabe-Templates
  • Entwicklung eines leichtgewichtigen, flexiblen Front-Ends für Forscherwebseiten

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Javascript-Kenntnisse
  • PHP-Kenntnisse
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Sebastian Tramp – tramp@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Games with a Purpose: Interlinking

Games with a Purpose ist eine Forschungsrichtung, bei der Spaß an Spielen verknüpft wird mit häufig arbeitsintensiven Aufgaben, die durch das Spiel im Hintergrund erledigt werden. Eine solche Aufgabe ist das verknüpfen von Wissen aus unterschiedlichen Wissensbasen («Interlinking»). In dem Bereich wurden viele Verfahren entwickelt, deren Evaluation sich allerdings nur schwierig automatisieren lässt. Innerhalb des LATC-Projekts wurde deshalb eine grundlegende Spielidee entwickelt, die das Bewerten von Verknüpfungen erlaubt. Dabei können 2 oder mehr Spieler miteinander um Punkte / Geld spielen, während sie wertvolles Feedback für die Interlinking-Algorithmen im Hintergrund liefern. Ziel der Arbeit ist die Verfeinerung der Spielidee und deren Implementierung in einem Onlinespiel mit möglichst hohem Suchtfaktor. :-)


Ihre Aufgabe ist:

  • Entwickeln eines einfachen Online-Spiels
  • Einarbeitung in Semantic Web Technologien wie RDF

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Browsen, Suchen und Navigieren in DBpedia mit Hilfe maschinellen Lernens

Anfang des Jahres wurde das sehr erfolgreiche DBpedia-Projekt gegründet. Ziel dieses Projektes ist es Informationen aus Wikipedia extrahieren und sie mit anderen Wissensbasen zu verbinden. Wikipedia ist eine der am häufigst besuchten Seiten weltweit (Position 8 im Oktober 2008 laut http://alexa.com) auf der von Menschen eine riesige Menge an Wissen zusammengetragen wird. Eine Herausforderung bei dieser Menge von innerhalb des DBpedia-Projektes extrahierten Informationen ist Navigationsmöglichkeiten innerhalb der DBpedia-Daten anzubieten. Dafür wurde in einer Vorarbeit der DBpedia Navigator entwickelt, der das OWL-Lernsystem DL-Learner verwendet. Ziel der Arbeit ist es dieses Werkzeug zu einem Endnutzer DBpedia-Viewer weiterzuentwickeln und dabei Machine Learning Methoden für die Generierung von Navigationsvorschlägen (auf Basis der zuletzt angeschauten Instanzen) zu verwenden.


Ihre Aufgabe ist:

  • Verbesserung der generierten Navigationsvorschläge: ein existierender neuer OWL-Lernalgorithmus soll auf diesen Anwendungsfall angepasst werden
  • Erweiterung des DBpedia Navigator User Interfaces: verbessertes Ranking der Suchergebnisse, nutzerfreundliche Klassenhierarchie-Anzeige, verbesserte Anzeige der Instanzdaten mit Templates
  • Integration von anderen Wissensbasen, die mit DBpedia verknüpft sind z.B. Geonames

Kenntnisse:

  • Java- und PHP-Kenntnisse
  • Interesse an Semantic Web, Machine Learning
  • Studium der Informatik oder vergleichbarer Studiengänge

Wir bieten:

  • eine umfangreiche Betreuung
  • Teamarbeit in der Forschungsgruppe AKSW
  • Mitarbeit an interessanten und erfolgreichen Projekten mit Potential die Nutzung von DBpedia/Wikipedia zu verbessern

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Anwendung von Ontologielernverfahren im medizinischen Bereich

Die Ontologiesprache OWL ist einer der Grundbausteine des Semantic Web und wird bereits in großem Umfang im biologischen und medizinischen Bereich eingesetzt. Das automatische Lernen in Ontologien aus Instanzdaten erlaubt dabei neue interessante Anwendungen im medizinischen Bereich, z.B. können anhand von Daten zu Patientenuntersuchungen neue Erkenntnisse über Krankheiten gewonnen werden. Bei dieser Arbeit ermöglichen wir die Zusammenarbeit mit dem Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE).


Ihre Aufgabe ist:

  • Einarbeitung in Lernverfahren für OWL-Ontologien und das Open Source Tool DL-Learner
  • Erarbeitung eines oder mehrerer konkreter Anwendungsszenarien
  • Evaluation existierender Lernverfahren an diesen Anwendungsszenarien

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Semantic Web, insbesondere OWL 
  • Machine Learning (anwendungsorientiert)

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Allgemeines medizinisches Interesse ist ebenfalls günstig, aber nicht notwendig.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen. Bei erfolgreicher Umsetzung kann die Arbeit signifikante wissenschaftliche Resultate liefern.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Database to OWL Converter

Relationale Datenbanken bilden heute das Rückgrat vieler Anwendungen. Die Migration bzw. Bereitstellung solcher Strukturen für das Semantische Web ist häufig ein schwieriger, manueller Prozess. Ziel der Arbeit ist deshalb ein Tool zu entwickeln, welches interaktiv und semi-automatisch eine OWL-Ontologie aus einer relationalen Datenbank extrahiert. Dabei soll auf existierende Techniken zurückgegriffen werden um zuerst in einem ersten Schritt eine OWL-Ontologie auf Basis des Schemas (unter teilweiser Berücksichtigung der Daten) einer Datenbank zu extrahieren, die im zweiten Schritt durch Lernverfahren PDF Document[1] angereichert wird. Das entwickelte Tool soll Teil des DL-Learner Open-Source-Projekts werden. Als konkrete Anwendung soll in der Arbeit eine Produktontologie für Mercedes Benz Fahrzeuge entstehen.


Ihre Aufgabe ist:

  • sichten der Literatur und Werkzeuge zur Verknüpfung von OWL und relationalen Strukturen: [PDF Document2 – Seite 78ff, 3, PDF Document4, PDF Document5, PDF Document6, R2D2]
  • schreiben eines Datenbank-zu-OWL-Konverters auf Basis des DL-Learners
  • anwenden des Tools zur Erstellung einer Mercedes Benz Produktontologie (Daten größtenteils vorhanden)

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Semantic Web, insbesondere OWL 
  • Kenntnisse in Java und relationalen Datenbanken
  • Kenntnisse in Projektarbeit und Subversion sind vorteilhaft

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten

  • eine umfangreiche Betreuung
  • Teamarbeit in der Forschungsgruppe AKSW
  • eine praxisnahe Mitarbeit an einem Tool mit Zukunftspotential
  • praktische Zusammenarbeit mit einem Mitarbeiter der Daimler AG

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

SPARQL-Query-Plugin für Semantic Media Wiki

Media Wiki ist das Wiki-System auf welchem Wikipedia basiert. Semantic Media Wiki ist eine Erweiterung, mit der Wiki-Texte mittels einer typisierung der Wiki-Links semantisch annotiert werden können. Die dabei entstehende Wissensbasis kann mit speziellen ASK-Queries angefragt werden. Die Möglichkeiten der ASK-Queries sind dabei relativ begrenzt. Mit SPARQL existiert ein W3C-Standard zum Abfragen von Wissensbasen. Im Rahmen der Arbeit soll eine Erweiterung für Semantic Media Wiki realisiert werden, welche eine Abfrage der Wissensbasis mit SPARQL erlaubt.


Konkret erreicht werden soll:

  • Implementierung eines SWM-Plugins, welches in Wiki-Seiten eingebettete SPARQL-Abfragen ermöglicht
  • Mapping der SPARQL-Anfragen auf den My SQL basierten Semantic Media Wiki Triple Store

Dazu sind die folgenden Voraussetzungen und Fähigkeiten notwendig:

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbarer Ausrichtungen
  • Kenntnisse in Web-Applikationsentwicklung, insbesondere PHP/
  • Erfahrung mit Datenbanken

Wir bieten Ihnen:

  • eine praxisnahe Diplomarbeit mit dem Potential ein für viele Nutzer extrem nützliches Werkzeug für Semantic Media Wiki zu schaffen sowie
  • eine umfangreiche Betreuung.

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Sören Auer – auer@informatik.uni-leipzig.de – Skype: soerenauer – +49 (32) 222201209

Ruby / Python Portierung von Triplify

Das größte Hindernis für eine umfassende Verbreitung des Semantic Web ist im Moment noch die mangelnde Verfügbarkeit von semantisch ausgezeichneten Daten, Informationen und Wissen (z.B. als RDF oder Linked Data). Andererseits wird bereits ein weitaus überwiegender Teil von Webseiten von datenbankbasierten Webanwendungen (wie CMS, Blogs, Wikis, Foren, Groupware etc.) generiert. ((http://Triplify.org Triplify}} macht es zum Kinderspiel solche Webanwendungen zu semantifizieren, also die in einer relationalen Datenbank gespeicherten Inhalte als RDF, Linked Data oder JSON zu publizieren. Triplify basiert auf der Definition von Datenbankabfragen, die relevante Informationen auswählen und deren Ergebnisse dann von Triplify automatisch in RDF-Statements (Triples) konvertiert und im Web publiziert werden. Im Moment besteht Triplify as ca. 300 Zeilen Quellcode, ist allerdings nur in PHP verfügbar.


Konkret erreicht werden soll:

  • Portierung des Triplify Scripts in Ruby und/oder Python
  • Erstellen einer Triplify-Konfiguration für ein oder mehre populäre Ruby / Python Webanwendungen

Dazu sind die folgenden Voraussetzungen und Fähigkeiten notwendig:

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbarer Ausrichtungen
  • Kenntnisse in Web-Applikationsentwicklung insbesondere Ruby / Python und DBMS (vor allem MySQL)
  • Interesse am Themengebiet des (Social) Semantic Web

Wir bieten Ihnen:

  • eine projektnahe Diplomarbeit mit großem Potential die Verbreitung von semantischen Schnittstellen entscheidend zu verbessern sowie
  • eine umfangreiche Betreuung.

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Sören Auer – auer@informatik.uni-leipzig.de – Skype: soerenauer – +49 (32) 222201209

Semantic Chess

Schach gehört zu den kompliziertesten und beliebtesten Spielen der Welt. Über Jahrhunderte hinweg wurden Millionen von Schachpartien von Tausenden von Leuten dokumentiert und meist im PGN Format gespeichert. Obwohl PGN eine Lingua Franca für Schachengines darstellt, erlaubt dieses Datenformat keine semantische Interpretation der Partien. So können Anfragen wie “Which bulgarian players have an ELO over 2000” nicht beantwortet worden. Ziel dieser Arbeit ist die Konvertierung von PGN nach RDF und zurück sowie die Umsetzung einer semantischen Suche über Schachpartien in RDF. Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Axel Ngonga – ngonga@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Evaluation von Clustering-Algorithmen für Protein-Protein-Interaktion (Bachelor / Master)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Insbesondere bei der Extraktion von Proteinkomplexen aus Graphen wurden in den letzten Jahren neue spezialisierte Algorithmen entwickelt. Ziel dieser Arbeit ist die Implementierung und Evaluation von Algorithmen zur Extraktion von Proteinkomplexen (IPCA, DPClus und COD) mit Hilfe des CVK Frameworks. Ihre Aufgaben wären:
– Die Implementierung der Algorithmen ins CVK
– Die Evaluation dieser Algorithmen mit echten Daten


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Hierarchisches Border Flow (Bachelor)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Der BorderFlow Algorithmus erlaubt die zeiteffiziente Berechnung von Clustern in großen Graphen. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation einer Erweiterung des Border Flow- Algorithmus, die es erlauben soll, hierarchisch mit Border Flow zu clustern. Ihre Aufgaben wären:
– Konzeption und Implementierung einer Bibliothek von Methoden zum Berechnen von Cluster-Ähnlichkeiten
– Implementierung eines iterativen Ansatzes zum hierarchischen Clustern mittels Border Flow
– Evaluation auf synthetische und echten Daten aus der Biologie


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Porting Clustering to the Cloud (Bachelor / Master)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Besonders in der Biologie und in der Informatik entstehen riesige Netzwerke (mit Millionen von Knoten und Kanten), die nicht mehr zeiteffizient in einem Prozess analysiert werden können. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation eines Ansatzes zu Paralleliserung von BorderFlow, einem Graph-Clustering-Verfahren. Ihre Aufgaben wären:
– Konzeption eines Map Reduce Ansatzes für die Parallelisierung von Border Flow
– Umsetzung des Ansatzes und Implementierung mittels des Hadoop-Frameworks
– Evaluation auf synthetische und echten Daten aus der Biologie


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Applying Pseudo-Relevance Feedback to Population Learning (Master / Diplom)

Das Web of Data besteht bereits aus mehrerer Milliarden Tripeln, Tendenz steigend. Jedoch sind schätzungsweise nur 3–5% der Daten im Web of Data miteinander verlinkt. Zur automatischen verlinkung von Instanzen aus unterschiedlichen Wissensbasen werden bisher Werkzeuge benutzt, die Instanzen anhand einer Ähnlichkeitsmetrik miteinander vergleichen (z.B. LIMES). Ziel dieser Arbeit ist es, Pseudo-Relevance Feedback mit maschinellem Lernen zu verbinden, um bestmögliche Konfiguration für LIMES automatich zu berechnen. Das Rahmenwerk sowie entsprechende Vorarbeiten exisitieren bereits. Ihre Aufgaben wären:
– Erarbeitung eines entsprechenden Ansatzes
– Konzeption und Implementierung eines Prototyps
– Evaluation anhand verschiedener Use Cases


Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java
– Interesse an Machine Learning


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Cytoscape-Plugin für Border Flow


Graph Clustering wird erfreut sich einer wachsenden Popularität in den unterschiedlichsten Anwendungsgebieten, wie z.B. Information Retrieval, Bioinformatik, Data Mining, etc. Insbesondere in den ersten zwei Disziplinen ist der explorative Ansatz zentral für die Weiterverwendung der Ergebnisse. Ein populäres Visualiserungswerkzeug für diese Zwecke ist Cytoscape. Ihre Aufgabe besteht darin, ein Cytoscape Plugin für den BorderFlow-Algorithmus zu entwickeln, d.h.
– Erarbeitung einer Architektur für die Integration
– Entwicklung des Plugins
– Integration des Plugins und Tests


Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java
– Interesse an Graph Clustering und Anwendungen


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen.Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341


“Consuming Linked Data” Erweiterung für Shopsysteme im B2B

Linked Data / Semantic Web / RDF wird im Bereich der Business Intelligence für alle Beteiligten immer interessanter. Auch Anbieter von eCommerce-Plattformen wie Oxid E und Magento bieten mittlerweile RDFa Plugins zur maschinenlesbaren Repräsentation von Produkten und Produktkatalogen an (Linked Data produzierender Teilnehmer).


Im B2B Market werden diese – als RDF repräsentierten – Informationen bisher allerdings nur geringfügig ausgewertet. Eine Möglichkeit RDF in diesem Umfeld direkt wiederzuverwenden wäre die Integration von Produktdaten (repräsentiert mit dem Good Relations Vokabular) in eCommerce-Plattformen mittels geeigneter Plugins (Linked Data konsumierender Teilnehmer). Im Rahmen der Arbeit ist die Verwendung von Linked Data zur Shopdaten-integration zu untersuchen und anhand eines Oxid E- Shop Plugins prototypisch zu implementieren.


Dieses Thema kann im Rahmen einer Diplom- bzw Masterarbeit bearbeitet werden.
Gute Kenntnisse in PHP und hinreichende Kentnisse von Konzepten des Semantic Web / Linked Data Web sind hierfür Vorraussetzung


Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Michael Martin


Repräsentation und Publikation von Datenerhebungen im Linked Data Web


Zur Repräsentation und Publikation von Umfrage-Rohdaten sowie den dazugehörigen Fragekatalogen eignen sich besonders Technologien des Linked Data Web. Werden diese Daten in nicht-aggregierter Form mit Hilfe von RDF veröffentlicht, wird einerseits deren Wiederverwendungspotential massiv erhöht und andererseits ein größerer Kreis von Dateninteressenten aquiriert.
Im Rahmen dieser Arbeit ist eine Web-Applikation (oder auch eine Onto Wiki- Komponente) mit folgenden Eigenschaften zu entwickeln:

  • Benutzerfreundliche Erstellung von Fragenkatalogen auf Basis des Survey-Vokabulars
  • Durchführung von Umfragen auf Basis erstellter Fragenkataloge
  • Exemplarische Transformation von Umfrageergebnissen aus bestehenden Datenerhebungswerkzeugen (auf Basis einer zuvor getätigten Evaluation)
  • Erzeugung eines statistischen Daten-Raumes (in RDF) auf Basis des erzeugten Rohdaten-RDF-Models unter Verwendung des DataCube-Vokabulars

Dieses Thema kann im Rahmen einer Diplom-, Master- und unter Umständen sogar Bachelorarbeit bearbeitet werden.
Hinreichende Kentnisse von Konzepten des Semantic Web / Linked Data Web sind hierfür Vorraussetzung


Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Michael Martin



Gestaltung digitalisierter Weiterbildung und Wissensaustauschs mittels digitaler sozialer Netzwerke (Enterprise Social Networks)

Die Möglichkeit sich im Unternehmen zu qualifizieren und weiterzuentwickeln, ist ein Kriterium für „gute digitale Arbeit“. Die Digitalisierung hat bereits mit „eLearning“ ihren Einzug in die betriebliche Aus- und Fortbildung gefunden. Allerdings stellt sie sich hier noch immer weitgehend als ein klassisches Computer-based-Training-Angebot der 90er Jahre dar, statt wie früher auf CD heute nun im Intranet (Lowe 2001). In der Praxis führen mangelnde Individualisierung und das Fehlen sozialer Lernkomponenten zu hohen Demotivations-Effekten. Lernerfolgs¬kontrollen sind in den seltensten Fällen psychometrisch validiert. Weil die Transformation von implizitem Wissen der älteren Generationen zu explizitem Wissen nicht unterstützt wird, kann der notwendige Generationenaustausch kaum stattfinden. Aktuelle technologische Trends wie mobile Kommunikation, soziale Echtzeit Interaktion, Gamification, Big Data und Learning Analytics sind in den gegenwärtigen eLearning Szenarien noch kaum präsent.
Mögliche Schwerpunkte von BA/MA Arbeiten:

  • Lernen und Austausch in ESNs: Entwicklung von Funktionen zur Erhöhung der Motivation des Wissensaustausches in ESN mittels Gamificationsansätzen
  • Konzeption und Integration einer einfachen Serious Game Applikation in ein offenes ESN.
  • Konzeption und Integration einer vorhandenen Serious Game Lösungen an Personalentwicklungssysteme (Bspw. SAP oder andere offene Lösungen)
  • Funktionen der „guten Arbeit“ – Vergleichende Studie über IT-Funktionen zur Gestaltung „guter digitaler Arbeit“
  • Ihre Vorschläge…

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsprojekten

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.

Nutzung und Evaluation sozialer Netzwerke als Auslöser für Partizipation und Innovation (Enterprise Social Networks)

Partizipation von Beschäftigten ist eine wichtige Determinante für die Innova¬tionsfähigkeit von Unternehmen (Gerstlberger und Blume 2007). Mitarbeiter Innen müssen befähigt werden, digitale soziale Netzwerke für ein Mehr von Mitbestimmung und Innovationen einzusetzen, ohne dass es zu Überwachung und Datenschutz¬verletzungen kommt. Hierfür kommt eine Open-Innovation-Strategie zum Einsatz, welche für die Öffnung des Wissensflusses steht. Dieser Ansatz dient sowohl der Überwindung von internen Machthierarchien für Innovationen, als auch der Öffnung nach außen durch soziale Netzwerke.
Mögliche Schwerpunkte von BA/MA Arbeiten:

  • Evaluation und Entwicklung von ESN Funktionen zur Stärkung der innerbetrieblichen Partizipation und Innovation
  • Funktionen der „guten Arbeit“ – Vergleichende Studie über IT-Funktionen zur Gestaltung „guter digitaler Arbeit“
  • Ihre Vorschläge…

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsprojekten

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.

Entwicklung und Anwendung nachhaltiger Mobilitätskonzepte –soziale Netzwerke und ökologischer Nutzen (Enterprise Social Networks)

Starre Arbeitszeiten und Anwesenheitspflicht sind nicht selten mit negativen Auswirkungen auf Umwelt und Gesundheit verbunden – wie etwa Staus in der so genannten „Rush hour“ und der damit verbundene Stress auf der Fahrt zur oder von der Arbeit tagtäglich zeigen. Mehrere Krankenkassen haben in den letzten Jahren zu diesem Thema Studien in Auftrag gegeben, die einen Zusammenhang zwischen Stress durch Pendeln und erhöhten Krankheitszeiten nahelegen (Techniker-Krankenkasse 2012) (DAK). Angestrebt wird eine gute Balance zwischen Anwesenheit und Home-office, in Verbindung mit flexiblen Arbeitszeitkonzepten, Vereinbarkeit von Familie und Beruf sowie nachhaltigen Verkehrs- und Büronutzungskonzepten. Um die Eigenverantwortung der Mitarbeiter Innen nicht in Belastung umkippen zu lassen, wird auf verschiedene Anreizsysteme gesetzt um die Herstellung einer entsprechenden Ausgewogenheit und Balance zwischen den verschiedenen genannten Dimensionen zu unterstützen
Mögliche Schwerpunkte von BA/MA Arbeiten:

  • Evaluation und Entwicklung von ESN Funktionen zur Stärkung von ökologischen Mobilitätsverhalten von Mitarbeitern
  • Funktionen der „guten Arbeit“ – Vergleichende Studie über IT-Funktionen zur Gestaltung „guter digitaler Arbeit“
  • Ihre Vorschläge…

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.

Big Data in Bio Economy – Precision agriculture

Experiences from US show that bioeconomy and specifically agriculture can get a significant boost from Big Data. In Europe, this sector has until now attracted few large ICT vendors. A central goal of the BA/MA theses are to develop or enhance Big Data applications and systems for boosting the lagging bioeconomy productivity
BA/MA theses can be written und German or English, with the focus on:

  • Data-driven services for remote plant disease diagnosis and assessment
  • Contextual weather condition alert system for crop protection or other action support
  • Data-driven improvement of the water resource management
  • Data-driven support for efficient soil fertilization and spray services

All topics address the usage and integration of following data sources is possible

  • Soil Data,
  • Weather Data,
  • Map Data,
  • Satellite (LR, HR, VHR, SAR),
  • Farm Logs,
  • UAV,
  • farm profile data, and 
  • data collected by mobile audio visual devices

The topic needs to be specified in personal or email conversations. Further, the BA/MA thesis will be strongly linked to the EU Data:Bio project. Needed data will be provided. Excellent works might be included into international publications.
If you are interested in, please contact Christian Zinke

Big Data in Bio Economy – Predictive Analytics and Machine Learning

Experiences from US show that bioeconomy and specifically agriculture can get a significant boost from Big Data. In Europe, this sector has until now attracted few large ICT vendors. A central goal of the BA/MA theses are to develop or enhance Big Data applications and systems for boosting the lagging bioeconomy productivity
BA/MA theses can be written und German or English, with the focus on:

  • Anomaly detection data analysis (predictive and descriptive analytics)
  • Image analysis (satellite or airplane) for agriculture

All topics address the usage and integration of following data sources is possible

  • Soil Data,
  • Weather Data,
  • Map Data,
  • Satellite (LR, HR, VHR, SAR),
  • Farm Logs,
  • UAV,
  • farm profile data, and 
  • data collected by mobile audio visual devices

The topic needs to be specified in personal or email conversations. Further, the BA/MA thesis will be strongly linked to the EU Data:Bio project. Needed data will be provided. Excellent works might be included into international publications.
If you are interested in, please contact Christian Zinke.

Evaluation von modularen IT-Architekturen für kleinteilige Prozesse (BA/MA)

Die Wertschöpfungsstrukturen in der Kultur- und Kreativwirtschaft, speziell in der Musikindustrie, sind in den letzten Jahren aufgrund der Globalisierung und Digitalisierung – verbunden mit dem Eintreten neuer Akteure in den Markt, die vorher meist branchenfern agierten – weitreichenden Veränderungs- und Umbruchsprozessen unterworfen. Dies fordert bisher existierenden Geschäftsmodelle und Leistungsangebote heraus, bietet aber gleichzeitig die Chance, neue Dienstleistungen anzubieten und Marktangebote zu etablieren, die bisher nicht möglich bzw. denkbar waren. In jedem Fall kommt dem geeigneten und problemlösungsorientierten Einsatz von Informationstechnologie dabei eine zunehmend entscheidende Rolle zu.
Ihre Aufgaben umfassen

  • Einarbeitung in modulare IT-Architekturen
  • Evaluation von Softwarelösungen und Frameworkansätzen

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.

Ontologie-basierte Integration von Microservices (BA/MA)

Die Wertschöpfungsstrukturen in der Kultur- und Kreativwirtschaft, speziell in der Musikindustrie, sind in den letzten Jahren aufgrund der Globalisierung und Digitalisierung – verbunden mit dem Eintreten neuer Akteure in den Markt, die vorher meist branchenfern agierten – weitreichenden Veränderungs- und Umbruchsprozessen unterworfen. Dies fordert bisher existierenden Geschäftsmodelle und Leistungsangebote heraus, bietet aber gleichzeitig die Chance, neue Dienstleistungen anzubieten und Marktangebote zu etablieren, die bisher nicht möglich bzw. denkbar waren. In jedem Fall kommt dem geeigneten und problemlösungsorientierten Einsatz von Informationstechnologie dabei eine zunehmend entscheidende Rolle zu. In der Musikbranche kommt u.a. die Music Business Ontology zum Einsatz.
Voraussetzung

  • Basiswissen Ontologie

Ihre Aufgaben umfassen

  • Einarbeitung in Microservices
  • Entwicklung und Implementierung von Ontologie-basierten Integrationsansätzen von Mircoservices

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.


Enhancement of the music ontology towards the needs of the music business

The music ontology specifies the main concepts and properties for music description in the Semantic Web. These can be artists, albums, tracks, composer, remixer, live performances etc. The ontology does not yet entirely cover properties related to the music business (e.g. properties related to collecting societies). These shall be identified, added and treated for a user friendly usage within the Semantic Web:

  • item analysis of the current state of semantic data in the music ontology
  • item analysis of the current state of possible semantic data and actual technical implementations in the music industry
  • item concept for the enhancement of the music ontology
  • item implementation of a user friendly prototype for the access, visualization and data integration of the semantic data based on the music ontology

For further information pls contact:
Ronny Gey(Email); Frank Schumacher (Email)

Analyse von Metadatenstandards in der Musikbranche. (Bachelor / Master)

Ihr Aufgabengebiet:
Die Vermarktung von Kulturgütern in der digitalen Welt findet statt, ohne dass dafür definierte Pro-zesse und deren technische Realisierung in Anwendungen und Schnittstellen existieren. Eine Her-ausforderung bei der Bedienung dieses Marktes stellt die Tatsache dar, dass viele der Marktteil-nehmer Klein- und Kleinstunternehmen sind, die derlei Prozessdefinitionen und Implementierungen für ein branchenweites Informations- und Wissensmanagement nicht alleine initiieren können. Der Bedarf an einer medienbruchfreien, also ohne manuelle Kopiervorgänge funktionierenden Ar-tefaktverwaltung als Basis der informationstechnischen Unterstützung ist durch die Vielzahl der Marktteilnehmer sehr hoch und wird durch die jährliche Höhe der nicht zugeordneten Vergütungen an die Urheber deutlich belegt.

  • IST-Analyse vorhandener Metadatenstandards in der Musikbranche (Marktteilnehmer, ein-gesetzte Softwarelösungen und Schnittstellen)
  • Entwicklung einer Systematik für eine semantische Zuordnung der Metadaten zwischen den einzelnen Formaten
  • Erstellung eines übergreifenden Metadatenmodells

Wir bieten Ihnen:

  • Intensive Betreuung bei der Konzeption, Organisation und Durchführung Ihrer Abschlussarbeit
  • den Einstieg in ein interessantes Themengebiet mit Zukunftsperspektiven
  • die Möglichkeit der gemeinsamen Publikation der Ergebnisse
  • je nach Umfang und wissenschaftlicher Tiefe ein Bachelor- oder Masterarbeitsthema

Wir erwarten von Ihnen:

  • Studium der Informatik / Wirtschaftswissenschaften / Wirtschaftsinformatik oder vergleichbarer Studiengänge
  • Interesse und grundlegendes Verständnis für die Problematik der Dienstleistungsentwicklung und des Innovationsmanagements
  • eine selbständige und systematische Arbeitsweise

Ansprechpartner: Frank Schumacher (Email)

Untersuchung der Performanzentwicklung von Tomcat

Software-Entwicklungsprojekte sind regelmäßigen Refactorings und Funktionserweiterungen unterworfen. Eine Untersuchung, welche Auswirkungen Änderungen auf die Softwareperformanz hat, ist bislang nicht erfolgt. Derzeitig wird ein Werkzeug zur Performanzanalyse von Softwaresystemversionen durchgeführt, dessen Ziel es ist, Performanzveränderungen in verschiedenen Revisionen festzustellen. Dies geschieht durch die Transformation der Unit-Tests zu Performanz-Unit-Tests, mittels denen festgestellt wird, welche Performanz bestimmte Testfälle haben und ob sich diese verändert.


Mit einem bestehenden Werkzeug soll der Applikationsserver Tomcat untersucht werden. Das bestehende Werkzeug zur Performanzanalyse von Softwaresystemversionen soll so erweitert werden, dass es Tomcat-Ant-Buildskripte um Performanzmessungen und Performanztestinstrumentierung erweitern kann. Hiermit sollen Performanzveränderungen gefunden werden. Abschließend sollen die gefundenen Performanzveränderungen klassifiziert und mit Performanz-Antipatterns aus der Literatur verglichen werden.


Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden. Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an David Georg Reichelt.

Entwicklung eines Maven-Plugins zur Performanzmessung

Softwareperformanz ist, gerade für kleinere Programmeinheiten, schwer messbar: Andere Programme, die die selben Ressourcen benutzen, JIT-Compilierung, Garbage Collection, die Ungenauigkeit der Messungen selbst, etc. verändern Messwerte bei jeder Messung.


Während der Softwareentwicklung verändert sich die Performanz eines Programms regelmäßig. Neue Funktionalitäten können eine Verlangsamung des Programms verursachen. Um dies zu verhindern, sollen Performanz-Unit-Tests die Erfüllung von Performanzanforderungen sichern. Problematisch ist, dass Performanzmesswerte sich bei jeder Messung unterscheiden.


In der Abschlussarbeit soll deshalb ein Maven-Plugin entwickelt werden, dass Performanzmessungen zuverlässig macht, indem mehrere VM-Ausführungen nacheinander durchgeführt werden und anschließend statistische Kennzahlen dieser Ausführungen ermittelt wird. An einem Beispielprojekt soll gezeigt werden, dass das Plugin im Buildprozess genutzt werden kann.


Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden. Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an David Georg Reichelt.

M3-Level-basierten Transformation zur Integration von ERP-Systemen

M3-Level-basierte Transformationen transformieren Modelle und deren Metamodelle auf Basis von Abbildungsregeln, die zwischen Meta-Metamodellen definiert wurden. Bisher wurde dieser Ansatz im Bereich der Metamodellierungswerkzeuge angewendet. Man kann allerdings davon ausgehen, dass die notwendige Struktur (ein Modellraum mit drei Modell-Ebene) ebenfalls in anderen Anwendungsbereichen vorkommt. Es wird angenommen, dass solch ein Modellraum auch im Bereich der betrieblichen Informationssysteme, speziell den ERP-Systemen, vorkommt. Ziel der Arbeit ist es diese Annahme zu bestätigen und darauf aufbauend eine M3-Level-basierte Transformation zwischen zwei ausgewählten ERP-Systemen zu entwickeln.


Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden. Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Heiko Kern.


 
2006-03-28 09:30:52    (226 Kb)  da_ws.pdf Dienstleistungsbeschreibung auf Basis existierender Web Service Standards
2008-09-04 10:40:50    (2 Kb)  ibm_logo.png  
Kein Kommentar. [Zeige Kommentare]