Abschlussarbeiten


Die folgenden Diplomarbeiten sind derzeit für interessierte Studenten zu vergeben. Sollten Sie einen anderen Abschluss (z.B. Bachelor, Master) anstreben, können die meisten Themen daraufhin angepasst werden. Kontaktieren Sie dafür bitte den entsprechenden Ansprechpartner. Darüber hinaus sind wir natürlich offen für Ihre Vorschläge.

Inhalt

Vorbereitete Themen


Abschlussarbeiten in der Arbeitsgruppe AKSW sind auf der Seite http://aksw.org/Teaching verfügbar


Berechung von ökologisches Verkehrsverhalten

Hauptfragestellungen der Arbeit sind:

  • Wir wird ökologisches Verkehrsverhalten berechnet?
  • Wie kann diese Berechnung zur Incentivierung für ökologisches Verkehrsverhalten (Carsharing, Bikesharing, Fahrgemeinschaft, eigenes Fahrrad, Walking, Öffentliche Verkehrsmittel) genutzt werden?
  • Wie können Gerechtigkeitsempfindungen in die Berechnung und Incentivierung einbezogen werden?
  • Wie wird z.B. Carsharing incentiviert in Gegensatz zur Fahrt mit dem Bus/der Umstieg vom eigenen Auto auf das Fahrrad bewertet im Gegensatz zu einem User, der schon immer Fahrrad fährt?

Es sind theoretische und praktische Arbeiten zu diesem Themenkomplex willkommen.


Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.


Incentivierung für ökologisches Verkehrsverhalten

Hauptfragestellungen der Arbeit sind:

  • Wie kann eine sinnvolle Incentivierung für ökologisches Verkehrsverhalten aus Sicht eines Unternehmens erreicht werden (z.B. steuerlich absetzbar)?
  • Welche Incentives wirken motivierend für Mitarbeiter?

Der Fragestellung sollte sich vor allem technisch genähert werden und aktuelle Ansätze der digital gestützten Incentivierung in Hinblick auf ökologisches Verhalten untersuchen. Querbezüge zu Gamification sind wünschenswert, aber nicht Voraussetzung. Bewerber*innen sollten Vorkenntnisse oder hohe Motivation zur Aneignung neuen Wissens mitbringen.


Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.


Gestaltung digitalisierter Weiterbildung und Wissensaustauschs mittels digitaler sozialer Netzwerke (Enterprise Social Networks)

Die Möglichkeit sich im Unternehmen zu qualifizieren und weiterzuentwickeln, ist ein Kriterium für „gute digitale Arbeit“. Die Digitalisierung hat bereits mit „eLearning“ ihren Einzug in die betriebliche Aus- und Fortbildung gefunden. Allerdings stellt sie sich hier noch immer weitgehend als ein klassisches Computer-based-Training-Angebot der 90er Jahre dar, statt wie früher auf CD heute nun im Intranet (Lowe 2001). In der Praxis führen mangelnde Individualisierung und das Fehlen sozialer Lernkomponenten zu hohen Demotivations-Effekten. Lernerfolgs¬kontrollen sind in den seltensten Fällen psychometrisch validiert. Weil die Transformation von implizitem Wissen der älteren Generationen zu explizitem Wissen nicht unterstützt wird, kann der notwendige Generationenaustausch kaum stattfinden. Aktuelle technologische Trends wie mobile Kommunikation, soziale Echtzeit Interaktion, Gamification, Big Data und Learning Analytics sind in den gegenwärtigen eLearning Szenarien noch kaum präsent.
Mögliche Schwerpunkte von BA/MA Arbeiten:

  • Lernen und Austausch in ESNs: Entwicklung von Funktionen zur Erhöhung der Motivation des Wissensaustausches in ESN mittels Gamificationsansätzen
  • Konzeption und Integration einer einfachen Serious Game Applikation in ein offenes ESN.
  • Konzeption und Integration einer vorhandenen Serious Game Lösungen an Personalentwicklungssysteme (Bspw. SAP oder andere offene Lösungen)
  • Funktionen der „guten Arbeit“ – Vergleichende Studie über IT-Funktionen zur Gestaltung „guter digitaler Arbeit“
  • Ihre Vorschläge…

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsprojekten

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.

Nutzung und Evaluation sozialer Netzwerke als Auslöser für Partizipation und Innovation (Enterprise Social Networks)

Partizipation von Beschäftigten ist eine wichtige Determinante für die Innova¬tionsfähigkeit von Unternehmen (Gerstlberger und Blume 2007). Mitarbeiter Innen müssen befähigt werden, digitale soziale Netzwerke für ein Mehr von Mitbestimmung und Innovationen einzusetzen, ohne dass es zu Überwachung und Datenschutz¬verletzungen kommt. Hierfür kommt eine Open-Innovation-Strategie zum Einsatz, welche für die Öffnung des Wissensflusses steht. Dieser Ansatz dient sowohl der Überwindung von internen Machthierarchien für Innovationen, als auch der Öffnung nach außen durch soziale Netzwerke.
Mögliche Schwerpunkte von BA/MA Arbeiten:

  • Evaluation und Entwicklung von ESN Funktionen zur Stärkung der innerbetrieblichen Partizipation und Innovation
  • Funktionen der „guten Arbeit“ – Vergleichende Studie über IT-Funktionen zur Gestaltung „guter digitaler Arbeit“
  • Ihre Vorschläge…

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsprojekten

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.

Entwicklung und Anwendung nachhaltiger Mobilitätskonzepte –soziale Netzwerke und ökologischer Nutzen (Enterprise Social Networks)

Starre Arbeitszeiten und Anwesenheitspflicht sind nicht selten mit negativen Auswirkungen auf Umwelt und Gesundheit verbunden – wie etwa Staus in der so genannten „Rush hour“ und der damit verbundene Stress auf der Fahrt zur oder von der Arbeit tagtäglich zeigen. Mehrere Krankenkassen haben in den letzten Jahren zu diesem Thema Studien in Auftrag gegeben, die einen Zusammenhang zwischen Stress durch Pendeln und erhöhten Krankheitszeiten nahelegen (Techniker-Krankenkasse 2012) (DAK). Angestrebt wird eine gute Balance zwischen Anwesenheit und Home-office, in Verbindung mit flexiblen Arbeitszeitkonzepten, Vereinbarkeit von Familie und Beruf sowie nachhaltigen Verkehrs- und Büronutzungskonzepten. Um die Eigenverantwortung der Mitarbeiter Innen nicht in Belastung umkippen zu lassen, wird auf verschiedene Anreizsysteme gesetzt um die Herstellung einer entsprechenden Ausgewogenheit und Balance zwischen den verschiedenen genannten Dimensionen zu unterstützen
Mögliche Schwerpunkte von BA/MA Arbeiten:

  • Evaluation und Entwicklung von ESN Funktionen zur Stärkung von ökologischen Mobilitätsverhalten von Mitarbeitern
  • Funktionen der „guten Arbeit“ – Vergleichende Studie über IT-Funktionen zur Gestaltung „guter digitaler Arbeit“
  • Ihre Vorschläge…

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung des Themas notwendig

  • Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Studiengänge
  • Gute Kenntnisse der englischen Sprache zur Bearbeitung der Literatur
  • Interesse an der Mitarbeit in einem aktuellen Forschungsgebiet

Das Thema gilt es im persönlichen Gespräch noch zu detaillieren und entsprechend der Kompetenzen und Interessen der Bewerber zu schärfen. Wir bieten eine umfangreiche Betreuung sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit kann dazu beitragen, ein aktuelles Themengebiet voranzubringen und ist geeignet, die gesammelten Erkenntnisse in die Praxis umzusetzen. Gleichzeitig bieten wir die Möglichkeit gemeinsam exzellente Arbeiten zu nutzen um diese in internationale Publikationstätigkeiten zu integrieren. Die Arbeit kann in Englisch und Deutsch verfasst werden.
Bei Interesse wenden Sie sich bitte an Christian Zinke.

Big Data in Bio Economy – Precision agriculture

Experiences from US show that bioeconomy and specifically agriculture can get a significant boost from Big Data. In Europe, this sector has until now attracted few large ICT vendors. A central goal of the BA/MA theses are to develop or enhance Big Data applications and systems for boosting the lagging bioeconomy productivity
BA/MA theses can be written und German or English, with the focus on:

  • Data-driven services for remote plant disease diagnosis and assessment
  • Contextual weather condition alert system for crop protection or other action support
  • Data-driven improvement of the water resource management
  • Data-driven support for efficient soil fertilization and spray services

All topics address the usage and integration of following data sources is possible

  • Soil Data,
  • Weather Data,
  • Map Data,
  • Satellite (LR, HR, VHR, SAR),
  • Farm Logs,
  • UAV,
  • farm profile data, and 
  • data collected by mobile audio visual devices

The topic needs to be specified in personal or email conversations. Further, the BA/MA thesis will be strongly linked to the EU Data:Bio project. Needed data will be provided. Excellent works might be included into international publications.
If you are interested in, please contact Christian Zinke

Big Data in Bio Economy – Predictive Analytics and Machine Learning

Experiences from US show that bioeconomy and specifically agriculture can get a significant boost from Big Data. In Europe, this sector has until now attracted few large ICT vendors. A central goal of the BA/MA theses are to develop or enhance Big Data applications and systems for boosting the lagging bioeconomy productivity
BA/MA theses can be written und German or English, with the focus on:

  • Anomaly detection data analysis (predictive and descriptive analytics)
  • Image analysis (satellite or airplane) for agriculture

All topics address the usage and integration of following data sources is possible

  • Soil Data,
  • Weather Data,
  • Map Data,
  • Satellite (LR, HR, VHR, SAR),
  • Farm Logs,
  • UAV,
  • farm profile data, and 
  • data collected by mobile audio visual devices

The topic needs to be specified in personal or email conversations. Further, the BA/MA thesis will be strongly linked to the EU Data:Bio project. Needed data will be provided. Excellent works might be included into international publications.
If you are interested in, please contact Christian Zinke.



Wiktionary 2 RDF Online Editor GUI 

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (currently for 4–6 languages). The configuration is currently done by configuring an XML file that serves as a wrapper for a language specific Wiktionary edition. The community would greatly benefit from an online tool that helps to create and update such xml wrapper configurations.
The editor should be able to load an existing config file and then give the RDF output for a piece of Wiki syntax. Measure of success is how easy a wrapper can be created and maintained.
Links:

Wiktionary 2 RDF Live Extraction

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor (see also the Master thesis extension: Built an Application Suite on Top of the Wiktionary2RDF Live Extraction
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (at the moment for 4–6 languages). However, only static dumps are produced and made available as download here: http://downloads.dbpedia.org/wiktionary
The DBpedia Live Extraction is also built on the framework and receives regular updates from Wikipedia and keeps an RDF triple store in sync. On the basis of this synced triple store, we can find potential improvements and provide *simple* suggestions to Wiktionary editors.
Goal is:

  1. to have a running Live Extraction for Wiktionary 2 RDF
  2. provide simple suggestions for editors of Wiktionary with a GUI

The DBpedia Extraction Framework is written in Scala, the GUI can be in any language (Java Script seems to be a good choice, however)


Links:


Built an (NLP) Application Suite on Top of the Wiktionary 2 RDF Live Extraction

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, research, Master thesis (see also the prerequisite topic Wiktionary2RDF Live Extraction, which is included here )
Involved communities: Wiktionary2RDF and therefore DBpedia and Wiktionary

See description above (Wiktionary 2 RDF Live Extraction). This project has three potential flavours:

  1. collect existing tools and methods, which might be improved using Wiktionary data and then extend them and improve them. This includes tools such as QuicDic Apertium
  2. Create useful tools for the Wiktionary users and editors. Either by providing suggestions for editors of Wiktionary with a GUI e.g. based on Parsoid, checking consistency or automatically by bots
  3. Research: improve existing NLP systems based on the yet unproven assumption that Wiktionary data is much better than traditional lexica

Goal is:

  1. to have a running Live Extraction for Wiktionary 2 RDF
  2. built an application suite on top of the Live Extraction for Wiktionary 2 RDF that provides measurable benefits (for one of the three flavours)

Possible tools to include in the suite:


Links:


Web Annotation: Annotate It + NIF 

The tool Annotate It is written in Coffee Script and uses its own JSON format for data serialization. Goal of this project is to make it interoperable with NIF.
Links:

Web Annotation: My Annotation + NIF 

Improve Usability of MyAnnotation and make it interoperable with NIF.
Links:

NIF + Clarin's TCF 

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: NLP2RDF, Clarin-D

Create a converter from Clarin's TCF format to NIF (round trip). The resulting software will be hosted as a web service and will connect the Clarin and NLP2RDF world.
Links:

Explication of Statistical Relations

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Research / Explorative, Master thesis
Good chance for a scientific publication, if results are good.

Recent advances in semantic technologies (RDF, SPARQL, Sparqlify, RDB2RDF, Wiktionary 2 RDF, NIF, LLOD ) allow us to efficiently combine statistical data sets such as the Wortschatz with structured data such as Wiktionary 2 RDF with context information found in text using NIF .
The goal of this project is to research if statistical measures such as significant left/right neighbour/sentence co-occurrences or iterated co-occurrences can be used to assert the “correct” relation between terms in text and explicate it as an RDF property. The available structured data
Examples:

  • He wears a green shirt.
  • He wears a green t-shirt.

“shirt” and “t-shirt” occur frequently with color adjectives and the verb “wear”.
Research Questions:

  • Can we entail synonymy of “shirt” and “t-shirt”? Generally, not, but in certain contexts, yes. How can we measure this and produce RDF?
  • What can we do with the combination of Wortschatz, Wiktionary, NIF in RDF?

Links:

Technology:


Use-Case-driven Development and Improvement of RDB2RDF Mapping (Sparqlify)

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de, Claus Stadler – cstadler@informatik.uni-leipzig.de
Type: Research / Engineering, Master thesis
Involved communities: OWLG, LLOD cloud

The members of the Working Group for Open Data in Linguistics OWLG have expressed great interest in the conversion of their databases to RDF. In this context, we see a good chance that the Sparqlify tool, which is developed by our research group can greatly help to speed up this process. We expect you to help convert and interlink a great number of linguistic data sets and produce high quality Linked Data bubbles for the LLOD cloud. This process will, of course, reveal many missing features and gaps for improvements of Sparqlify. Goal of the project is therefore:

  1. Create mappings from relational databases to RDF (data is supplied by community)
  2. Systematically collect gaps and missing features
  3. Based on 2.: fix and improve Sparqlify with the aim to creating a production-ready software with high impact and great performance (involves possible benchmarking).

Links:

Badge Server for Gamification of Reward System for Online Communities

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis, Internship
Involved communities: DBpedia and many more.

The AKSW research group is involved in many online communities. Although the members of these communities are highly active and contribute work to the projects, there are not any reward mechanisms in place to remunerate this effort)). This practical problem can be solved by a badge server, which implements three operations:

  1. an admin/moderator can add a badge (including a description, what has to be achieved and an image)
  2. a community member can apply for a badge, presenting proof that he has successfully completed the task
  3. the admin/moderator approves the request and awards the badge to the user.

Example badges: “Over 100 commits to the DBpedia framework”, «Created a language config for http://dbpedia.org/Wiktionary".
To be an effective system usability needs to be high and the awarding and displaying of badges need to be disseminate correctly, e.g. with RDF, RSS, Widgets, etc.
Before implementing the student has to do research and make sure, whether there is already a similar open-source implementation.


Overview Links:


Bridging NIF, ITS and XLIFF

Click here for an explanations about how the process works or write an email.
Contact: Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis (or Master thesis, if an integration into the Okapi Framework is done)
Involved communities: NLP2RDF and the http://www.w3.org/International/multilingualweb/lt/ MultilingualWeb-LT Working Group

ITS and XLIFF are two formats, which are widely used in the internationalisation and localization industry. The main goal of this thesis is to provide software and algorithms that are able to transform the both formats lossless into the newly developed NLP Interchange Format and back (round-trip bridge). One of the challenge is to provide an algorithm that allows to transform offset annotations into XML/HTML markup.
Overview Links:

Technical details:

Make the DBpedia resource page more interactive/attractive

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Voluntary student project / internship / Bachelor thesis
Involved communities: DBpedia

Change the DBpedia resource html display page (i.e. http://dbpedia.org/page/Steve_Martin) and make it more interactive by integrating information from other LOD datasets. This can be achieved by working on both the front-end (html/css/javascript) and the server-side. For the server side we use Open Link Virtuoso VSP technology (similar to PHP) but we are open to other suggestions as well. If the implementation is good, this work will be deployed to DBpedia.


Ideas on what we imagine to accomplish may come from Freebase.

Create a new geodata LOD dataset

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis / Master thesis
Involved communities: DBpedia, linkedgeodata

Bachelor thesis: The purpose of this thesis will be to create a new LOD Dataset from Yahoo WOEID – Where On Earth Identifier. WOIED is supported / updated by Yahoo, used by many geodata applications (i.e. Flickr) and is considered to be an established place categorization. After converting the dataset to triples, the next step will be to link it with other LOD datasets, such as Linked Geo Data, DBpedia, geonames.
Master thesis: It’s not very clear if this is qualified to be extended as a Master thesis, but an idea would be to use this and other LOD datasets and create a LOD tourist guide.

Semi-automatic Wikipedia article correction

Note: this project has to be in English only
Click here for an explanations about how the process works or write an email.
Contact: Dimitris Kontokostas kontokostas@informatik.uni-leipzig.de, Sebastian Hellmann – hellmann@informatik.uni-leipzig.de
Type: Engineering, Bachelor thesis
Involved communities: DBpedia and Wikipedia

We have developed a DBpedia extractor that extracts metadata from templates, thus, we have information for correct infobox usage in Wikipedia articles (metadata). Using this metadata we can check if Wikipedia authors use proper infobox declarations inside articles, identify wrong usage and suggest corrections. The benefits of resolving these errors are: 1) Correct the Wikipedia articles and 2) get better and more DBpedia triples.


We have 2 specific example cases here:

  • An editor misspells an infobox instance (i.e.“Infobox Artist” to “Infobox Artist”). This would result in hiding the infobox from the page display, as mediawiki would not know how to render it.
  • An editor misspells an infobox property (i.e. “birth place” to “birthplace”). This would also result in hiding the property from the Infobox display.

In both cases DBpedia gets wrong or no results at all.


There is already a simple preliminary shell script implemented for this but we are looking for a program implementation (preferably in Scala / Java in order to include it in the DBpedia Framework) that will also use LIMES for suggesting corrections.


Links:


Game Theory: Distributed Solving (Master)


One of the grand challenges of Artificial Intelligence research is to solve games by proving perfect strategies. Recent success have been reported for 2 person limit Texas hold'em poker (Science journal, 2015) and checkers (Science journal, 2007). (Weakly) solving a game means to know which party can win (and how) from the starting position. Those solutions partially have applications in economy, but are also done for the sheer joy of solving those hard games.


The aim of this master thesis is to design a distributed game solver, which can run on a cluster of processing nodes. Once this is done, it should be applied to a game of choice (Skat, Chess and Go are the current candidates). Depending on the game of choice, a detailed solving strategy will be designed to allow taking the particularities of each game into account (e.g. for Skat a mixed strategy Nash equilibrium needs to be computed). Access to very large computational resources will be provided such that it is likely that more complex (fragments of) games can be solved.


What we expect:

  • the master thesis is mostly suitable for excellent students who aim at a scientific career and are motivated by achieving unprecedented results
  • motivation to read a book on game theory basics (approx. 1–2 weeks effort)
  • motivation to obtain basics on distributed computing (e.g. AMQP)
  • programming knowledge in at least one of these languages: C++, Java, Python

What we offer:

  • comprehensive supervision
  • very significant computational resources
  • support & collaboration in follow-up publications

if you are interested in this topic, please contact:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Erweiterung des LinkedGeoData-Browsers (Masterarbeit)

Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen.
Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte.


Ziel der Arbeit ist das Überarbeiten des Browsers gemä­ß der im Rahmen der Arbeit noch näher zu spezifizierenden Anwendungsfälle. Dabei liegt der primäre Fokus auf der Performanz der im Hintergrund ablaufenden Anfragen an die Datenquellen. Für die Anwendungsfälle sollen daher verschiedene Datenrepräsentationen und Anfragestrategien erarbeitet und bewertet werden. Die Ergebnisse sollen in eine Anpassung des Browsers an die Anwendungsfälle einflie­ßen, wofür eine passende Architektur zu konzipieren und umzusetzen ist. Sofern es die Zeit erlaubt, wäre es möglich, den überarbeiteten Browser noch in einem Usability-testing zu unterziehen.


Aufgabenstellung

  • Konzeption von Anwendungszenarien für den Browser
  • Evaluation verschiedener Repräsentationen von Geodaten und entsprechender Querystrategien in Bezug auf Performanz
  • Konzeption einer geeigneten Architektur des Browsers
  • Implementierung, dabei ggf. Anpassung der GUI
  • Eventuell Usability-testing

Vorraussetzungen

  • Kenntnisse in PHP und Java-Script
  • Kenntnisse in Java und Semantic Web-Technologien vorteilhaft aber nicht Bedingung

Wir bieten

  • Umfassende Betreuung durch am Thema stark interessierte Mitarbeiter
  • Mitarbeit an Publikationen (falls gewünscht)

Bei Interesse können Sie sich an Claus Stadler und Jens Lehmann wenden.

Geo-Spiel: Interlinking

Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen. Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte.


Analog wurde in der AKSW-Gruppe mit VeriLinks ein Spiel-Framework entwickelt, dessen Kernidee es ist Spieler im Hintergrund Verknüpfungen (Links) zwischen Wissensbasen validieren zu lassen. Mehrere Spieler können dabei um Punkte / Geld spielen, während sie wertvolles Feedback zu den Links liefern.


Kernidee dieser Arbeit ist es beide Komponenten zu vereinigen: Der Spieler startet (analog zu Spielen wie Parallel Kingdom) auf einer Karte, z.B. dem Ort an dem er sich gerade befindet. Auf diesem Kartenausschnitt werden Elemente aus Linked Geo Data angezeigt, z.B. bestimmte Häuser, Restaurants, Sehenswürdigkeiten, Pubs usw. Gleichzeitig sollen Objekte aus anderen Wissensbasen angzeigt werden, z.B. Bilder aus Flickr. Ziel ist es die Objekte zuzuordnen, d.h. einem Linked Geo Data- Objekt ein Objekt aus einer anderen Wissensbasen zuzuordnen. Zum Beispiel kann der Spieler entscheiden, ob ein bestimmtes Bild tatsächlich zu einer Sehenswürdigkeit gehört. Wenn ein Spieler mit seiner Entscheidung mit anderen Spielern übereinstimmt, so erhalten diese Spieler Punkte. Die Punkte können dann genutzt werden um bestimmte Fähigkeiten zu erlernen, Territorium zu beanspruchen usw. Der Arbeit ist an der Stelle keine Grenze gesetzt.


Ihre Aufgabe ist:

  • Entwickeln eines Online-Spiels nach der oben beschriebenen Idee
  • Einarbeitung in Semantic Web Technologien wie RDF

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Javascript-Kenntnisse
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Claus Stadler – cstadler@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Distributed Researcher Network

Semantic Web Technologien erlauben den globalen Austausch von Informationen. Insbesondere sind in den letzten Jahren Ideen entwickelt wurden um Daten dezentral verwalten zu können, wie z.B. hier beschrieben. In dieser Arbeit sollen verteilte Semantic Web Technologien am Anwendungsszenario von Forscherwebseiten (wie z.B. http://jens-lehmann.org ) realisiert werden. Die meisten Forscher verwalten in irgendeiner Form Publikationen, Präsentationen, Ereignisse usw. Um den Verwaltungsaufwand dafür zu reduzieren ist eine Kombination aus verschiedenen Datenquellen notwendig: 1.) Information die aus zentralen Quellen kommen, z.B. Publikationen aus Google Scholar. 2.) Informationen die aus dem Netzwerk des Forschers kommen, z.B. kann ein Ko-Autor eines Artikels bereits Informationen hinterlegt haben (z.B. Thema des Artikels oder die Zuordnung zu einem Projekt), die man selbst wiederverwenden möchte. 3.) Selbst erstellte Informationen. Mit Techniken des verteilten semantischen Webs lassen sich diese Szenarien realisieren. Die prinzipielle Protokoll- und Toolunterstützung existiert bereits, z.B. im OntoWiki Tool. Ziel der Arbeit ist die Anpassung auf den konkreten Anwendungsfall der Erstellung von Forscherwebseiten, d.h. insbesondere a) Synchronisationsdienste mit z.B. Google Scholar und b) die Entwicklung eines Front-Ends (d.h. der eigentlichen Forscherwebseite) unter Nutzung der im Backend gesammelten Daten. Solch ein System bietet Vorteile gegenüber existierenden Möglichkeiten für einen Wissenschaftler eine eigene Webseite zu erstellen:


  • Vorteile gegenüber normalen traditionellen Webseiten:
    • weniger Verwaltungsaufwand, da z.B. nur ein Autor eine Publikation eintragen muss
    • viel mehr Möglichkeiten beim browsen/filtern/visualisieren
    • bessere Wiederverwendung der Daten z.B. können sie dann leichter den Seiten von Arbeitsgruppe oder Projekt eingeblendet werden
  • Vorteile gegenüber arbeitsgruppen-/projektspezifischen Seiten:
    • viele Forscher wechseln mehrfach die Arbeitsgruppe während ihrer Karriere – statt dann woanders neu anzufangen (ev. mit einem anderen System) kann man einfach existierende Daten behalten
  • Vorteile gegenüber zentralen Diensten wie Google Scholar, MS Academic Search:
    • man hat selbst die Kontrolle über seine Daten
    • höhere Qualität
    • man bestimmt selbst was man präsentiert (z.B. nicht nur Publikationen sondern auch Präsentationen, Informationen zu eingeworbenem Funding usw.)
    • man kann die eigenen Daten beliebig anreichern z.B. nach verschiedenen Themen / Projekten gruppieren oder eigene Kurzzusammenfassungen schreiben (siehe z.B. http://korrekt.org)

Ihre Aufgabe ist:

  • Entwickeln von Synchronisationsdiensten z.B. Google Scholar, Bibsonomy, MS Academic Search, DBLP
  • Anpassung des Onto Wiki- Systems z.B. spezielle Eingabe-Templates
  • Entwicklung eines leichtgewichtigen, flexiblen Front-Ends für Forscherwebseiten

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Javascript-Kenntnisse
  • PHP-Kenntnisse
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Sebastian Tramp – tramp@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Games with a Purpose: Interlinking

Games with a Purpose ist eine Forschungsrichtung, bei der Spaß an Spielen verknüpft wird mit häufig arbeitsintensiven Aufgaben, die durch das Spiel im Hintergrund erledigt werden. Eine solche Aufgabe ist das verknüpfen von Wissen aus unterschiedlichen Wissensbasen («Interlinking»). In dem Bereich wurden viele Verfahren entwickelt, deren Evaluation sich allerdings nur schwierig automatisieren lässt. Innerhalb des LATC-Projekts wurde deshalb eine grundlegende Spielidee entwickelt, die das Bewerten von Verknüpfungen erlaubt. Dabei können 2 oder mehr Spieler miteinander um Punkte / Geld spielen, während sie wertvolles Feedback für die Interlinking-Algorithmen im Hintergrund liefern. Ziel der Arbeit ist die Verfeinerung der Spielidee und deren Implementierung in einem Onlinespiel mit möglichst hohem Suchtfaktor. :-)


Ihre Aufgabe ist:

  • Entwickeln eines einfachen Online-Spiels
  • Einarbeitung in Semantic Web Technologien wie RDF

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Webprogrammierung
  • Interesse an Semantic Web

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Browsen, Suchen und Navigieren in DBpedia mit Hilfe maschinellen Lernens

Anfang des Jahres wurde das sehr erfolgreiche DBpedia-Projekt gegründet. Ziel dieses Projektes ist es Informationen aus Wikipedia extrahieren und sie mit anderen Wissensbasen zu verbinden. Wikipedia ist eine der am häufigst besuchten Seiten weltweit (Position 8 im Oktober 2008 laut http://alexa.com) auf der von Menschen eine riesige Menge an Wissen zusammengetragen wird. Eine Herausforderung bei dieser Menge von innerhalb des DBpedia-Projektes extrahierten Informationen ist Navigationsmöglichkeiten innerhalb der DBpedia-Daten anzubieten. Dafür wurde in einer Vorarbeit der DBpedia Navigator entwickelt, der das OWL-Lernsystem DL-Learner verwendet. Ziel der Arbeit ist es dieses Werkzeug zu einem Endnutzer DBpedia-Viewer weiterzuentwickeln und dabei Machine Learning Methoden für die Generierung von Navigationsvorschlägen (auf Basis der zuletzt angeschauten Instanzen) zu verwenden.


Ihre Aufgabe ist:

  • Verbesserung der generierten Navigationsvorschläge: ein existierender neuer OWL-Lernalgorithmus soll auf diesen Anwendungsfall angepasst werden
  • Erweiterung des DBpedia Navigator User Interfaces: verbessertes Ranking der Suchergebnisse, nutzerfreundliche Klassenhierarchie-Anzeige, verbesserte Anzeige der Instanzdaten mit Templates
  • Integration von anderen Wissensbasen, die mit DBpedia verknüpft sind z.B. Geonames

Kenntnisse:

  • Java- und PHP-Kenntnisse
  • Interesse an Semantic Web, Machine Learning
  • Studium der Informatik oder vergleichbarer Studiengänge

Wir bieten:

  • eine umfangreiche Betreuung
  • Teamarbeit in der Forschungsgruppe AKSW
  • Mitarbeit an interessanten und erfolgreichen Projekten mit Potential die Nutzung von DBpedia/Wikipedia zu verbessern

Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Anwendung von Ontologielernverfahren im medizinischen Bereich

Die Ontologiesprache OWL ist einer der Grundbausteine des Semantic Web und wird bereits in großem Umfang im biologischen und medizinischen Bereich eingesetzt. Das automatische Lernen in Ontologien aus Instanzdaten erlaubt dabei neue interessante Anwendungen im medizinischen Bereich, z.B. können anhand von Daten zu Patientenuntersuchungen neue Erkenntnisse über Krankheiten gewonnen werden. Bei dieser Arbeit ermöglichen wir die Zusammenarbeit mit dem Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE).


Ihre Aufgabe ist:

  • Einarbeitung in Lernverfahren für OWL-Ontologien und das Open Source Tool DL-Learner
  • Erarbeitung eines oder mehrerer konkreter Anwendungsszenarien
  • Evaluation existierender Lernverfahren an diesen Anwendungsszenarien

Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:

  • Studium der Informatik oder vergleichbarer Studiengänge
  • Interesse an Semantic Web, insbesondere OWL 
  • Machine Learning (anwendungsorientiert)

Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Allgemeines medizinisches Interesse ist ebenfalls günstig, aber nicht notwendig.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen. Bei erfolgreicher Umsetzung kann die Arbeit signifikante wissenschaftliche Resultate liefern.


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Patrick Westphal – patrick.westphal@informatik.uni-leipzig.de


Semantic Chess

Schach gehört zu den kompliziertesten und beliebtesten Spielen der Welt. Über Jahrhunderte hinweg wurden Millionen von Schachpartien von Tausenden von Leuten dokumentiert und meist im PGN Format gespeichert. Obwohl PGN eine Lingua Franca für Schachengines darstellt, erlaubt dieses Datenformat keine semantische Interpretation der Partien. So können Anfragen wie “Which bulgarian players have an ELO over 2000” nicht beantwortet worden. Ziel dieser Arbeit ist die Konvertierung von PGN nach RDF und zurück sowie die Umsetzung einer semantischen Suche über Schachpartien in RDF. Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zukunftsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:
Axel Ngonga – ngonga@informatik.uni-leipzig.de
Jens Lehmann – lehmann@informatik.uni-leipzig.de

Evaluation von Clustering-Algorithmen für Protein-Protein-Interaktion (Bachelor / Master)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Insbesondere bei der Extraktion von Proteinkomplexen aus Graphen wurden in den letzten Jahren neue spezialisierte Algorithmen entwickelt. Ziel dieser Arbeit ist die Implementierung und Evaluation von Algorithmen zur Extraktion von Proteinkomplexen (IPCA, DPClus und COD) mit Hilfe des CVK Frameworks. Ihre Aufgaben wären:
– Die Implementierung der Algorithmen ins CVK
– Die Evaluation dieser Algorithmen mit echten Daten


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Hierarchisches Border Flow (Bachelor)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Der BorderFlow Algorithmus erlaubt die zeiteffiziente Berechnung von Clustern in großen Graphen. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation einer Erweiterung des Border Flow- Algorithmus, die es erlauben soll, hierarchisch mit Border Flow zu clustern. Ihre Aufgaben wären:
– Konzeption und Implementierung einer Bibliothek von Methoden zum Berechnen von Cluster-Ähnlichkeiten
– Implementierung eines iterativen Ansatzes zum hierarchischen Clustern mittels Border Flow
– Evaluation auf synthetische und echten Daten aus der Biologie


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Porting Clustering to the Cloud (Bachelor / Master)

Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Besonders in der Biologie und in der Informatik entstehen riesige Netzwerke (mit Millionen von Knoten und Kanten), die nicht mehr zeiteffizient in einem Prozess analysiert werden können. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation eines Ansatzes zu Paralleliserung von BorderFlow, einem Graph-Clustering-Verfahren. Ihre Aufgaben wären:
– Konzeption eines Map Reduce Ansatzes für die Parallelisierung von Border Flow
– Umsetzung des Ansatzes und Implementierung mittels des Hadoop-Frameworks
– Evaluation auf synthetische und echten Daten aus der Biologie


Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Applying Pseudo-Relevance Feedback to Population Learning (Master / Diplom)

Das Web of Data besteht bereits aus mehrerer Milliarden Tripeln, Tendenz steigend. Jedoch sind schätzungsweise nur 3–5% der Daten im Web of Data miteinander verlinkt. Zur automatischen verlinkung von Instanzen aus unterschiedlichen Wissensbasen werden bisher Werkzeuge benutzt, die Instanzen anhand einer Ähnlichkeitsmetrik miteinander vergleichen (z.B. LIMES). Ziel dieser Arbeit ist es, Pseudo-Relevance Feedback mit maschinellem Lernen zu verbinden, um bestmögliche Konfiguration für LIMES automatich zu berechnen. Das Rahmenwerk sowie entsprechende Vorarbeiten exisitieren bereits. Ihre Aufgaben wären:
– Erarbeitung eines entsprechenden Ansatzes
– Konzeption und Implementierung eines Prototyps
– Evaluation anhand verschiedener Use Cases


Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java
– Interesse an Machine Learning


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen. Bei entsprechender Qualität der Arbeit wird zusätzlich eine Publikation bei einer hochwertigen Konferenz angestrebt. Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341

Cytoscape-Plugin für Border Flow


Graph Clustering wird erfreut sich einer wachsenden Popularität in den unterschiedlichsten Anwendungsgebieten, wie z.B. Information Retrieval, Bioinformatik, Data Mining, etc. Insbesondere in den ersten zwei Disziplinen ist der explorative Ansatz zentral für die Weiterverwendung der Ergebnisse. Ein populäres Visualiserungswerkzeug für diese Zwecke ist Cytoscape. Ihre Aufgabe besteht darin, ein Cytoscape Plugin für den BorderFlow-Algorithmus zu entwickeln, d.h.
– Erarbeitung einer Architektur für die Integration
– Entwicklung des Plugins
– Integration des Plugins und Tests


Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig:
– Studium der Informatik oder vergleichbarer Studiengänge
– Programmiererfahrung mit Java
– Interesse an Graph Clustering und Anwendungen


Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden.


Wir bieten eine umfangreiche Betreuung, sowie Hilfe bei der Einarbeitung in das Thema. Die Arbeit ermöglicht Resultate aus einem aktuellen Forschungsgebiet mit guter Zufunktsperspektive in die Praxis umzusetzen.Sollten wir Ihr Interesse geweckt haben, wenden Sie Sich bitte an:


Axel Ngonga ngonga@informatik.uni-leipzig.de, Skype: axel.ngonga, Tel: 0341–9732341


“Consuming Linked Data” Erweiterung für Shopsysteme im B2B

Linked Data / Semantic Web / RDF wird im Bereich der Business Intelligence für alle Beteiligten immer interessanter. Auch Anbieter von eCommerce-Plattformen wie Oxid E und Magento bieten mittlerweile RDFa Plugins zur maschinenlesbaren Repräsentation von Produkten und Produktkatalogen an (Linked Data produzierender Teilnehmer).


Im B2B Market werden diese – als RDF repräsentierten – Informationen bisher allerdings nur geringfügig ausgewertet. Eine Möglichkeit RDF in diesem Umfeld direkt wiederzuverwenden wäre die Integration von Produktdaten (repräsentiert mit dem Good Relations Vokabular) in eCommerce-Plattformen mittels geeigneter Plugins (Linked Data konsumierender Teilnehmer). Im Rahmen der Arbeit ist die Verwendung von Linked Data zur Shopdaten-integration zu untersuchen und anhand eines Oxid E- Shop Plugins prototypisch zu implementieren.


Dieses Thema kann im Rahmen einer Diplom- bzw Masterarbeit bearbeitet werden.
Gute Kenntnisse in PHP und hinreichende Kentnisse von Konzepten des Semantic Web / Linked Data Web sind hierfür Vorraussetzung


Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Michael Martin


Repräsentation und Publikation von Datenerhebungen im Linked Data Web


Zur Repräsentation und Publikation von Umfrage-Rohdaten sowie den dazugehörigen Fragekatalogen eignen sich besonders Technologien des Linked Data Web. Werden diese Daten in nicht-aggregierter Form mit Hilfe von RDF veröffentlicht, wird einerseits deren Wiederverwendungspotential massiv erhöht und andererseits ein größerer Kreis von Dateninteressenten aquiriert.
Im Rahmen dieser Arbeit ist eine Web-Applikation (oder auch eine Onto Wiki- Komponente) mit folgenden Eigenschaften zu entwickeln:

  • Benutzerfreundliche Erstellung von Fragenkatalogen auf Basis des Survey-Vokabulars
  • Durchführung von Umfragen auf Basis erstellter Fragenkataloge
  • Exemplarische Transformation von Umfrageergebnissen aus bestehenden Datenerhebungswerkzeugen (auf Basis einer zuvor getätigten Evaluation)
  • Erzeugung eines statistischen Daten-Raumes (in RDF) auf Basis des erzeugten Rohdaten-RDF-Models unter Verwendung des DataCube-Vokabulars

Dieses Thema kann im Rahmen einer Diplom-, Master- und unter Umständen sogar Bachelorarbeit bearbeitet werden.
Hinreichende Kentnisse von Konzepten des Semantic Web / Linked Data Web sind hierfür Vorraussetzung


Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Michael Martin

Untersuchung der Performanzentwicklung von Tomcat

Software-Entwicklungsprojekte sind regelmäßigen Refactorings und Funktionserweiterungen unterworfen. Eine Untersuchung, welche Auswirkungen Änderungen auf die Softwareperformanz hat, ist bislang nicht erfolgt. Derzeitig wird ein Werkzeug zur Performanzanalyse von Softwaresystemversionen durchgeführt, dessen Ziel es ist, Performanzveränderungen in verschiedenen Revisionen festzustellen. Dies geschieht durch die Transformation der Unit-Tests zu Performanz-Unit-Tests, mittels denen festgestellt wird, welche Performanz bestimmte Testfälle haben und ob sich diese verändert.


Mit einem bestehenden Werkzeug soll der Applikationsserver Tomcat untersucht werden. Das bestehende Werkzeug zur Performanzanalyse von Softwaresystemversionen soll so erweitert werden, dass es Tomcat-Ant-Buildskripte um Performanzmessungen und Performanztestinstrumentierung erweitern kann. Hiermit sollen Performanzveränderungen gefunden werden. Abschließend sollen die gefundenen Performanzveränderungen klassifiziert und mit Performanz-Antipatterns aus der Literatur verglichen werden.


Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden. Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an David Georg Reichelt.

Entwicklung eines Maven-Plugins zur Performanzmessung

Softwareperformanz ist, gerade für kleinere Programmeinheiten, schwer messbar: Andere Programme, die die selben Ressourcen benutzen, JIT-Compilierung, Garbage Collection, die Ungenauigkeit der Messungen selbst, etc. verändern Messwerte bei jeder Messung.


Während der Softwareentwicklung verändert sich die Performanz eines Programms regelmäßig. Neue Funktionalitäten können eine Verlangsamung des Programms verursachen. Um dies zu verhindern, sollen Performanz-Unit-Tests die Erfüllung von Performanzanforderungen sichern. Problematisch ist, dass Performanzmesswerte sich bei jeder Messung unterscheiden.


In der Abschlussarbeit soll deshalb ein Maven-Plugin entwickelt werden, dass Performanzmessungen zuverlässig macht, indem mehrere VM-Ausführungen nacheinander durchgeführt werden und anschließend statistische Kennzahlen dieser Ausführungen ermittelt wird. An einem Beispielprojekt soll gezeigt werden, dass das Plugin im Buildprozess genutzt werden kann.


Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden. Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an David Georg Reichelt.

M3-Level-basierten Transformation zur Integration von ERP-Systemen

M3-Level-basierte Transformationen transformieren Modelle und deren Metamodelle auf Basis von Abbildungsregeln, die zwischen Meta-Metamodellen definiert wurden. Bisher wurde dieser Ansatz im Bereich der Metamodellierungswerkzeuge angewendet. Man kann allerdings davon ausgehen, dass die notwendige Struktur (ein Modellraum mit drei Modell-Ebene) ebenfalls in anderen Anwendungsbereichen vorkommt. Es wird angenommen, dass solch ein Modellraum auch im Bereich der betrieblichen Informationssysteme, speziell den ERP-Systemen, vorkommt. Ziel der Arbeit ist es diese Annahme zu bestätigen und darauf aufbauend eine M3-Level-basierte Transformation zwischen zwei ausgewählten ERP-Systemen zu entwickeln.


Die Arbeit kann als Bachelor-/Master- bzw. Diplomarbeit belegt werden. Wenn Sie Interesse an diesem Thema haben, wenden sie sich bitte an Heiko Kern.


 
2006-03-28 09:30:52    (226 Kb)  da_ws.pdf Dienstleistungsbeschreibung auf Basis existierender Web Service Standards
2008-09-04 10:40:50    (2 Kb)  ibm_logo.png  
Kein Kommentar. [Zeige Kommentare]