Modulübersicht
Bachelor
Master
Lehrangebot in den einzelnen Semestern
Wintersemester 17/18
Sommersemester 2017
Sommersemester 2016
Wintersemester 15/16
Sommersemester 2015
Wintersemester 14/15
Sommersemester 2014
Wintersemester 13/14
Sommersemester 2013
Wintersemester 12/13
Sommersemester 2012
Wintersemester 11/12
Sommersemester 2011
Wintersemester 10/11
Sommersemester 2010
Wintersemester 09/10
Sommersemester 2009
Wintersemester 08/09
Sommersemester 2008
Wintersemester 07/08
Sommersemester 2007
Wintersemester 06/07
Sommersemester 2006
Wintersemester 05/06
Sommersemester 2005
Wintersemester 04/05
Sommersemester 2004
Wintersemester 03/04
Sommersemester 2003
Wintersemester 02/03
Sommersemester 2002
Wintersemester 01/02
Sommersemester 2012
Seminar: Linked Open Data for E-Business
Thomas Riechert, Sebastian Hellmann Axel Ngonga
Termin: freitags; 11:15 – 12:45
Ort: Seminargebäude 1–10
Modul: Betriebliche Informationssysteme 10–202–2308
Inhalt
Ein Schwerpunkt stellt die Integration von Informationssystemen in Unternehmen dar. Eine interessante Fragestellung ist die Entwicklung von Methoden und deren Implementierung für die unternehmensinterne Suche in vorhandenen strukturierten Unternehmensdaten und deren semantische Verknüpfung. Ein möglicher Ansatz besteht darin bestehende Datenquellen im Intranet zu publizieren und zu vernetzen, sowie ihre Semantik zu formalisieren. Im Rahmen einer solchen zu entwickelnden Methodik sind die drei Konzepte Publikation, Synchronisation und Suche zu untersuchen. Im Rahmen des Seminars werden Fragestellungen in diesen Bereichen untersucht.
Umfang der Veranstaltung
Bei erfolgreicher Teilnahme an diesem Problemseminar erhält jeder Teilnehmer einen benoteten Seminarschein. Hierfür sind folgende Anforderungen zu erfüllen:
- Regelmäßige Teilnahme am Seminar
- Kurzpräsentation zum gewählten Thema am 04.05. (5 min)
- Präsentation des Themas (20 min + 10 min Diskussion)
- Veröffentlichung einer Literaturliste eine Woche vor dem Vortrag
- Schriftliche Ausarbeitung (8–12 A4 Seiten)
- Bei der Ausarbeitung ist die Vorlage der Lecture Notes in Informatics zu verwenden. Die Ausarbeitung ist als PDF-Dokument und als Quelle (Latex,Word) per E-Mail abzugeben.
Termine
- 21.04.2012 Auftakt
- 27.04.2012 Vergabe der Themen / Einführung in das wissenschaftliche Arbeiten
- 04.05.2012 Kurzpräsentation zum gewählten Thema
- 29.06.2012 Präsentation der Ergebnisse
- 06.07.2012 Präsentation der Ergebnisse
Themen
Vokabular Alignment Muster
Betreuer: Thomas Riechert
Links: Ontology Design Pattern, An Approach for Ontology Modularization
Durch Vokabular-Alignment wird vermieden, dass Konzeptstrukturen in Teilbereichen, die bereits an anderer Stelle semantisch eindeutig beschrieben sind, in einem weiteren Vokabular abgebildet werden. Das Vokabular-Alignment ist nicht mit dem Ontologie-Alignment gleichzusetzen. Der Fokus der Forschungsarbeiten zum Ontologie-Alignment liegt vor allem beim Finden äquivalenter Ressourcen in verschiedenen Ontologien. Auf technischer Ebene, zur Modellierung von Ontologien, existieren Werkzeuge zur Modularisierung von Ontologien z. B. als Erweiterung für das Ontologie-Modellierungswerkzeug Protégé. Für das Alignment von Ontologien werden in der Praxis typische Muster genutzt. Solche Muster werden im Wiki-System Ontology Design Pattern publiziert und diskutiert.
Impact von DBpedia auf die Forschung
Analog zu den Studien über den Einfluss von Wikipedia auf die Forschung soll das gleiche für DBpedia untersucht werden. Einstiegspunkt sind die oben genannten Links sowohl eine site:" beschränkte Google Suche duf den Publikationen der großen Semantic Web Konferenzen der letzen Jahre: "site:http://iswc2011.semanticweb.org/fileadmin/iswc/Papers/Research_Paper dbpedia http://www.google.com/search?q=site%3Ahttp%3A%2F%2Fiswc2011.semanticweb.org%2Ffileadmin%2Fiswc%2FPapers%2FResearch_Paper+dbpedia .
Große Konferenzen sind WWW, ISWC, ESWC, EKAW, KCAP, Journals sind SWJ, JWS, IJSWS
Die Arbeit soll dann irgendwo publiziert werden, damit sie in das oben genannte Projekt Academic Studies on Wikipedia und auf http://en.wikipedia.org/wiki/DBpedia zurückfliessen kann.
Recherche und Vergleich von Linked Data Visualisierungslösungen für die Linguistische Linked Data Cloud
- http://lucene.apache.org/solr/
- http://www.semantic-web-journal.net/content/approaches-visualising-linked-data-survey
- http://delicious.com/seebi/Visualization
- http://browser.linkedgeodata.org/
- http://wiki.dbpedia.org/Applications
Forschungsfragen:
- Nach welchen Kriterien lassen sich die verschiedenen Tools einordnen und klassifizieren? Welche Kriterien gibt es bereits in der Literatur?
- Sind die Visualisierungslösungen adequat für die Domäne der Linguistik oder sind sie nur für andere generelle Daten gut (also Städte, Personen, Statistiken)?
Survey Knowledge Extraction Tools for Textual and Semi-Structured Sources
Bearbeiter Semi-Structured Sources: offen
Betreuer: Sebastian Hellmann
Links:
- http://en.wikipedia.org/wiki/Knowledge_extraction
- http://en.wikipedia.org/wiki/Talk:Knowledge_extraction
Der von mir initial mit-verfasste Wikipedia Artikel http://en.wikipedia.org/wiki/Knowledge_extraction gibt hauptsächlich einen Überblick über Wissensextraktion aus Datenbanken und XML. Im Rahmen der Seminararbeit soll der Eintrag erweitert werden durch:
- Extraktion aus Text, Ontology learning
- Extraction aus Wikis (DBpedia)
Aufgaben:
- Recherche der Tools
- Erweiterung der Klassifikationskriterien
- Vergleich der Tools
- Schreiben der Recherche in einem Bericht (von einfacher Textqualität, notizenartig)
- Erweitern des Wikipedia Artikels (Achtung nur wenig Inhalt ist geeignet für Wikipedia, die Qualität muss relativ hoch sein und ausserdem gut referenziert. )
Studie: Welche Lizenzen werden an der Uni Leipzig verwendet?
- http://opendefinition.org/
- http://medienportal.uni-leipzig.de/blog/index.php
- http://medienportal.uni-leipzig.de/blog/index.php?/archives/116-Urheberrecht-Ausnahmeklausel-fuer-Universitaeten-bis-2012.html
Die Arbeit soll den Stand der aktuellen Lizenzlage an der Uni Leipzig erfassen und Klarheit auf diesem Gebiet zu schaffen. Die Arbeit soll gut recherchiert sein und eher verlässliche und gut referenzierte Informationen enthalten, als einen möglichst großen Umfang haben.
Fragen:
- Welche Richtlinien empfiehlt die Uni Leipzig? Welche Rechte behält sie ein?
- Welche Lizenzen werden an den einzelnen Fakultäten und Instituten tatsächlich verwendet? hierzu kann man einen Fragebogen machen oder auf die entsprechenden Web – seiten schauen.
- Wie werden die Arbeiten von Studenten behandelt?
Evtl. kann man mit den Sturas zusammenarbeiten, das muss aber alles selbst organisiert werden.
Vergleich existierender Wiktionary Extraktionsansätze
- wiktionary: http://wiktionary.org/
- DBpedia Wiktionary: http://wiktionary.dbpedia.org/
- wikokit: http://code.google.com/p/wikokit/wiki/d2rqMappingSPARQL
- texai: http://sourceforge.net/projects/texai/files/wiktionary-rdf/fuer-Universitaeten-bis-2012.html
Es existieren verschiedene Implementierungen zur Extraktion von Wörterbuch-Daten im RDF-Format aus Wiktionary:
- Ein bei uns am Lehrstuhl entwickelter Ansatz mitilfe des DBpedia Frameworks
- wikokit
- texai
- Evtl. weitere
Diese Ansätze sollen qualitativ und quantitativ miteinander verglichen werden. Es ist also zunächst eine
Auseinandersetzung mit dem Schema der extrahierten Daten notwendig. Es soll dokumentiert werden mit welchem Detailgrad extrahiert wird und welche Einschränkungen existieren. Danach soll eine Statistik erstellt
werden, die zu definierende Kennzahlen vergleicht. Als Beispiel käme dafür in Frage: Anzahl der Definitionen, Synonyme, Übersetzungen – je Wort und absolut. Die zur Analyse sinnvollen Kennzahlen werden wir
gemeinsam nach der Betrachtung der Schemata bestimmen. Die Daten sollen zudem mit Gnuplot visualisiert werden.
Alignment von Enterprise Vokabularen
Innerhalb von Unternehmen werden verschiedene strukturierte Informationsquellen wie Customer Relationship Management (CRM) Systeme, Projektmanagement Werkzeuge oder Repositories über IT-Infrastrukturen und Serviceinformationen verwendet. Die im Rahmen des Seminars beschriebene Integration dieser Informationen erfolgt auf Basis von RDF-Ontologien, die aus diesen Informationssystemen generiert werden. In der Praxis haben sich bereits OWL-Voakabulare etabliert. Diese sollen im Rahen dieser Arbeit gefunden, beschreiben und angeglichen werden.
Semantic Web basiertes Software-Engineering
Betreuer: Thomas Riechert
Links: Workshop on Semantic Web Enabled Software Engineering
Das wachsende Interesse an der Nutzung von Semantic Web Technologien im Software-Engineering spiegelt sich in Publikationen auf dem seit 2005 stattfindenden Workshop on Semantic Web Enabled Software Engineering (SWESE) wider. Im Rahem dieser Arbeit sollen Paper dieses Workshops seit dem Jahr 2005 analysiert und die adressierten Problemfelder analysiert werden.
Ontologien in der Geschichtswissenschaft
Außerhalb der Unternehmensgrenzen existieren z.B. interessante Forschungscommunities. Eine solche Community bilden Historiker, die sich mit Prosopographischer Forschung befassen. In diesem Forschungsfeld werden individuelle Forschungsergebnisse z.B. zu Personen, Institutionen oder Ländern in einem neuen Kontext zusammengefasst und analysiert. Im Rahmen dieser Arbeit sollen hier relevante Ontologien gefunden, analysiert und angeglichen werden.
Virtuelle Gemeinschaften im Unternehmen / im Web
Communities bilden sich meist domänenabhängig über existierende Datenmodelle. Um solche Communities zu realisieren existieren verschiedene Applikationen wie z.B. Semantische Wikis, aber auch Newsletter oder Mailinglisten. Im Rahmen dieser Arbeit soll diese Umfeld in verschiedenen Feldern neben dem Einsatz in Unternehmen (1) auch bei Forschungscommunities (2) oder in der Open-Source-Software Entwicklung (3) untersucht werden.