Praktikum Semantic Web

Verantwortlich: Axel Ngonga, Jens Lehmann
Wann: min. 3 Termine Dienstag 13.15–14.45 Uhr (siehe unten); ansonsten individuell mit Betreuer
Wo: Paulinum, P-701
Modul: Semantic Web

Inhalt

Ziel der Veranstaltung ist die praktische Einarbeitung in Semantic Web Technologien. Zu diesem Zweck sollen existierende Frameworks (siehe AKSW Projektseite) um einzelne Module erweitert werden. Am ersten Termin werden die zu entwickelnden Module vorgestellt, welche Teile von Werkzeugen aus unterschiedlichen Schichten des Semantic Web Stacks sein werden. Die vorgestellten Themen werden dann bilateral mit den jeweiligen Betreuern bearbeitet und die Ergebnisse anschließend im Rahmen der Veranstaltung vorgestellt.

Voraussetzungen

Das Praktikum richtet sich an Studierende des Bachelor- und Master-Studiengangs Informatik. Inhaltliche Vorkenntnisse sind nicht erforderlich. Interesse an semantischen Technologien und Spaß an der Konzeption und Implementierung von Software-Modulen sind von Vorteil.

Organisatorisches


  • PDF DocumentEinführung
  • Präsenzveranstaltungen: Auftakt (09.04.); RDB2RDF-Hands-On (23.04.); Endpräsentation (02.07. – mehr Termine je nach Anzahl Themen)
  • Individuelle Zusammenarbeit in Absprache mit den Betreuern
  • Praktikumsbericht in Form einer Online Publikation (Wiki, Issue-Tracker, ggf. Source-Code) und Endpräsentation (20 min). Besonders gute Arbeiten, werden auf unserem Arbeitsgruppen-Blog veröffentlicht, bzw. auf der Studentenkonferenz SKIL
  • Repository: Individuell, z.B. Bitbucket, Git, Sourceforge, Googlecode
  • Bewertungskriterien: Erfolgreiche Präsentation.
  • Je nach Teilnehmerzahl werden die Praktikumsaufgaben einzeln oder in Zweier-Gruppen vergeben.

Vorträge


Thema Termin
iRDF – Simple Data Integration for RDF 09.07.2013
Your Smart Virtual Assistant 09.07.2013
DALI – The Data Search Engine for Linking (Ackermann) 16.07.2013
DALI – The Data Search Engine for Linking (Pinseler) 16.07.2013
Catalogus Professorum Lipsiensum 16.07.2013

Themengebiete

Inhalt

DALI – The Data Search Engine for Linking

Betreuer: Axel Ngonga
Studenten: Mirko Pinseler, Markus Ackermann

Die Berechnung von Links zwischen Wissensbasen ist einer Grundpfeiler des Linked Data Webs. Es stellt sich jedoch häufig die Frage, mit welchen Wissensbasen ein neuer Datensatz zu verknüpfen wäre. Die Suchengine für Linked Data Sets DALI zielt darauf ab, dieses Problem zu lösen. Ziel dieser Aufgabe ist es, verschiedene Ähnlichkeitsfunktionen für Wissenbasen in DALI zu integrieren und zu vergleichen.

Scientific Job Finder

Betreuer: Ricardo Usbeck
Studenten: TBA

PDF DocumentScientific Job Finder
Bei der Suche nach einer Stelle im wissenschaftlichen Umfeld gibt es derzeit nur wenige Anlaufpunkte. Meistens muss man sich eine Liste der Universitäten, Hochschulen und Institute erst mühsam zusammen suchen. Anschließend wird man als Suchender vor die Aufgabe gestellt, sich auf jeder Seite neu zu orientieren und zur gewünschten Job-Seite durchzunavigieren. Das ist ein zeitraubender Prozess, welcher großen Raum für Fehler lässt, die dazu führen können, dass man die Traumstelle übersieht.


Zwar gibt es im mitteldeutschen oder sächsischen Raum itmitte.de bzw. itsax.de, jedoch kein Institutions-übergreifendes, deutschlandweites Portal. Im Gegensatz zu bestehenden Angeboten, sollen hier alle Anzeigen durch frei zugängliche Inhalte entstehen und nicht wie sonst üblich über bezahlte Inserate. Viele dieser Webseiten leiden zudem unter einem Aktualisierungsproblem, welches hier aufgegriffen werden soll.


Im Projekt soll ein funktionstüchtiger Crawler und Indexierungsmechanismus aufgebaut werden. Dies wird unterstützt von der Linked Open Data Platform dbpedia.org. Da jede Universität bereits dort verzeichnet ist und man erwarten kann, dass jede Universität eine Stellenanzeigenseite besitzt, kann man so die Abdeckung und die Qualität des Angebotes vorantreiben. Die so entstehenden Daten sollen als Linked Open Data gespeichert und über eine Suchmaschine zugänglich gemacht werden.


Die Suchmaschine soll sich dabei durch moderne Filter- und Zugangstechniken von bestehender Konkurrenz absetzen. Der einzusetzende Technologie-Stack wird aus Java, RDF/Turtle, Spring, Tomcat, My SQL und vielen anderen State-of-the-art-Technologien bestehen.

iRDF – Simple Data Integration for RDF

Betreuer: Axel Ngonga
Studenten: Tran

RDF erlaubt die einfache Integration von Datensätzen basierend auf Links. Ziel dieser Aufgabe ist die Implementierung eines einfachen Werkzeugs welches es erlaubt, einen integrierten Datensatz aus mehrere Datensätzen und den dazugehörigen Links zu generieren. Zusätzlich soll das LIMES framework verwendet werden, um Links vorzuschlagen wenn keine vorhanden sind.

Export statistischer RDF Daten aus Cube Viz

Betreuer: Konrad Abicht, Michael Martin
Studenten: TBA

Cube Viz ist ein Visualisierungswerkzeug auf Basis des Onto Wiki Application Frameworks zur Discovery statistischer RDF-Daten. Es ermöglicht facettiertes Filtern von Data Cube- Observations und eine Präsentation von Ergebnismengen mittels verschiedener konfigurierbarer Charttypen (Pie Charts, Line Charts, Bar Charts). Zusätzlich zur Präsentation der Observations in Charts (welche auf einer JSON Repräsentation des resultierenden Sub-Graphen gebaut werden) werden verschiedene Exportfunktionalitäten benötigt, um die Ergebnismengen in anderen Werkzeugen weiterverarbeiten zu können. Angedacht sind hierbei der Export nach CSV/TSV, XML, RDF-N3, RDF-Turtle, RDF/XML und SVG.

On The Fly Visualisierung von SPARQL Result Statistiken in Onto Wiki

Betreuer: Konrad Abicht, Michael Martin
Studenten: TBA

Bei der Anfrage von RDF-Datenbanken mittels Onto Wiki wird SPARQL verwendet. Die resultierenden Ergebnisse werden in der Basisausstattung von Onto Wiki mit Hilfe von Listen repräsentiert. Um die Usability bei der Ermittlung relevanter Information zu erhöhen, soll eine Komponente zur Visualisierung von Statistiken über Resultlisten in Onto Wiki integriert werden. Hierzu sollen Ergebnisse on-the-fly auf Basis zu ermittelnder Fragestellungen in RDF Data Cube transformiert werden. Zur Anzeige des Transformationsresultates soll Cube Viz, eine weitere Onto Wiki- Komponente, verwendet werden. Diese ist entsprechend durch eine Push-Lösung zur Übergabe der Daten zu erweitern.

Integration von JS-Chart-APIs in Cube Viz

Betreuer: Konrad Abicht, Michael Martin
Studenten: TBA

Cube Viz ist ein Visualisierungswerkzeug auf Basis des Onto Wiki Application Frameworks zur Discovery statistischer RDF-Daten. Es ermöglicht facettiertes Filtern von Data Cube- Observations und eine Präsentation von Ergebnismengen mittels verschiedener konfigurierbarer Charttypen (Pie Charts, Line Charts, Bar Charts). Derzeit wird zur Visualisierung die JS-API High Charts verwendet. Cube Viz selbst verfügt bereits über eine konfigurierbare Abstraktionsschicht zur Integration weiterer Chart APIs. Weitere angebundene Chart-APIs, wie beispielsweise D3.js bzw. die Google Chart-API würden weitere Charttypen ermöglichen und somit die Usability der Web-Applikation verbessern.

Triplifizierung statistischer Daten aus XML mit Hilfe des Onto Wiki- Development Frameworks

Betreuer: Amrapali Zaveri, Michael Martin
Studenten: Tariq Yousef

PDF DocumentPresentation
Die derzeitige CSV2RDF Onto Wiki extension (csvimport) unterstützt den import statistischer Daten aus CSV. Diese Daten werden in RDF unter Verwendung des RDF Data Cube Vokabulars transformiert. Es existieren allerdings sehr viele Datenbestände, die in XML repräsentiert sind. Hierfür ist das existierende Plugin um neue Workflows und Transformatoren bzw. Serialisierer zu erweitern.

Ranking und Filtern von Datensätzen

Betreuer: Amrapali Zaveri, Sören Auer
Studenten: TBA

PDF DocumentRanking und Filtern von Datensätzen
Datenqualität ist ein wichtiger Aspekt für alle Datensätze. Das Ziel dieser Aufgabe ist es, ein Werkzeug zum Filtern von Datensätzen auf Datenqualitätsmetriken zu implementieren. Dieser Prototyp wird Metadaten aus dem Data Hub ziehen und ermöglicht es dem Benutzer, die Metriken für das Ranking und Filtern der Datensätze anzuwenden.

Screenreader für Semantische Informationen

Betreuer: Thomas Riechert
Studenten: TBA

Screenreader setzten Blinde und Seheingeschränkte Personen ein, um Webinhalte zu interpretieren. Ein wesentlicher Nachteil der eingesetzten Reader ist das sequenzielle Vorgehen beim “Vorlesen” der Inhalte von Webseiten. Dies ist besonderes nachteilig, wenn es darum geht komplexe Informationen zu vergleichen, z.B. bei der Recherche nach Produkten. Im Rahmen dieses Praktikum sollen verschiedene Screenreader untersucht und ein Experiment zur Interpretation von Produktinformationen, die mittels Good Relation- Vokabular publiziert sind, durchgeführt werden.



Das Praktikum ist offen für folgende Module: Semantic Web, Kreativwirtschaft und Technik und Betriebliche Informationssysteme

Catalogus Professorum Lipsiensum

Betreuer: Thomas Riechert
Studenten: TBA

Der Professorenkatalog der Universität Leipzig ist zu einem festen Bestandteil der Linked Open Data Cloud geworden. Im Rahmen des Praktikums soll die “in die Jahre gekommene” Infrastruktur überarbeite werden. Bestandteil ist darüber hinaus die Erweiterung und Anpassung bestehender Vokabulare.


Das Praktikum ist offen für folgende Module: Semantic Web, Kreativwirtschaft und Technik und Betriebliche Informationssysteme

Your Smart Virtual Assistant

Betreuer: Saeedeh Shekarpour, Edgard Marx
Studenten: Andy Wermke

The current state of the Web enables user to browse data about almost everything: weather, history, geography, medicine. Therefore, such a huge amount of Big Data demands new and intelligent approaches for both data extraction and interaction. In this project, we want to enhance the accessibility of data based on an assistant in which the user can interact as friend, using voice. Some search engines and question answering services are already capable of finding desirable answers. We want to integrate the gathered data from different engines and choose the appropriate answer. In this way, we will be able to answer queries more intelligently, precisely and user-friendly. The principal feature of this project is enabling user to ask questions and chat with the virtual assistant. This Assistant uses the data being available on Linked Open Data, Web data, Big Data and local data as underlying knowledge base to answer the questions.
This project will be comprised in four main steps:

  1. Voice recognition and conversion
  2. Search engines invocation (SINA, Wolfram Alpha, Google)
  3. Integrating data and choosing the appropriate answer
  4. Delivering the answer via voice (text to voice conversion)

Integrated Visualization, Exploration and Authoring of Un-structured and Semantic Content

Betreuer: Ali Khalili
Studenten: TBA

The Semantic Web and Linked Data have gained traction in the last years. However, the majority of information still is contained in unstructured documents. This can also not be expected to change, since text, images and videos are the natural way how humans interact with information. Semantic structuring on the other hand enables the (semi-)automatic integration, repurposing, rearrangement of information. NLP technologies and formalisms for the integrated representation of unstructured and semantic content (such as RDFa and Microdata) aim at bridging this semantic gap.
However, in order for humans to truly benefit from this integration, we need ways to author, visualize and explore unstructured and semantic information in a holistic manner. In this project, we will work on WYSIWYM (What You See is What You Mean) concept, which addresses this issue and formalizes the binding between semantic representation models and UI elements for authoring, visualizing and exploration.
Related slides: http://slidewiki.org/deck/1525
More information:: http://youtu.be/wxtlAol4HB0


Objective:
Creating suitable bindings between existing Semantic Models and User Interface elements for annotation of text, images and videos

Geo-SPARQL Analytics

Betreuer: Claus Stadler
Studenten: TBA

Sparql Analytics[1] ist ein neu entstehendes Framework zur Live-Analyse von SPARQL Anfragen ueber HTTP. In Rahmen dieses Themas soll das Framework um eine Komponente zur Analyse von SPARQL Anfragen mit Geobezug erweitert werden: Die Ressourcen der Ergebnismengen entsprechender Anfragen sollen mit dem angefragten Geobereich auf verschiedenen Detailebenen (z.b. Tile, Stadt, Land) verknuepft werden. Dadurch soll es moeglich werden, Nutzern Vorschlaege fuer in diesen Bereich populaere Instanzen und Klassen zu liefern. Anfragen koennen z.B. mit RDF Kartenvisualisierungswerkzeugen wie dem LinkedGeoData-Browser [2] oder dessen Nachfolgen «SemMap" [3] erzeugt werden.


Slides


[1] https://github.com/AKSW/SparqlAnalytics
[2] http://browser.linkedgeodata.org/
[3] http://semmap.aksw.org/odp/v2/fp7-pp/


SparqlPuSH

Betreuer: Claus Stadler
Studenten: TBA

SPARQL ermoeglicht zwar Anfragen ueber RDF Datensaetze, allerdings ist SPARQL fuer Echtzeit-Applikationen, welche ueber inkrementelle Aenderungen informiert werden muessen, nur bedingt geeignet. Analog zu der PHP basierten Implementierung SparqlPuSH[1], soll im Rahmen dieses Praktikums eine Push Loesung fuer SPARQL basierend auf Jena [2] und dem Atmosphere Framework[3] erstellt werden: Klienten sollen sich mit einem SPARQL Query am Server registrieren koennen und anschliessend ueber Aenderungen an dessen Ergebnismenge benachrichtigt werden.


Slides


Kleine Demo, welche spaeter auf Sparql Push umgestellt werden soll:
Haeufigkeit von Anfragen am SPARQL Web Interface werden unmittelbar am Live Chart dargestellt.


[1] http://code.google.com/p/sparqlpush/
[2] https://jena.apache.org/
[3] https://github.com/Atmosphere/atmosphere



 
Zu dieser Seite gibt es keine Dateien. [Zeige Dateien/Upload]
Kein Kommentar. [Zeige Kommentare]