Feed Titel: MABA Portal - powered by Infai

Evaluation von Simulationstechniken bzgl. deren Anwendbarkeit zur Entscheidungsunterstützung im E-Commerce
Für die simulative Prognose von E-Commerce-Wirkungsbeziehungen haben sich verschiedene Verfahren wie beispielsweise System-Dynamics oder agentenbasierte Simulation etabliert. Jede dieser Simulationstechniken zeichnet sich dabei durch eine spezielle Betrachtungsweise auf das zu untersuchende System aus. Ziel dieser Arbeit ist die Gegenüberstellung verschiedener Simulationstechniken (Vorteile / Nachteile) sowie die Entwicklung eines Kriterienkatalogs für die Identifizierung der bestmöglichen Simulationstechnik für eine gegebene Fragestellung. Ihre Aufgaben umfassenRecherche nach und Einarbeitung in verschiedene Simulationstechniken, insbesondere im sozialwissenschaftlichen Bereich, System-Dynamics und agentenbasierte Simulation sind dabei zwingend mit zu berücksichtigenGegenübers...

Semantische Suche für die Tourismus Domaine
Ziel der Arbeit ist die Erstellung und die Evaluation einer prototypischen semantischen Suchmaschine für die Tourismus-Branche. Die Suche soll auf Basis einfacher Textanfragen (wie z.B. „Cancun am Strand, 4 Sterne“) eine strukturierte Anfrage an existierende Tourismus-Datenbanken senden und bei Bedarf gezielt beim Nutzer fehlende Informationen einholen. Die besondere Herausforderung dieser Arbeit liegt im maschinellen Verstehen natürlichsprachlicher Anfragen. Erwünschte Qualifikationen Begeisterung für das Thema Semantik Interesse an der eigenständigen Lösung von Herausforderungen in der IT  Sehr gute Programmierkenntnisse (idealerweise in Java) Die Fähigkeit, eigenständig englischsprachige Fachliteratur zu lesen und zu nutzen Gute Deutsch- und/oder Englischkenntnisse in Wort und ...

Integration von Geodaten in ein Planungssystem
WILMA veranstaltet regelmäßig das WILMA Dinner-Hopping um den Leipziger Austauschstudenten die Kontaktaufnahme untereinander und zu deutschen Studenten zu erleichtern. Dabei bewirten die Studenten in 2er-Teams in ihrer Wohnung für einen Gang eines 3-Gänge-Menüs vier andere Studenten, bei den beiden anderen Gängen sind sie dann zu Gast bei ihren Kommilitonen. Für die Unterstützung der Routenplanung unter Beachtung von Nebenbedingungen und Benachrichtigung der Teilnehmer soll eine Softwarelösung konzipiert und umgesetzt werden.

Evaluation und Integration eines Map Abstraction Layers in vakantieland
Das holländische Tourismusportal vakantieland wurde als semantische Web-Applikation redesigned und mit aktuellen Technologien wie RDF und SPARQL versehen. Derzeit wird die GoogleMap-Api zur Darstellung von POIs (Point Of Interests) auf entsprechenden Kartenausschnitten im Browser (mit aktiviertem und ausgeschaltetem Java Script) verwendet. Allerdings ist es mit Map Abstraction Layers wie openlayers und mapstraction möglich, die Darstellung von Karten unabhängig von einem speziellen Kartenabieter zu gestalten. Hierzu sind die anwendungsfallspezifischen Funktionalitäten zu ermitteln und eine performante Implementierung zu erstellen. Kenntnisse in PHP, Java Script und Ajax nicht notwendig aber von Vorteil.

Simulation als Methode zur Entscheidungsunterstützung im E-Commerce
Die optimale Konfiguration von komplexen E-Commerce-Systemen ist ein allgemein anerkanntes kritisches Problem. Dies liegt einerseits an der Umsatzrelevanz derartiger Systeme für die Unternehmen, andererseits betreffen mögliche Konfigurationsentscheidungen wie die Einführung einer neuen Zahlungsart oder die Realisierung eines zusätzlichen Vertriebskanals mittels Mobile Commerce neben wirtschaftlichen Bereichen auch technische und sozialwissenschaftliche Aspekte. Aufgrund dieser Multidimensionalität sind die Auswirkungen nicht klar durchschaubar und deterministisch berechenbar. Im E-Commerce haben sich daher verschiedene Methoden für die Entscheidungsunterstützung etabliert. Ziel der Arbeit ist die Untersuchung von Methoden zur Entscheidungsunterstützung im E-Commerce. Dabei soll ...

Realisierung von Views und Viewpoints in EMF/GMF basierten Editoren
Mit Werkzeugen der modellgetriebenen Entwicklung wie dem Eclipse Modeling Framework (EMF) und dem Graphical Modeling Framework (GMF) lassen sich einfach Editoren für domänspezifische Sprachen erzeugen. Ein verbreitetes Problem ist die Realisierung von Sichten auf komplexen Sprachen um Benutzer mit der Komplexität eines Modells nicht zu überfordern, aber trotzdem ein konsitetntes Gesamtmodell zu erzeugen. Ziel der Arbeit ist es im gegebenen Technikraum Möglichkeiten für die Realisierung dieser Anforderung zu entwicklen und zu evaluieren. Anforderungen: beherrschen einer Programmiersprache (Java) Kenntnisse in EMF und GMF wünschenswert Aufgaben: Recherche existierender Verfahren Konzeption geeigneter Verfahren Implementierung auf Basis eines existierenden Editors für Unternehmensar...

Applying Pseudo-Relevance Feedback to Population Learning
Das Web of Data besteht bereits aus mehrerer Milliarden Tripeln, Tendenz steigend. Jedoch sind schätzungsweise nur 3–5% der Daten im Web of Data miteinander verlinkt. Zur automatischen verlinkung von Instanzen aus unterschiedlichen Wissensbasen werden bisher Werkzeuge benutzt, die Instanzen anhand einer Ähnlichkeitsmetrik miteinander vergleichen (z.B. LIMES). Ziel dieser Arbeit ist es, Pseudo-Relevance Feedback mit maschinellem Lernen zu verbinden, um bestmögliche Konfiguration für LIMES automatich zu berechnen. Das Rahmenwerk sowie entsprechende Vorarbeiten exisitieren bereits. Ihre Aufgaben wären: – Erarbeitung eines entsprechenden Ansatzes – Konzeption und Implementierung eines Prototyps – Evaluation anhand verschiedener Use Cases Folgende Voraussetzungen und Fähigkeiten sind f...

Porting Clustering to the Cloud
Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Besonders in der Biologie und in der Informatik entstehen riesige Netzwerke (mit Millionen von Knoten und Kanten), die nicht mehr zeiteffizient in einem Prozess analysiert werden können. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation eines Ansatzes zu Paralleliserung von BorderFlow, einem Graph-Clustering-Verfahren. Ihre Aufgaben wären: – Konzeption eines Map Reduce Ansatzes für die Parallelisierung von Border Flow – Umsetzung des Ansatzes und Implementierung mittels des Hadoop-Frameworks – Evaluation auf synthetische und echten Daten aus der Biologie Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig: – Studium der Informatik oder verglei...

Hierarchisches Border Flow
Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Der BorderFlow Algorithmus erlaubt die zeiteffiziente Berechnung von Clustern in großen Graphen. Ziel dieser Arbeit ist die Konzeption, Implementierung und Evaluation einer Erweiterung des Border Flow- Algorithmus, die es erlauben soll, hierarchisch mit Border Flow zu clustern. Ihre Aufgaben wären: – Konzeption und Implementierung einer Bibliothek von Methoden zum Berechnen von Cluster-Ähnlichkeiten – Implementierung eines iterativen Ansatzes zum hierarchischen Clustern mittels Border Flow – Evaluation auf synthetische und echten Daten aus der Biologie Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig: – Studium der Informatik oder vergleichbarer Studiengänge ...

Evaluation von Clustering-Algorithmen für Protein-Protein-Interaktion
Graph Clustering hast sich zu einem der meist genutzten Kategorie von Clustering-Algorithmen entwickelt. Insbesondere bei der Extraktion von Proteinkomplexen aus Graphen wurden in den letzten Jahren neue spezialisierte Algorithmen entwickelt. Ziel dieser Arbeit ist die Implementierung und Evaluation von Algorithmen zur Extraktion von Proteinkomplexen (IPCA, DPClus und COD) mit Hilfe des CVK Frameworks. Ihre Aufgaben wären: – Die Implementierung der Algorithmen ins CVK – Die Evaluation dieser Algorithmen mit echten Daten Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig: – Studium der Informatik oder vergleichbarer Studiengänge – Programmiererfahrung mit Java Entsprechendes Wissen kann ggf. auch während der Arbeit vermittelt bzw. erarbeitet werden. Wir bieten ein...

Semantic Chess
Schach gehört zu den kompliziertesten und beliebtesten Spielen der Welt. Über Jahrhunderte hinweg wurden Millionen von Schachpartien von Tausenden von Leuten dokumentiert und meist im PGN Format gespeichert. Obwohl PGN eine Lingua Franca für Schachengines darstellt, erlaubt dieses Datenformat keine semantische Interpretation der Partien. So können Anfragen wie “Which bulgarian players have an ELO over 2000” nicht beantwortet worden. Ziel dieser Arbeit ist die Konvertierung von PGN nach RDF und zurück sowie die Umsetzung einer semantischen Suche über Schachpartien in RDF. Folgende Fähigkeiten sind für die Bearbeitung dieses Themas notwendig: – Studium der Informatik oder vergleichbarer Studiengänge – Programmiererfahrung mit Java Entsprechendes Wissen kann ggf. auch während der A...

Ruby / Python Portierung von Triplify
Das größte Hindernis für eine umfassende Verbreitung des Semantic Web ist im Moment noch die mangelnde Verfügbarkeit von semantisch ausgezeichneten Daten, Informationen und Wissen (z.B. als RDF oder Linked Data). Andererseits wird bereits ein weitaus überwiegender Teil von Webseiten von datenbankbasierten Webanwendungen (wie CMS, Blogs, Wikis, Foren, Groupware etc.) generiert. ((http://Triplify.org Triplify}} macht es zum Kinderspiel solche Webanwendungen zu semantifizieren, also die in einer relationalen Datenbank gespeicherten Inhalte als RDF, Linked Data oder JSON zu publizieren. Triplify basiert auf der Definition von Datenbankabfragen, die relevante Informationen auswählen und deren Ergebnisse dann von Triplify automatisch in RDF-Statements (Triples) konvertiert und im Web...

SPARQL-Query-Plugin für Semantic Media Wiki
Media Wiki ist das Wiki-System auf welchem Wikipedia basiert. Semantic Media Wiki ist eine Erweiterung, mit der Wiki-Texte mittels einer typisierung der Wiki-Links semantisch annotiert werden können. Die dabei entstehende Wissensbasis kann mit speziellen ASK-Queries angefragt werden. Die Möglichkeiten der ASK-Queries sind dabei relativ begrenzt. Mit SPARQL existiert ein W3C-Standard zum Abfragen von Wissensbasen. Im Rahmen der Arbeit soll eine Erweiterung für Semantic Media Wiki realisiert werden, welche eine Abfrage der Wissensbasis mit SPARQL erlaubt. Konkret erreicht werden soll: Implementierung eines SWM-Plugins, welches in Wiki-Seiten eingebettete SPARQL-Abfragen ermöglicht Mapping der SPARQL-Anfragen auf den My SQL basierten Semantic Media Wiki Triple Store Dazu sind die fo...

Database to OWL Converter
Relationale Datenbanken bilden heute das Rückgrat vieler Anwendungen. Die Migration bzw. Bereitstellung solcher Strukturen für das Semantische Web ist häufig ein schwieriger, manueller Prozess. Ziel der Arbeit ist deshalb ein Tool zu entwickeln, welches interaktiv und semi-automatisch eine OWL-Ontologie aus einer relationalen Datenbank extrahiert. Dabei soll auf existierende Techniken zurückgegriffen werden um zuerst in einem ersten Schritt eine OWL-Ontologie auf Basis des Schemas (unter teilweiser Berücksichtigung der Daten) einer Datenbank zu extrahieren, die im zweiten Schritt durch Lernverfahren [1] angereichert wird. Das entwickelte Tool soll Teil des DL-Learner Open-Source-Projekts werden. Als konkrete Anwendung soll in der Arbeit eine Produktontologie für Mercedes Benz Fa...

Anwendung von Ontologielernverfahren im medizinischen Bereich
Die Ontologiesprache OWL ist einer der Grundbausteine des Semantic Web und wird bereits in großem Umfang im biologischen und medizinischen Bereich eingesetzt. Das automatische Lernen in Ontologien aus Instanzdaten erlaubt dabei neue interessante Anwendungen im medizinischen Bereich, z.B. können anhand von Daten zu Patientenuntersuchungen neue Erkenntnisse über Krankheiten gewonnen werden. Bei dieser Arbeit ermöglichen wir die Zusammenarbeit mit dem Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE). Ihre Aufgabe ist: Einarbeitung in Lernverfahren für OWL-Ontologien und das Open Source Tool DL-Learner Erarbeitung eines oder mehrerer konkreter Anwendungsszenarien Evaluation existierender Lernverfahren an diesen Anwendungsszenarien Folgende Voraussetzungen un...

Games with a Purpose: Interlinking
Games with a Purpose ist eine Forschungsrichtung, bei der Spaß an Spielen verknüpft wird mit häufig arbeitsintensiven Aufgaben, die durch das Spiel im Hintergrund erledigt werden. Eine solche Aufgabe ist das verknüpfen von Wissen aus unterschiedlichen Wissensbasen («Interlinking»). In dem Bereich wurden viele Verfahren entwickelt, deren Evaluation sich allerdings nur schwierig automatisieren lässt. Innerhalb des LATC-Projekts wurde deshalb eine grundlegende Spielidee entwickelt, die das Bewerten von Verknüpfungen erlaubt. Dabei können 2 oder mehr Spieler miteinander um Punkte / Geld spielen, während sie wertvolles Feedback für die Interlinking-Algorithmen im Hintergrund liefern. Ziel der Arbeit ist die Verfeinerung der Spielidee und deren Implementierung in einem Onlinespiel m...

Distributed Researcher Network
Semantic Web Technologien erlauben den globalen Austausch von Informationen. Insbesondere sind in den letzten Jahren Ideen entwickelt wurden um Daten dezentral verwalten zu können, wie z.B. hier beschrieben. In dieser Arbeit sollen verteilte Semantic Web Technologien am Anwendungsszenario von Forscherwebseiten (wie z.B. http://jens-lehmann.org ) realisiert werden. Die meisten Forscher verwalten in irgendeiner Form Publikationen, Präsentationen, Ereignisse usw. Um den Verwaltungsaufwand dafür zu reduzieren ist eine Kombination aus verschiedenen Datenquellen notwendig: 1.) Information die aus zentralen Quellen kommen, z.B. Publikationen aus Google Scholar. 2.) Informationen die aus dem Netzwerk des Forschers kommen, z.B. kann ein Ko-Autor eines Artikels bereits Informationen hinter...

Geo-Spiel: Interlinking
Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen. Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte. Analog wurde in der AKSW-Gruppe mit VeriLinks ein Spiel-Framework entwickelt, dessen Kernidee es ist Spieler im Hintergrund Verknüpfungen (Links) zwischen Wissensbasen validieren zu lassen. Mehrere Spieler können dabei um Punkte / Geld spielen, während sie wertvolles Feedback zu den Links liefern. Kernidee dieser Arbeit ist es beide Komponenten zu vereinigen: Der Spieler startet (analog zu Spielen wie Parallel Kingdom) auf einer Karte, z.B. dem Ort an dem er sich gerade befindet. Auf diesem Kartenausschnitt werden Elemente aus Linked Geo Data angezeigt, ...

Erweiterung des LinkedGeoData-Browsers
Das LinkedGeoData-Projekt (LGD) umfasst die Konvertierung von OpenStreetMap Datensätzen nach RDF, sowie das Verlinken mit anderen Wissensbasen. Desweiteren erlaubt der LGD-Browser die visuelle Darstellung der Daten auf einer Karte. Ziel der Arbeit ist das Überarbeiten des Browsers gemä­ß der im Rahmen der Arbeit noch näher zu spezifizierenden Anwendungsfälle. Dabei liegt der primäre Fokus auf der Performanz der im Hintergrund ablaufenden Anfragen an die Datenquellen. Für die Anwendungsfälle sollen daher verschiedene Datenrepräsentationen und Anfragestrategien erarbeitet und bewertet werden. Die Ergebnisse sollen in eine Anpassung des Browsers an die Anwendungsfälle einflie­ßen, wofür eine passende Architektur zu konzipieren und umzusetzen ist. Sofern es die Zeit erlaubt, wäre es m...

Entwicklung und Umsetzung eines Konzepts zum Datenaustausch zwischen dem Soft Wiki- Werkzeug und dem Requirements Interchange Format
Requirements Interchange Format (RIF) ist der zukünftige Standard für den Datenaustausch im Requirements-Management, das Strukturen für Anforderungen und deren Beschreibungen enthält. Soft Wiki ist eine auf dem Semantic Web und Web 2.0 basierende Plattform zur Anforderungserfassung in einer sehr frühen Phase des Entwicklungsprozesses. Ziel dieser Arbeit die Integration des Requirements-Managment-Werkzeug IRqA des Industriepartners QA-Systems in das Soft Wiki- Konzept. Ihre Aufgabe ist: Entwicklung eines Konzepts zur Datenübernahme aus dem Soft Wiki- Werkzeug (basierend auf Onto Wiki) in das Requirements-Interchange-Format (RIF). Implementierung eines Konverters für den Datenaustausch zwischen SWORE und dem RIF-XML-Schema. Dokumentation des strukturierten Entwicklungsprozesses ...

Bridging NIF, ITS and XLIFF
ITS and XLIFF are two formats, which are widely used in the internationalisation and localization industry. The main goal of this thesis is to provide software and algorithms that are able to transform the both formats lossless into the newly developed NLP Interchange Format and back (round-trip bridge). One of the challenge is to provide an algorithm that allows to transform offset annotations into XML/HTML markup. Overview Links: Internationalization Tag Set Wikipedia XLIFF Wikipedia Overview NIF Technical details: ITS Recommendation Version 1.0 ITS Working draft 2.0 NIF 1.0 XLIFF 1.2 XSLT Conversion of XLIFF to RDF Okapi Framework

Explication of Statistical Relations
Recent advances in semantic technologies (RDF, SPARQL, Sparqlify, RDB2RDF, Wiktionary 2 RDF, NIF, LLOD ) allow us to efficiently combine statistical data sets such as the Wortschatz with structured data such as Wiktionary 2 RDF with context information found in text using NIF . The goal of this project is to research if statistical measures such as significant left/right neighbour/sentence co-occurrences or iterated co-occurrences can be used to assert the “correct” relation between terms in text and explicate it as an RDF property. The available structured data Examples: He wears a green shirt. He wears a green t-shirt. “shirt” and “t-shirt” occur frequently with color adjectives and the verb “wear”. Research Questions: Can we entail synonymy of “shirt” and “t-shirt”? Generally...

NIF + Clarin's TCF
Create a converter from Clarin's TCF format to NIF (round trip). The resulting software will be hosted as a web service and will connect the Clarin and NLP2RDF world. Links: Weblicht and TCF NIF 2.0 Roadmap NIF 1.0 spec

Web Annotation: My Annotation + NIF
Improve Usability of MyAnnotation and make it interoperable with NIF. Links: for an introduction to MyAnnotation, have a look at the screencast NIF 2.0 Roadmap NIF 1.0 spec MyAnnotation Wiki

Web Annotation: Annotate It + NIF
The tool Annotate It is written in Coffee Script and uses its own JSON format for data serialization. Goal of this project is to make it interoperable with NIF. Links: http://annotateit.org http://en.wikipedia.org/wiki/CoffeeScript http://en.wikipedia.org/wiki/JSON NIF 2.0 Roadmap NIF 1.0 spec current JSON format email on their list

Built an (NLP) Application Suite on Top of the Wiktionary 2 RDF Live Extraction
See description above (Wiktionary 2 RDF Live Extraction). This project has three potential flavours: collect existing tools and methods, which might be improved using Wiktionary data and then extend them and improve them. This includes tools such as QuicDic Apertium Create useful tools for the Wiktionary users and editors. Either by providing suggestions for editors of Wiktionary with a GUI e.g. based on Parsoid, checking consistency or automatically by bots Research: improve existing NLP systems based on the yet unproven assumption that Wiktionary data is much better than traditional lexica Goal is: to have a running Live Extraction for Wiktionary 2 RDF built an application suite on top of the Live Extraction for Wiktionary 2 RDF that provides measurable benefits (for one of the ...

Wiktionary 2 RDF Live Extraction
The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (at the moment for 4–6 languages). However, only static dumps are produced and made available as download here: http://downloads.dbpedia.org/wiktionary The DBpedia Live Extraction is also built on the framework and receives regular updates from Wikipedia and keeps an RDF triple store in sync. On the basis of this synced triple store, we can find potential improvements and provide *simple* suggestions to Wiktionary editors. Goal is: to have a running Live Extraction for Wiktionary 2 RDF provide simple suggestions for editors of Wiktionary with a GUI The DBpedia Extraction Framework is written in Scala, the GUI can be in any language (Java Scr...

Erweiterung eines PHP-basierten Web-Portals
An dem Lehrstuhl wird ein Web-basiertes Management-System zur Anzeige und Verwaltung fest strukturierter Daten entwickelt. Im Rahmen einer Bachelor-Arbeit sollen Web 2.0 Erweiterungsmöglichkeiten untersucht und implementiert werden. Das Projekt basiert auf dem PHP-Framework Zend. Ihre Aufgabe ist: Einarbeitung in das Projekt und bei Bedarf in das Zend-Framework Untersuchung der Erweiterungsmöglichkeiten Konzeption und Implementierung von mindestens einer Erweiterung Erwartete Kenntnisse: Studium der Informatik oder vergleichbarer Studiengänge Gute Kenntnisse in PHP und Java Script Kenntnisse in aktuellen Web-Technologien Wir bieten Ihnen eine umfangreiche Betreuung und eine praxisnahe Abschlussarbeit.

Untersuchung von Mapping-Algorithmen für Geschäftsprozessmodelle
Mit Hilfe von Geschäftsprozessen lassen sich Aktivitäten strukturiert darstellen und damit das gesammelte Wissen von Unternehmen organisieren. Prozesse werden unter anderem zur Kommunikation, zur Dokumentation und zum Training neuer Mitarbeiter_innen genutzt. Durch diese vielfältigen Anwendungsmöglichkeiten gibt es heutzutage eine Reihe verschiedener Prozessmodelle, die in der Regel in unternehmenseigenen Repositories abgelegt werden. Zur Organisation dieser Repositories (Identifikation von Duplikaten, Finden Ähnlicher Prozessmodelle etc.) ist die Suche nach Prozessmodellen notwendig. Eine notwendige Voraussetzung zur Suche nach Prozessmodellen stellt ein Mapping zwischen den jeweiligen Elementen dar, d.h. eine Übersicht darüber, welche Elemente eines Modells mit Elementen eine...

Implementierung von Mapping-Algorithmen für Geschäftsprozessmodelle
Mit Hilfe von Geschäftsprozessen lassen sich Aktivitäten strukturiert darstellen und damit das gesammelte Wissen von Unternehmen organisieren. Prozesse werden unter anderem zur Kommunikation, zur Dokumentation und zum Training neuer Mitarbeiter_innen genutzt. Durch diese vielfältigen Anwendungsmöglichkeiten gibt es heutzutage eine Reihe verschiedener Prozessmodelle, die in der Regel in unternehmenseigenen Repositories abgelegt werden. Zur Organisation dieser Repositories (Identifikation von Duplikaten, Finden Ähnlicher Prozessmodelle etc.) ist die Suche nach Prozessmodellen notwendig. Eine notwendige Voraussetzung zur Suche nach Prozessmodellen stellt ein Mapping zwischen den jeweiligen Elementen dar, d.h. eine Übersicht darüber, welche Elemente eines Modells mit Elementen eine...

Ansätze zur Konfiguration komplexer Dienstleistungen
Heutzutage bilden Dienstleistungen ein bedeutendes wirtschaftliches Standbein vieler Unternehmen. Gleichzeitig stehen diese Unternehmen vor der Herausforderung, in einem kompetitiven Markt zu bestehen, der zunehmend internationaler wird. Es ist notwendig, Dienstleistungen produktiv anzubieten; dabei dürfen gleichzeitig individuelle Bedürfnisse einzelner Kund_innen nicht außer Acht gelassen werden. Ein Ansatz, der sich in den letzten Jahren herausgebildet hat, um diese beiden gegenüberliegenden Pole zu vereinen, besteht in der Konfiguration komplexer Dienstleistungen. Dazu wurden in der wissenschaftlichen Literatur verschiedene Möglichkeiten präsentiert. Ziel der Arbeit ist die Untersuchung der verschiedenen Ansätze zur Konfiguration komplexer Dienstleistungen. Die unterschiedlic...

Herausforderungen an Prozesse im Precision Farming
Durch fortschreitende technische Entwicklungen der vergangenen Jahre können Bestrebungen hin zu einer präzisen und zugleich diversifizierten und umweltgerechten Agrarwirtschaft unterstützt werden. Einerseits wird die Datenerfassung vereinfacht, andererseits können mittels Data-Mining-Algorithmen Muster erkannt und damit Vorhersagen getroffen und Anwendungsempfehlungen gegeben werden. Obwohl gerade kleinere Unternehmen von den Vorteilen des Precision Farming profitieren können, wird dies aufgrund hoher Investitionskosten hauptsächlich in Großbetrieben eingesetzt. Dazu ist es notwendig, Precision Farming als Dienstleistung über die Grenzen eines einzelnen Betriebes hinweg anzubieten. Im Rahmen der Arbeit sollen existierende Prozesse des Precision Farmin auf ihre Schwachstellen(z....

Referenzmodellierung für dynamische Prozesse
Referenzmodelle tragen in vielen Domänen dazu bei, gesammeltes Wissen und existierende Best Practices in angemessener Form darzustellen und für eine Wiederverwendung aufzubereiten. Die Nutzung von Referenzmodellen steht allerdings in einigen Bereichen vor besonderen Herausforderungen. Dazu gehören unter anderem stochastische Einflussgrößen auf Prozesse, die Interaktion zwischen vielen verschiedenen Prozessbeteiligten sowie die Notwendigkeit flexibler Prozessanpassungen. In der wissenschaftlichen Literatur existieren erste Überlegungen, wie auf diese Herausforderungen reagiert werden kann; eine umfassende Lösung wurde bisher allerdings noch nicht vorgestellt. Ziel der Arbeit ist die Untersuchung und Gegenüberstellung existierender Referenzmodelle anhand der skizzierten Herausfor...

Evaluation der Möglichkeiten und Voraussetzungen von Requirements Engineering / Management eines PLM-Systems in Bezug auf Weiterverwendung im Bereich des Service Engineerings
Aufgabe ist es die Möglichkeiten eines Requirements Engineering / Management eines existierenden PLM-Systems (Produkt-Lebenszyklus-Systems) ausloten und zu bewerten in Hinblick auf eine sinnvolle Anbindung an existierende Tools im Bereich des Service Engineerings. Auf Basis dieser Evaluation kann eine Bachelor- oder Masterarbeit mit dem Ziel einer praktischen Implementierung angeschlossen werden. Ihre Aufgabe ist: Einarbeitung in das Projekt Evaluation Requirements Engineering / Management eines existierenden PLM-Systems (Praktikum) Konzeption und Implementierung des Service Engineeringtools in das PLM-System Erwartete Kenntnisse: Studium der Informatik oder vergleichbarer Studiengänge Kenntnisse in aktuellen Web-Technologien Wir bieten Ihnen eine umfangreiche Betreuung und eine...

Entwicklung eines Statistiktools für ein E-Commerce-System
Bachelor Praktikum / Bachelorarbeit Mit Hilfe Statistiken werden in E-Commerce-Systemen Auswertungen zum Kaufverhalten und zur Optimierung des Angebotes vorgenommen. Im Rahmen der ausgeschriebenen Abschlussarbeit soll auf Basis der Open-Source-E-Commerce-Systeme Zen Cart eine Erweiterung der bestehenden statistischen Auswertungsmöglichkeiten erarbeitet werden. Dabei soll eine zeitraumbezogene und artikelbezogene Auswertung ermöglicht werden und eine grafische Aufbereitung der Ergebnisse (z.B. mit Hilfe der Google-Chart-API) implementiert werden. Wir bieten: – kompetente inhaltliche und fachliche Betreuung – einen konkreten Anwendungsfall Als Interessent verfügen Sie idealerweise über: – Vorerfahrungen mit E-Commerce-Systemen – Kenntnisse in PHP und My SQL – hohe Motivation und Inte...

Synchronisation von RDF Modellen im PKM Kontext
Ziel der Arbeit ist die Konzeption und prototypische Implementierung einer Sync ML Komponente, welche RDF Modelle mit Sync ML Clients wie iPhones, PDAs, ... synchronisieren kann. Die Sync ML – Synchronization Markup Language – ist ein plattformunabhängiger Standard zur Datensynchronisation zwischen Computern. Bei den Daten kann es sich um beliebige Informationen handeln, meist PIM-Daten wie Adressen, Kalendereinträge oder E-Mail-Nachrichten (> wpde ). Diese Arbeit wird im Rahmen des Onto Wiki Projektes betreut. Vorkenntnisse in PHP sind von Vorteil.

Erweiterung eines PHP-basierten Web-Portals
An dem Lehrstuhl wird ein Web-basiertes Management-System zur Anzeige und Verwaltung fest strukturierter Daten entwickelt. Im Rahmen einer Bachelor-Arbeit sollen Web 2.0 Erweiterungsmöglichkeiten untersucht und implementiert werden. Das Projekt basiert auf dem PHP-Framework Zend. Ihre Aufgabe ist: Einarbeitung in das Projekt und bei Bedarf in das Zend-Framework Untersuchung der Erweiterungsmöglichkeiten Konzeption und Implementierung von mindestens einer Erweiterung Erwartete Kenntnisse: Studium der Informatik oder vergleichbarer Studiengänge Gute Kenntnisse in PHP und Java Script Kenntnisse in aktuellen Web-Technologien Wir bieten Ihnen eine umfangreiche Betreuung und eine praxisnahe Abschlussarbeit.

Entwicklung eines Statistiktools für ein E-Commerce-System
Mit Hilfe Statistiken werden in E-Commerce-Systemen Auswertungen zum Kaufverhalten und zur Optimierung des Angebotes vorgenommen. Im Rahmen der ausgeschriebenen Abschlussarbeit soll auf Basis der Open-Source-E-Commerce-Systeme Zen Cart eine Erweiterung der bestehenden statistischen Auswertungsmöglichkeiten erarbeitet werden. Dabei soll eine zeitraumbezogene und artikelbezogene Auswertung ermöglicht werden und eine grafische Aufbereitung der Ergebnisse (z.B. mit Hilfe der Google-Chart-API) implementiert werden. Wir bieten: – kompetente inhaltliche und fachliche Betreuung – einen konkreten Anwendungsfall Als Interessent verfügen Sie idealerweise über: – Vorerfahrungen mit E-Commerce-Systemen – Kenntnisse in PHP und My SQL – hohe Motivation und Interesse am Thema

Konzeption einer Lebenslaufakte für die technische Betriebsführung von erneuerbaren Energieanlagen
Einführung Die Stromerzeugung aus erneuerbaren Energien gewinnt zunehmend an Bedeutung. Dies zeigt sich ganz besonders an den aktuellen politischen Bemühungen zum Netzausbau und an den Diskussion um die finanzielle Förderung für Solaranlagen. Der Betriebsführer ist für den optimalen Betrieb und die Instandhaltung der Energieanlage zuständig. Auf Grund des steigenden Kostendrucks und der zunehmenden Konkurrenzsituation auf dem Markt für Betriebsführungsdienstleistungen ist eine nähere Untersuchung und Optimierung der Prozesse in der Betriebsführung notwendig. Ein Aspekt ist die durchgängige und konsistente Anlagendokumentation über den Lebenszyklus einer Energieerzeugungsanlage hinweg. Ziele der Arbeit Die sog. Lebenslaufakte enthält alle instandhaltungsrelevanten Ereignisses, Do...

Standards für die Betriebsführung von erneuerbaren Energieanlagen
Einführung Die Stromerzeugung aus erneuerbaren Energien gewinnt zunehmend an Bedeutung. Dies zeigt sich ganz besonders an den aktuellen politischen Bemühungen zum Netzausbau und an den Diskussion um die finanzielle Förderung für Solaranlagen. Der Betriebsführer ist für den optimalen Betrieb und die Instandhaltung der Energieanlage zuständig. Auf Grund des steigenden Kostendrucks und der zunehmenden Konkurrenzsituation auf dem Markt für Betriebsführungsdienstleistungen ist eine nähere Untersuchung und Optimierung der Prozesse in der Betriebsführung notwendig. Für eine nahtlose Datenverarbeitung in der Betriebsführung ist die Anwendung verschiedener Normen und Standards notwendig. Ziele der Arbeit In dieser Arbeit befassen Sie sich mit aktuellen Standards und Normen, die im Anwend...

Entwicklung eines Kennzahlenmodells zur Erfolgskontrolle von E-Commerce-Systemen
Heutige E-Commerce-Systeme (insbesondere Online-Shop) stellen für Unternehmen einen relevanten Vertriebskanal für ihre Produkte und Dienstleistungen dar. Diese digitalen Systeme liefern umfangreiche Daten über das Verhalten der Kunden und ermöglichen so eine gute Erfolgskontrolle der Online-Shops an sich, durchgeführter Marketing-Aktionen (wie Rabatte oder Gutscheine) sowie anderer Maßnahmen in Online-Shops. Für den Zweck der Erfolgsbewertung haben sich zahlreiche Kennzahlen (Key Performance Indicator (KPI)) im E-Commerce etabliert, als Beispiel seinen Umsatz, Gewinn, Besucheranzahl, Konversionsrate, durchschnittlicher Warenkorbwert usw. genannt. Ziel dieser Arbeit ist die Erarbeitung eines Kennzahlenmodells für E-Commerce-Systeme, welches die etablierten Kennzahlen für die wic...

Evaluation von Frameworks für die Integration von Simulationen
Für die Integration von Teilsimulationen zu komplexeren Simulationen existieren neben generischen Middlewarelösungen spezielle Integrationsframeworks. Diese stellen verschiedene Basisfunktionalitäten für den Datenaustausch der Teilsimulationen untereinander und das notwendige Zeitmanagement zur Verfügung. Der bekannteste Vertreter ist die vom US-amerikanischen Verteidigungsministerium entwickelte High-Level Architecture (HLA), die seit dem Jahr 2000 als IEEE-Standard definiert (IEEE-Standard 1516) ist. Ziel dieser Arbeit ist die gezielte Recherche nach Frameworks für die Integration von Simulationen und die anschließende Gegenüberstellung der gefundenen Ansätze. Ihre Aufgaben umfassen dabei Recherche nach Frameworks für die Integration von Simulationen Vergleich der Integration...

Integration von Simulationen am Beispiel der High-Level Architecture
Für die Integration von Teilsimulationen zu komplexeren Simulationen existieren neben generischen Middlewarelösungen spezielle Integrationsframeworks. Diese stellen verschiedene Basisfunktionalitäten für den Datenaustausch der Teilsimulationen untereinander und das notwendige Zeitmanagement zur Verfügung. Der bekannteste Vertreter ist die vom US-amerikanischen Verteidigungsministerium entwickelte High-Level Architecture (HLA), die seit dem Jahr 2000 als IEEE-Standard definiert (IEEE-Standard 1516) ist. Ziel dieser Bachelorarbeit ist die prototypische Anwendung der High-Level Architecture für die Integration von Teilsimulationen anhand eines konkreten Szenarios. Ihre Aufgaben umfassen dabei Einarbeitung in die Grundlagen der High-Level Architecture Recherche nach konkreten Imple...

Evaluation von Softwarewerkzeugen für die feature-basierte Variabilitätsmodellierung
Die Softwareproduktlinienentwicklung als Entwicklungsparadigma verfolgt das Ziel einer effektiven und geplanten Wiederverwendung von Softwarekomponenten. Hierbei wird die Entwicklung vieler gleichartiger Systeme fokussiert, statt wie bisher die Entwicklung von Einzelsystemen. Ein zentraler Aspekt der Softwareproduktlinienentwicklung ist dabei die Variabilitätsmodellierung, welche die Gemeinsamkeiten und Unterschiede zwischen den Einzelsystemen beschreibt. Ein weitverbreiteter Ansatz für die Realisierung von Softwareproduktlinien stellen konfigurationsbasierte Ansätze dar. Dabei wird Variabilität in Form von sogenannten Featuremodellen beschrieben und mittels eines Konfigurators die Ausprägungen der einzelnen Variationspunkte spezifiziert. Ziel dieser Arbeit ist die Evaluation ...

Entwicklung einer Simulation zur Entscheidungsunterstützung im E-Commerce
Die optimale Konfiguration von komplexen E-Commerce-Systemen ist ein allgemein anerkanntes kritisches Problem. Dies liegt einerseits an der Umsatzrelevanz derartiger Systeme für die Unternehmen, andererseits betreffen mögliche Konfigurationsentscheidungen wie die Einführung einer neuen Zahlungsart oder die Realisierung eines zusätzlichen Vertriebskanals mittels Mobile Commerce neben wirtschaftlichen Bereichen auch technische und sozialwissenschaftliche Aspekte. Aufgrund dieser Multidimensionalität sind die Auswirkungen nicht klar durchschaubar und deterministisch berechenbar. Daher stellen Simulationen einen vielversprechenden Ansatz zur Abschätzung von Entscheidungen dar. Ziel dieser Arbeit ist die Entwicklung einer Simulation für die Entscheidungsunterstützung für eine genau s...

Use-Case-driven Development and Improvement of RDB2RDF Mapping (Sparqlify)
The members of the Working Group for Open Data in Linguistics OWLG have expressed great interest in the conversion of their databases to RDF. In this context, we see a good chance that the Sparqlify tool, which is developed by our research group can greatly help to speed up this process. We expect you to help convert and interlink a great number of linguistic data sets and produce high quality Linked Data bubbles for the LLOD cloud. This process will, of course, reveal many missing features and gaps for improvements of Sparqlify. Goal of the project is therefore: Create mappings from relational databases to RDF (data is supplied by community) Systematically collect gaps and missing features Based on 2.: fix and improve Sparqlify with the aim to creating a production-ready softwar...

Browsen, Suchen und Navigieren in DBpedia mit Hilfe maschinellen Lernens
Anfang des Jahres wurde das sehr erfolgreiche DBpedia-Projekt gegründet. Ziel dieses Projektes ist es Informationen aus Wikipedia extrahieren und sie mit anderen Wissensbasen zu verbinden. Wikipedia ist eine der am häufigst besuchten Seiten weltweit (Position 8 im Oktober 2008 laut http://alexa.com) auf der von Menschen eine riesige Menge an Wissen zusammengetragen wird. Eine Herausforderung bei dieser Menge von innerhalb des DBpedia-Projektes extrahierten Informationen ist Navigationsmöglichkeiten innerhalb der DBpedia-Daten anzubieten. Dafür wurde in einer Vorarbeit der DBpedia Navigator entwickelt, der das OWL-Lernsystem DL-Learner verwendet. Ziel der Arbeit ist es dieses Werkzeug zu einem Endnutzer DBpedia-Viewer weiterzuentwickeln und dabei Machine Learning Methoden für di...

Semi-automatic Wikipedia article correction
We have developed a DBpedia extractor that extracts metadata from templates, thus, we have information for correct infobox usage in Wikipedia articles (metadata). Using this metadata we can check if Wikipedia authors use proper infobox declarations inside articles, identify wrong usage and suggest corrections. The benefits of resolving these errors are: 1) Correct the Wikipedia articles and 2) get better and more DBpedia triples. We have 2 specific example cases here: An editor misspells an infobox instance (i.e.“Infobox Artist” to “Infobox Artist”). This would result in hiding the infobox from the page display, as mediawiki would not know how to render it. An editor misspells an infobox property (i.e. “birth place” to “birthplace”). This would also result in hiding the propert...

Create a new geodata LOD dataset
Bachelor thesis: The purpose of this thesis will be to create a new LOD Dataset from Yahoo WOEID – Where On Earth Identifier. WOIED is supported / updated by Yahoo, used by many geodata applications (i.e. Flickr) and is considered to be an established place categorization. After converting the dataset to triples, the next step will be to link it with other LOD datasets, such as Linked Geo Data, DBpedia, geonames. Master thesis: It’s not very clear if this is qualified to be extended as a Master thesis, but an idea would be to use this and other LOD datasets and create a LOD tourist guide.

Make the DBpedia resource page more interactive/attractive
Change the DBpedia resource html display page (i.e. http://dbpedia.org/page/Steve_Martin) and make it more interactive by integrating information from other LOD datasets. This can be achieved by working on both the front-end (html/css/javascript) and the server-side. For the server side we use Open Link Virtuoso VSP technology (similar to PHP) but we are open to other suggestions as well. If the implementation is good, this work will be deployed to DBpedia. Ideas on what we imagine to accomplish may come from Freebase.

Badge Server for Gamification of Reward System for Online Communities
The AKSW research group is involved in many online communities. Although the members of these communities are highly active and contribute work to the projects, there are not any reward mechanisms in place to remunerate this effort)). This practical problem can be solved by a badge server, which implements three operations: an admin/moderator can add a badge (including a description, what has to be achieved and an image) a community member can apply for a badge, presenting proof that he has successfully completed the task the admin/moderator approves the request and awards the badge to the user. Example badges: “Over 100 commits to the DBpedia framework”, «Created a language config for http://dbpedia.org/Wiktionary". To be an effective system usability needs to be high and the awar...

Modellgetriebene Softwareentwicklung für agentenbasierte Simulation
Die agentenbasierte Simulation (ABS) ist ein Simulationsparadigma für die Modellierung und Simulation komplexer Systeme. Zentraler Bestandteil sind dabei autonom handelnde Agenten, die selbstständig ihre Umwelt wahrnehmen und entsprechend ihrer Ziele auf Umweltveränderungen reagieren. Das nach außen wahrnehmbare Gesamtverhalten eines Systems ergibt sich aus dem Verhalten der einzelnen Agenten sowie deren Interaktionen. Dieses Simulationsparadigma wird daher beispielsweise bei der Simulation von biologischen Populationen, aber auch zur Simulation von Kundenverhalten in betriebswirtschaftlichen Märkten eingesetzt. Für die Entwicklung und Ausführung agentenbasierter Simulationen gibt es eine Vielzahl von spezialisierten Softwarewerkzeugen. In den letzten Jahren fand insbesondere ...

Wiktionary 2 RDF Online Editor GUI
The recently released Wiktionary extension of the DBpedia Extraction Framework allows to configure scrapers that produce RDF from Wiktionary (currently for 4–6 languages). The configuration is currently done by configuring an XML file that serves as a wrapper for a language specific Wiktionary edition. The community would greatly benefit from an online tool that helps to create and update such xml wrapper configurations. The editor should be able to load an existing config file and then give the RDF output for a piece of Wiki syntax. Measure of success is how easy a wrapper can be created and maintained. Links: http://wiktionary.org http://wiki.dbpedia.org/Wiktionary DBpedia Extraction Framework

Conversion of XML dataset to RDF
The aim of this task is to convert XML data to RDF. The following steps should be done: Acquisition of the Google Patents and European Patent XML data Formulation of a schema to convert XML data to RDF, see example here: http://goo.gl/IUogC Implement a methodology to use the schema to convert the XML data to RDF Students need the following prerequisites to perform this task: Programming skills Background on working with XML data

Erstellung eines Systems zur Identifizierung von Ressourcen
Ressourcen werden im Semantic Web mittels URI identifiziert und anhand dieser mit Metainformationen versehen. Allerdings ist es möglich, dass unterschiedliche URIs auf dieselbe reale Ressource zeigen. Im entstehenden Web of Data ist dieses Problem nach wie vor häufig anzutreffen, so dass unterschiedliche Dienste identische Ressourcen beschreiben, diese allerdings unterschiedlich identifizieren und somit eher schwach verknüpfte Dateninseln entstehen, als ein stark verknüpftes Web of Data. Ziel der Arbeit ist es ein System zu erstellen, dass anhand von URIs und Metainformationen (sowohl in strukturierter als auch unstrukturierter Form) einer Ressource einen Abgleich mit einer anderen Datenbasis vollzieht und mögliche Übereinstimmungen nennt und gewichtet. Ein solches System ka...

M3-Level-basierten Transformation zur Integration von ERP-Systemen
M3-Level-basierte Transformationen transformieren Modelle und deren Metamodelle auf Basis von Abbildungsregeln, die zwischen Meta-Metamodellen definiert wurden. Bisher wurde dieser Ansatz im Bereich der Metamodellierungswerkzeuge angewendet. Man kann allerdings davon ausgehen, dass die notwendige Struktur (ein Modellraum mit drei Modell-Ebene) ebenfalls in anderen Anwendungsbereichen vorkommt. Es wird angenommen, dass solch ein Modellraum auch im Bereich der betrieblichen Informationssysteme, speziell den ERP-Systemen, vorkommt. Ziel der Arbeit ist es diese Annahme zu bestätigen und darauf aufbauend eine M3-Level-basierte Transformation zwischen zwei ausgewählten ERP-Systemen zu entwickeln.

Regionale Innovationsnetzwerke am Beispiel des Innovationsraumes Leipzig.
Ihr Aufgabengebiet: Innovationsnetzwerke sind ein mögliches Szenario im Rahmen des Open Innovation Paradigmas für kleine und mittlere Unternehmen (KMU), um auf gestiegenen Kostendruck und einen mittlerwei-le globalen Wettbewerb zu reagieren. Gerade regionale Netzwerke mit häufig sehr informellen Strukturen haben sich als kreative, innovative und durchaus erfolgreiche Milieus bewiesen. Einordnung, Beschreibung und Abgrenzung der Begriffe Innovationsnetzwerk und innovati-ve Milieus Skizzierung des Innovationsraumes Leipzig und der darin vorhandenen Akteure anhand selbst zu entwickelnder Kriterien Qualitative Bewertung des Innovationsraumes Leipzig als innovatives Milieu Gerne auch eigene Ideen / Themenvorschläge in diesem Rahmen Wir bieten Ihnen: Intensive Betreuung bei der Konzep...

Darstellung unternehmerischer Handlungsoptionen innerhalb des Open Innovation Paradigmas
Ihr Aufgabengebiet: Unter Open Innovation (Chesbrough 2003. Open Innovation: The new imperative for creating and profiting from technology.) wird allgemein die Öffnung des unternehmerischen Innovationsprozes-ses zur Außenwelt verstanden. Dies führt zu einer enormen Erweiterung von unternehmerischen Handlungsoptionen in Bezug auf das Innovationsmanagement. Diese sollen im Rahmen der Arbeit erfasst, kategorisiert und mit Hilfe ausgewählter Fallstudien belegt werden. Einordnung, Beschreibung und Abgrenzung des Open Innovation Paradigmas innerhalb des Themenkomplexes Innovation und Innovationsmanagement Ausarbeitung und Klassifizierung unternehmerischer Handlungsalternativen im Rahmen des Open Innovation Ansatzes exemplarische Darstellung mehrerer Alternativen anhand von frei wäh...

Darstellung und Einordnung aktueller Innovationsmodelle und ?strategien in Bezug auf ein zukunftsorientiertes IT-Dienstleistungsmanagement.
Ihr Aufgabengebiet: Für ein erfolgreiches Bestehen am Markt sind auch im IT-Dienstleistungssektor Innovationen und ein erfolgreiches Innovationsmanagement notwendig. Dieses muss den besonderen Anforderungen des IT-Bereichs sowie des Dienstleistungsmanagements genügen. Einordnung, Beschreibung und Abgrenzung von Innovationsmodellen im aktuellen Diskurs Einordnung, Beschreibung und Abgrenzung des Dienstleistungsmanagements im aktuellen Diskurs Kritische Darstellung von Innovationsmodellen für Innovationen im IT-Dienstleistungsma-nagement Gerne auch eigene Ideen / Themenvorschläge in diesem Rahmen Wir bieten Ihnen: Intensive Betreuung bei der Konzeption, Organisation und Durchführung Ihrer Abschlussarbeit den Einstieg in ein interessantes Themengebiet mit Zukunftsperspektiven die...

Repräsentation und Publikation von Datenerhebungen im Linked Data Web
Zur Repräsentation und Publikation von Umfrage-Rohdaten sowie den dazugehörigen Fragekatalogen eignen sich besonders Technologien des Linked Data Web. Werden diese Daten in nicht-aggregierter Form mit Hilfe von RDF veröffentlicht, wird einerseits deren Wiederverwendungspotential massiv erhöht und andererseits ein größerer Kreis von Dateninteressenten aquiriert. Im Rahmen dieser Arbeit ist eine Web-Applikation (oder auch eine Onto Wiki- Komponente) mit folgenden Eigenschaften zu entwickeln: Benutzerfreundliche Erstellung von Fragenkatalogen auf Basis des Survey-Vokabulars Durchführung von Umfragen auf Basis erstellter Fragenkataloge Exemplarische Transformation von Umfrageergebnissen aus bestehenden Datenerhebungswerkzeugen (auf Basis einer zuvor getätigten Evaluation) Erzeugung...

?Consuming Linked Data? Erweiterung für Shopsysteme im B2B
Linked Data / Semantic Web / RDF wird im Bereich der Business Intelligence für alle Beteiligten immer interessanter. Auch Anbieter von eCommerce-Plattformen wie Oxid E und Magento bieten mittlerweile RDFa Plugins zur maschinenlesbaren Repräsentation von Produkten und Produktkatalogen an (Linked Data produzierender Teilnehmer). Im B2B Market werden diese – als RDF repräsentierten – Informationen bisher allerdings nur geringfügig ausgewertet. Eine Möglichkeit RDF in diesem Umfeld direkt wiederzuverwenden wäre die Integration von Produktdaten (repräsentiert mit dem Good Relations Vokabular) in eCommerce-Plattformen mittels geeigneter Plugins (Linked Data konsumierender Teilnehmer). Im Rahmen der Arbeit ist die Verwendung von Linked Data zur Shopdaten-integration zu untersuchen un...

Cytoscape-Plugin für Border Flow
Graph Clustering wird erfreut sich einer wachsenden Popularität in den unterschiedlichsten Anwendungsgebieten, wie z.B. Information Retrieval, Bioinformatik, Data Mining, etc. Insbesondere in den ersten zwei Disziplinen ist der explorative Ansatz zentral für die Weiterverwendung der Ergebnisse. Ein populäres Visualiserungswerkzeug für diese Zwecke ist Cytoscape. Ihre Aufgabe besteht darin, ein Cytoscape Plugin für den BorderFlow-Algorithmus zu entwickeln, d.h. – Erarbeitung einer Architektur für die Integration – Entwicklung des Plugins – Integration des Plugins und Tests Folgende Voraussetzungen und Fähigkeiten sind für die Bearbeitung der Arbeit notwendig: – Studium der Informatik oder vergleichbarer Studiengänge – Programmiererfahrung mit Java – Interesse an Graph Clustering und ...


 
Zu dieser Seite gibt es keine Dateien. [Zeige Dateien/Upload]
Kein Kommentar. [Zeige Kommentare]