Studium der Wirtschaftsinformatik

Studium der Wirtschaftsinformatik

Themen für Abschlussarbeiten

Im Laufe Ihres Studiums müssen Sie je nach Studiengang eine Masterarbeit und/oder Bachelorarbeit anfertigen. Sie erwerben in dieser Zeit unter Anleitung und Begleitung eines von Ihnen gewälten Betreuers neue Fachkenntnisse und lernen das Handwerkszeug eigenständiger Entwicklungs- und Forschungsarbeit. Ihr erster Schritt zu einer erfolgreichen Arbeit ist, ein für Sie interessantes Thema zu finden. Kontaktieren Sie dazu einen wissenschaftlichen Mitarbeiter, der Sie betreuen könnte. Bei der Suche nach dem richtigen Betreuer orientieren Sie sich bitte an dem von Ihnen angestrebten Themengebiet und den Forschungssschwerpunkten der einzelnen Mitarbeiter. Entwickeln Sie möglichst genaue Vorstellungen von Ihrem Themenwunsch. Nachstehend finden Sie das aktuelle Themenangebot des Lehrstuhls Wirtschaftsinformatik. Die Liste kann - in individuellen Gesprächen mit den wissenschaftlichen Mitarbeitern - erweitert werden.

Bachelorarbeiten

Use Cases and Best Practices for the IT-Support of Participatory Budgeting Initiatives

Themensteller:Michael Fellmann

 

Geeignet für: Bachelorarbeit

Sprache: Deutsch/Englisch

Participatory budgeting (PB) initiatives aim to extend the cooperation between citizens and municipalities on the question of financial resource allocation. In this way, they are intended to increase satisfaction with the administration and to reduce non-voting behavior. However, municipalities that plan to run a PB initiative face several challenges regarding the IT-support. First, there are different use cases for PB and different features that could be implemented in supporting IT-systems. Second, there is a plethora of success stories and best practices, but this knowledge is scattered among various documents and case studies. Against this background, the goal of the Bachelor thesis is to develop a set of use cases for PB support (e.g. create proposal, vote for proposals). Furthermore, a structured literature analysis should be performed and best practices for IT-support should be extracted. Finally, a relation between the use cases and the best practices should be established in order to create a more holistic picture on important aspects and how they impact the features of IT-support for participatory budgeting.

OntoMetrics – Evaluation of Ontologies, Taxonomies and Vocabularies

Themensteller: Dr. B. Lantow


Geeignet für: Masterarbeit/Bachelorarbeit/...

Sprache: Deutsch/Englisch

Datum: 15.01.2020

Semantic Technologies provide powerful tools for the integration, analysis, generation and codification of knowledge and information. Knowledge is being covered in ontologies, taxonomies and vocabularies and can help to make information systems interoperable, to make AI results explainable, to automatically generate new knowledge, to make knowledge, information or data retrievable, …

Depending on the intended use, the knowledge represented in ontologies etc. needs to meet different quality criteria. One way of assessing ontology quality is the calculation of ontology metrics that correlate with aspects like understandability, reusability, modularity, complexity, …

The chair of Business Information Systems hosts the popular OntoMetrics platform which allows the automatic calculation of several metrics. There are several interesting topics around the platform:

  • Vocabularies are a special form of ontology which are widely used for interoperability solutions and knowledge integration. What are important quality characteristics for vocabularies? Which metrics can be used to measure them? A great number of vocabularies are collected on the Linked Open Vocabularies site – How do metrics change over different versions of the same vocabulary? Are there some metrics that are specific to successful vocabularies?
  • How, can the knowledge about ontology metrics be covered in an ontology? This ontology can be used to collect, compare and analyze the metric values calculated by OntoMetrics.
  • How do metric values change over different versions of the same ontology? What are the reasons for that changes? An industry partner could provide data for this task.
  • New ontology metrics need to be implemented and validated.
  • Quality profiles for different usage scenarios of ontologies need to be developed. This may also include hybrid AI systems that combine ML approaches with semantic technologies.
  • The OntoMetrics implementation needs to be changed to move from manual upload and interpretation of ontologies to a service that can be integrated in ontology development environments.
  • The OntoMetrics implementation needs to be changed to support more formats for knowledge representation and their specific characteristics.
Nutzung von KI in kleinen und mittleren Unternehmen

Themensteller: Dr. B. Lantow


Geeignet für: Bachelorarbeit/Masterarbeit

Sprache: Deutsch/Englisch

Datum: 15.01.2020

Im Rahmen dieser Arbeit soll ein systematischer Überblick über die Nutzung von Technologien Künstlicher Intelligenz in kleinen und mittleren Unternehmen (KMU) geschaffen werden. Teil der Aufgabe ist eine Systematisierung in Bezug auf verwendete Technologien, Nutzungsszenarien mit Blick auf die Anwendung und die Bereitstellung/Wartung entsprechender technischer Lösungen und Erfolgsfaktoren. Die Datenerhebung soll sowohl auf der Analyse wissenschaftlicher Literatur als auch der Analyse von Praxisbeispielen, Success Stories und sonstiger öffentlich verfügbarer Dokumentation des Einsatzes von KI in KMU beruhen.

Cognitive Services - Analyse und Klassifikation von Funktionsumfang, Schnittstellen und Angebotsformen

Themensteller:Michael Fellmann

 

Geeignet für: Bachelorarbeit

Sprache: Deutsch/Englisch

Datum: 08.08.2019

Unter „Cognitive Services“ kann eine Sammlung von Algorithmen und Programmierschnittstellen (Application Programming Interfaces, APIs) verstanden werden, die Technologien der Künstlichen Intelligenz (KI) wie Deep Learning oder Data Mining nutzen, um menschliche Lern- und Denkprozesse zu simulieren. Sie werden daher auch dem sog. „Cognitive Computing“ zugeordnet. Ihren Einsatz finden Cognitive Services, um Entwicklern beispielsweise zu helfen, Anwendungen oder Agenten mit künstlicher Intelligenz (KI) auszustatten. Sie ermöglichen es somit Unternehmen, die nicht über das notwendige KI-Entwicklungspersonal, die Infrastruktur zur Speicherung und Analyse großer Datenmengen und das Budget hierzu verfügen, KI-Werkzeuge für ihre Bedürfnisse auszuwählen und zu nutzen. Zu den Anbietern von Cognitive Services gehören zum Beispiel IBM, Microsoft, Amazon und Google, jedoch sind darüber hinaus zahlreiche weitere, teils auf einzelne Services spezialisierte Anbieter auf dem Markt. Da sich ein Überblick über das umfangreiche Angebot der Cognitive Services und die zielgerichtete Auswahl schwierig gestaltet, soll im Rahmen der Bachelorarbeit eine Analyse und Klassifikation von Funktionsumfang, Schnittstellen und Angebotsformen vorgenommen werden. Die Analyse soll dabei die zur wissenschaftlichen Nutzung von Cognitive Services relevanten Kriterien hinsichtlich Lizenzmodell, Schnittstellen und Datenspeicherung identifizieren und zum Vergleich heranziehen.

Digitale schwarze Bretter in der Wohnungswirtschaft: Bedarf, Nutzen und Technologien

Betreuung

Themenstellung

In Gebäuden mit vielen Mietparteien oder in Wohnheimen für Schüler und Studierende gibt es in der Regel mindestens ein schwarzes Brett oder eine Anschlagtafel, die dazu dient, Informationen vom Vermieter oder Betreiber des Gebäudes an die Mieter bzw. Nutzer zu übermitteln, wie z.B.  Wartungstermine (für Heizung, Aufzug, etc.), Störungsmeldungen („kein Warmwasser wegen technischem Problem“), Änderungen der Ansprechpartner in der Hausverwaltung, Ablesetermine für Zähler in den Wohnungen, usw.. Gleiches gilt für Sportanlagen, die vielen verschiedenen Vereinen, Schulen oder anderen Organisationen zur Verfügung stehen. Diese Art der Bereitstellung von Informationen ist weder für den Vermieter/Betreiber noch für die Mieter/Nutzer optimal. Die Informationen müssen beispielsweise physisch an allen relevanten schwarzen Brettern angebracht werden, was viel Aufwand bedeutet und bei kurzfristig auftretenden Störungen oft nicht schnell genug erfolgen kann. Die Verbreitung von Informationen über IT-gestützte Lösungen (Homepages im Internet, SMS-Nachrichten, Apps) ist zwar technisch kein Problem, erfordert aber, dass die Mieter/Nutzer mit der entsprechenden Technologie ausgerüstet sind und diesen Informationskanal akzeptieren – was für viele Mieter/Nutzer nicht vorausgesetzt werden kann. Daher wird das schwarze Brett vermutlich kurzfristig nicht überflüssig werden, könnte aber durch eine digitale Variante ersetzt werden, die zumindest die Verbreitung der Information vereinfacht und die Aktualität erhöht.

Die geplante Bachelor-Arbeit soll untersuchen, welchen Nutzen digitale schwarze Bretter / Anschlagstafeln aus Sicht der Wohnungswirtschaft konkret haben. Dazu soll ausgehend vom Bedarf der Wohnungswirtschaft, d.h. den gewünschten Nutzungsszenarien, und den erwarteten Vorteile (Kostenersparnis, Zeitersparnis, größere Aktualität, etc.) der konkrete Nutzen ermittelt und quantifiziert werden. Dazu gehört beispielsweise, wie viel Aufwand bei der Verteilung der Informationen wirklich gespart werden kann oder welche neuen Nutzungsmöglichkeiten erwartet werden. Diese Nutzenbetrachtung soll in Relation zu entstehenden Kosten (Installation, Wartung, Betrieb) bei zumindest zwei ausgewählten Lösungen gesetzt werden. 

Der Kooperationspartner, mit dem nicht nur Nutzungsszenarien diskutiert werden können sondern auch die mögliche Einbindung in heutige Arbeitsabläufe, ist der Bereich WIROtel und Sportstätten der WIRO. Die WIRO und der Lehrstuhl Wirtschaftsinformatik arbeiten gemeinsam an neuen Lösungen für die Digitalisierung der Wohnungswirtschaft.

Partizipationsformate zur mitarbeiterzentrierten Produkt- und Arbeitsgestaltung

Themensteller:Michael Fellmann

 

Geeignet für: Bachelorarbeit

Sprache: Deutsch/Englisch

Datum: 01.01.2019

Die Digitalisierung der Arbeit bringt einerseits große zeitliche und räumliche Flexibilisierungsspielräume mit sich, andererseits eine steigende Komplexität und Vernetzung der Arbeitsprozesse. Eine motivierende und gesundheitsfördernde Arbeitsgestaltung kann dabei weder durch einen „zentralen Planer“, wie eine Personalabteilung, gelingen noch vom Management oder durch etablierte Formen und Strukturen der betrieblichen Mitbestimmung alleine getragen werden. Vielmehr muss die breite Einbindung der Mitarbeiter im Sinne einer „Community of Work“ stattfinden, die ihre individuelle, digitalisierte Arbeitswelt in Bezug auf die Arbeitsprozesse und -produkte verantwortungsvoll und kooperativ mitgestaltet. Ein Instrument hierzu bilden Plattformen zur Ideenfindung und -bewertung. Allerdings werden diese bisher hauptsächlich im Bereich der Produktentwicklung oder im Kontext von Ideenwettbewerben eingesetzt. Ziel der Arbeit ist es daher, zunächst bestehende Formen der betrieblichen Mitbestimmung zu systematisieren. Anschließend sollen IT-gestützte Plattformen zur Ideenfindung und -bewertung identifiziert und in einen zu schaffenden Vergleichsrahmen eingeordnet werden. Die Plattformen sollen abschließend im Hinblick auf ihre Eignung zur betrieblichen Mitbestimmung beurteilt werden.

Werkzeugunterstützung für die 4EM-Methodik zur Unternehmensmodellierung

Themensteller: Dr. B. Lantow


Geeignet für: Bachelorarbeit/Masterarbeit/Berufspraktikum

Sprache: Deutsch/Englisch

Datum: 14.03.2019

Mit 4EM gibt es eine Methode zur Unternehmensmodellierung, welche sich für den Einsatz in Praxis und Lehre eignet. Sie wurde in den letzten Jahren durch ein internationales Forscherteam zusammen mit dem Lehrstuhl für Wirtschaftsinformatik entwickelt und ist an mehreren Universitäten in Europa Bestandteil der Lehre.

Eine Unterstützung für die Modellierung bestand bisher in der Bereitstellung von Templates für verschiedene Diagrammeditoren wie Visio und DIA. Damit verbunden sind zwei Probleme: (1) Der Modellierer muss die Einhaltung der Regeln der 4EM-Modellnotation selbst überwachen (2) Es entsteht kein formales Modell, welches weiterer maschineller Analyse zugänglich wäre.

Die Universität Wien hat ein Projekt gestartet, um ein 4EM-spezifisches Modellierungswerkzeug zu entwickeln, welches diese Probleme lösen soll. Inzwischen existiert ein Prototyp dieses Werkzeugs, welcher bereits in der Lehre eingesetzt wurde und im Verbund des 4EM-Teams weiterentwickelt wird. Dieser Prototyp basiert auf der ADOxx-Plattform welche die Basis für Modellierungswerkzeuge in vielen EU-Projekten und für kommerzielle Anbieter ist. ADOxx bietet die einfache Generierung eines grafischen Editors auf Basis eines Metamodells der jeweiligen Modellierungssprache, die Möglichkeit der Anpassung des Editors mit Skripten und die Nutzung sprachenunabhängiger Module zur Modellanalyse.

  • Mögliche Aufgaben im Rahmen einer Arbeit sind unter anderem:
  • Abbildung des gesamten 4EM-Sprachmodells im Werkzeug
  • Verbesserung der Usability
  • Ergänzung von Schnittstellen und Analysefunktionalität
  • Bereitstellung von Funktionalität zur Modellierung im Team und zum Modellmanagement
  • Untersuchung des Einflusses des Werkzeugs auf den Modellierungsprozess

Die Arbeit wird in Kooperation mit den beteiligten Forschungseinrichtungen durchgeführt.

Building a Microservice-Webapplication in Python

Themensteller:Achim Reiz

Geeignet für: Bachelorarbeit

Sprache: Deutsch/Englisch

Datum: 29.02.2020

OntoMetrics, bereitgestellt von der Universität Rostock und verfügbar unter ontometrics.informatik.uni-rostock.de, ist seit 2013 zugänglich. Heute ist es eines der wenigen verbleibenden Web-Tools zur Berechnung von Ontologie-Metriken und erfährt eine wachsende Aufmerksamkeit. Das Webdesign entspricht jedoch nicht dem aktuellen Stand der Technik. Es ist nicht responsive und der zugrundeliegende Code ist kaum verständlich.
Ihre Aufgabe ist es, ein neues Frontend für diese Anwendung mit Python und dem Framework Django zu erstellen, einschließlich einer Benutzerverwaltung. Während die Berechnungskomponente (und auch die alte Webseite) auf Java EE läuft, besteht Ihre Aufgabe darin, diesen Dienst über seine REST-Schnittstelle zu integrieren.  Diese Dienste sollen mit Hilfe von Docker in einem Mikrodienst gekapselt werden.
Abschließend führen Sie eine vergleichende Leistungs- und Gebrauchstauglichkeitsbewertung des alten und des neuen Dienstes durch.

State of the Art - Tools for Ontology Development

Themensteller:Achim Reiz

Geeignet für: Bachelorarbeit

Sprache: Deutsch/Englisch

Datum: 1.10.2019

Computational Ontologies bieten ein Mittel zur automatisierten Wissensgenerierung und haben das Potenzial, ein wichtiger Eckpfeiler für die kommenden Herausforderungen im Bereich der künstlichen Intelligenz zu sein.
In den letzten Jahren gab es in diesem Forschungsfeld viele unterschiedliche Entwicklungsrichtungen, es verfügt nach wie vor über eine aktive Forschungsgemeinschaft.
Für die Entwicklung dieser Wissensdatenbanken wurden Tools wie Protegé, KAON, NeOn und viele mehr veröffentlicht. Leider sind viele dieser Tools nicht mehr verfügbar, funktional oder nutzbar, z.B. aufgrund von veralteten Abhängigkeiten oder fehlender Unterstützung für moderne Dateiformate. Mithilfe einer Literaturrecherche identifizieren Sie relevante Software, die veröffentlicht wurde. Basierend auf den technischen Spezifikationen dieser Tools wird eine Tabelle mit den offerierten Funktionen erstellt. Diese Tabelle soll einen detailierten Überblick darüber geben, welches Werkzeug welche Art von Funktionalität bietet. Im letzten Schritt prüfen Sie, welche Tools noch verfügbar und nutzbar sind, welche nicht, und für welche Tools der Quellcode für die weitere Entwicklung oder Recherche verfügbar ist.

Design Criteria for Participatory Budgeting Tools

Geeignet für: Bachelorarbeit/Masterarbeit

Sprache: Deutsch/Englisch

Datum: 23.1.2020

Participatory budgeting (PB) is a process of democratic decision-making, in which ordinary people take part in the preparation and adoption of a municipal or public budget. The EmPaci project aims to strengthen the use of PB within the Baltic Sea Region. With project partners from almost all littoral states - Russia, Finland, Poland, Lithuania, Latvia - the goal is to learn from each other and to provide best practices for the introduction of PB-Processes.
The chair of business informatics at Rostock University is responsible for the research on IT-capabilities. This includes the identification of relevant usability criteria and is the starting point for your thesis. The following research tasks are

  1. Taking relevant literature and trustworthy internet resources, you will discover best practices regarding the design of web pages.
    RQ 1: What is the state of the art in web page design?
  2. In the next step, these general recommendations are compared to characteristic features of public websites.
    RQ 2: What are the specific features/requirements of a public internet presence
  3. In the latter, a set of PB initiatives from project partners and successful municipalities are to be evaluated using your identified criteria.
    RQ 3: How do current PB-initiatives perform from a usability point of view
Building a Web-Application for the connection of structured Knowledge and Image Recognition

Themensteller:Achim Reiz

Geeignet für: Bachelorarbeit/Masterarbeit

Sprache: Deutsch/Englisch

Datum: 18.10.2019

Die manuelle Detektion von Inhalten und Gegenständen in Videos ist äußerst aufwendig - und damit kostenintensiv.  Zusammen mit dem Fraunhofer Institut für graphische Datenverarbeitung und der Future TV Production GmbH entwickeln wir einen neuartigen Ansatz für die automatische Inhaltsanalyse: Ein „Objekt“ in einem Video kann beispielsweise ein fahrendes Auto, ein Strandkorb, ein Kleidungsstück oder ein Möbelstück sein, das während einer Szene des Videos für eine gewisse Zeit im Bild ist. Welche Objekte wann in einem Video erscheinen, ist eine wichtige Information, um sowohl die Analyse von Videos zu ermöglichen als auch Werbung besser zu den Inhalten des Videos passfähig zu machen oder die richtigen Videos für das Interesse eines Nutzers aussuchen zu können.

Die Realisierung erfolgt arbeitsteilig:

Das Ziel des Fraunhofer IGD ist es, die unterschiedlichen Algorithmen und Verfahren zur Schnitt- und Objekterkennung, Klassifikation und Interpretation in ein Videoanalyse-Framework zu integrieren. Neben Methoden zur Objekterkennung ist allerdings vor allem eine geeignete Ontologie erforderlich, um die Objekte in einen sinnvollen Zusammenhang bringen zu können. Für die Erarbeitung dieses sogenannten „Weltmodells“ zeichnet sich der Lehrstuhl Wirtschaftsinformatik der Universität Rostock verantwortlich. Abgesehen von der Konzepterstellung für das Gesamtsystem, obliegt es der Future TV Produktion GmbH, alle Dienste miteinander zu verknüpfen und eine Software-Lösung für den Gebrauch im eigenen Unternehmen zu implementieren.

Das oben beschriebene Projekt stellt den Rahmen für die hier ausgeschriebene Masterarbeit dar. Für Test- und Demonstrationszwecke soll eine ergänzende Web-Applikation entwickelt werden. Diese soll einfach verständlich die Fähigkeiten des neuartigen Ansatzes aufzeigen und sowohl die Ontologie als auch die Bilderkennung einbinden. Die Aufgabe der Masterarbeit ist die Konzeption und Realisierung dieser Anwendung.

In der Konzeptionsphase werden Sie anhand der Literatur Kriterien für gutes Web-Design identifizieren und darauf aufbauend in Absprache mit Ihrem Betreuer einen fachlichen Anforderungskatalog für die Software erstellen. Anschließend erarbeiten Sie eine Softwarearchitektur basierend auf den Schnittstellenbeschreibungen der Services. Im praktischen Teil realisieren sie die Applikation.

Sie greifen mittles REST-Schnittstelle auf die Ontologie und den Image Recognition Service zu, binden die Services ein und stellen die Ergebnisse anschaulich anhand den im ersten Schritt identifizierten Design-Guidelines dar. Die Applikation soll dabei auf Python + django basieren, einen entsprechenden virtuellen Server stellt die Uni Rostock zur Verfügung. Abschließend gleichen sie den entwickelten Stand mit den Anforderungen ab, gehen auf etwaige Schwierigkeiten ein und begründen ggf. von dem Grundkonzept abweichende Designentscheidungen.

Bei erfolgreichem Abschluss kann das Projekt ggf. über eine Stelle als wissenschaftliche Hilfskraft weitergeführt werden.

Masterarbeiten

Combining Activity Tracking and Human Energy Self-Assessment for Continuous Work Reflection

Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

The modern working world offers much flexibility and freedom, but suffers from work intensification and a dramatic increase of mental illnesses and burnout syndromes among employees. Moreover, “healthy” working habits that ensure long-term productivity and well-being increasingly can no longer be prescribed by managers in a top-down fashion, since they highly depend on the individual. Therefore, there is need for work-related self-reflection on an individual basis. Current tools and devices mostly focus either on tracking computer-based activities or on monitoring physiological data such as heart rate in seperate. An integrated approach that also interprets psychophysiological states in respect to work activities is largely missing so far. Therefore, the goal of this thesis is to design and implement a prototypical application that combines automatic computer activity tracking with daily IT-supported self-assessments of “human energy”. Human energy is a compound construct that has recently gained importance in the field of psychology and is connected to the vitality and fatigue of a person. Using adequate data analysis techniques, this combination should enable to provide answers to relevant questions for work reflection, such as “Which working conditions drive my productivity?” or “Which activities have the most positive/negative influence on my energy level at work?”. For activity logging purposes, an existing infrastructure should be used (based on Windows and the Chrome Browser). It should be extended with a component for human energy self-assessment. For data storage, a time series database (InfluxDB) is available. The thesis should deliver a proof-of-concept for human energy-aware activity tracking and demonstrate its efficacy for work reflection with a synthetic and/or real data set.

Activity and Work Area Mining from Desktop Activity Logs

Themensteller:Michael Fellmann

 

Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

Time is probably the most precious resource in today’s working world that can be characterized by high workloads, constant time pressure, complexity and change. In order to be successful, it is key to allocate the right amount of time to the right tasks, e.g. depending on urgency and importance. In this context, empirical studies suggest that planning time according to result or work areas is a successful practice since it implies making important things urgent. While planning activities in this direction are important, it is equally important to have transparency how time really has been spent. Since memorizing tasks and their duration can be hard at the end of a day or week, a plethora of tools for time tracking has been developed. However, while existing tools can record e.g. the time that an application or website was used, they do not record the concrete (business or private) activity or work area we are engaged in. One solution to this is to record time for activities or work areas manually. However, this would impose an extra-effort that most probably will lead to stop activity logging in the long run. Therefore, it is highly important to automatically assign logged low-level tasks (e.g. browsing a website) to activities (e.g. reading scientific literature) and to group such activities (e.g. supervising a thesis and studying associated research literature) into work areas (e.g. research on a specific topic or as part of a project). The goal of the thesis is thus to devise a technique for automated mining and labelling of activities and work areas from logs of computer usage. For activity logging purposes, an existing infrastructure should be used (based on Windows and the Chrome Browser). It should be extended with a component for visualization of mined activities and work areas. For data storage, a time series database (InfluxDB) is available. The thesis should deliver a proof-of-concept for automated mining of activities and work areas and demonstrate its efficacy with a synthetic and/or real data set.

User Experience Management for IT-supported Participatory Budgeting Initiatives

Themensteller:Michael Fellmann

 

Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

The key idea of Participatory Budgeting (PB) is to shift the responsibility for the purposeful allocation of financial resources to the citizens. In this way, PB is intended to increase the level of participation of citizens and also to reduce disillusionment with politics and non-voting behavior. However, municipalities that run a PB initiative face several challenges: First, diverse citizens of different age, cultural background, knowledge and ambitions have to be attracted via a plethora of (sometimes) disconnected channels to participate in the PB. Second, communication across all channels has to be manageable and consistent, while taking the specifics of each channel into account. Third, citizens will use both direct and indirect information (e.g. from their peers in social networks) about the PB before voting takes place. Hence, in order to effectively engage citizens in the voting process, an understanding of their “customer journey” is required. In order to face these challenges, the goal of the thesis is to develop a holistic framework for user experience management tailored to PB initiatives. The framework should act as a directory that contains (i) relevant usability guidelines for selected media, (ii) best practices for integrating different channels, e.g. web pages with social media, and (iii) approaches for cross media management and customer journey management. The evaluation of the framework should accomplished in close cooperation with project partners from the EU-funded project EmPaci (Empowering Participatory Budgeting in the Baltic Sea Region).

IT Service Management und Customer Value: Modellierung von Value Streams für ITIL 4

Themensteller: Dr. B. Lantow


Geeignet für: Masterarbeit/Bachelorarbeit/...

Sprache: Deutsch/Englisch

Datum: 27.01.2020

In den kommenden Jahren ist ein Wechsel in den Managementparadigmen des operativen IT-Betriebs zu erwarten. Der Trend geht weg von starren und wenig flexiblen Managementkonzepten welche sich am u.a. mit ITIL v3 proagierten Service-Lebenszyklus orientieren. Im Fokus steht vielmehr die Unterstützung der notwendigen Flexibilisierung im Zuge des Digitalen Wandels und der damit verbundenen höheren Marktdynamik. Das Denken in Geschäftsmodellen und der Fokus auf den Customer Value helfen, in diesem Umfeld erfolgreich zu agieren. Mit der 2019 einführten ITL v4 hält eine Orientierung am Customer Value auch Einzug im IT Service Management.

Ziel der Arbeit ist es, Anforderungen an die Modellierung von IT Services mit Fokus auf den Customer Value und eine Methodik für die Modellierung von IT Services im Rahmen von ITIL v4 zu entwickeln.

Ein mögliches Vorgehen dazu wäre:

  • Systematische Literaturanalyse zur Modellierung von Value Streams und Customer Value.
    • Welche Methoden werden in der Literatur (mit Fokus auf IT-Services) beschrieben?
    • Welche Notationen werden beschrieben?
    • Welche Probleme  oder offenen Forschungsfragen gibt es?
  • Entwicklung einer Methodik für die Modellierung von Value Streams für IT Services und ITIL v4. Dies kann eine oder mehrere Komponenten umfassen:
    • Modellierungsprozess/Managementprozess
    • Modellierungspraktiken/Kooperationsformen
    • Notation
    • Werkzeug zur Modellierung
    • Identifikation von Service-Templates
  • Evaluation im Rahmen einer Fallstudie
    • Beispielservice der Drägerwerke
    • Experteninterviews
  • Weiterentwicklung/Ausblick

 

OntoMetrics – Evaluation of Ontologies, Taxonomies and Vocabularies

Themensteller: Dr. B. Lantow


Geeignet für: Masterarbeit/Bachelorarbeit/...

Sprache: Deutsch/Englisch

Datum: 15.01.2020

Semantic Technologies provide powerful tools for the integration, analysis, generation and codification of knowledge and information. Knowledge is being covered in ontologies, taxonomies and vocabularies and can help to make information systems interoperable, to make AI results explainable, to automatically generate new knowledge, to make knowledge, information or data retrievable, …

Depending on the intended use, the knowledge represented in ontologies etc. needs to meet different quality criteria. One way of assessing ontology quality is the calculation of ontology metrics that correlate with aspects like understandability, reusability, modularity, complexity, …

The chair of Business Information Systems hosts the popular OntoMetrics platform which allows the automatic calculation of several metrics. There are several interesting topics around the platform:

  • Vocabularies are a special form of ontology which are widely used for interoperability solutions and knowledge integration. What are important quality characteristics for vocabularies? Which metrics can be used to measure them? A great number of vocabularies are collected on the Linked Open Vocabularies site – How do metrics change over different versions of the same vocabulary? Are there some metrics that are specific to successful vocabularies?
  • How, can the knowledge about ontology metrics be covered in an ontology? This ontology can be used to collect, compare and analyze the metric values calculated by OntoMetrics.
  • How do metric values change over different versions of the same ontology? What are the reasons for that changes? An industry partner could provide data for this task.
  • New ontology metrics need to be implemented and validated.
  • Quality profiles for different usage scenarios of ontologies need to be developed. This may also include hybrid AI systems that combine ML approaches with semantic technologies.
  • The OntoMetrics implementation needs to be changed to move from manual upload and interpretation of ontologies to a service that can be integrated in ontology development environments.
  • The OntoMetrics implementation needs to be changed to support more formats for knowledge representation and their specific characteristics.
Design and Evaluation of Visual Notations

Themensteller: Dr. B. Lantow


Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

Datum: 15.01.2020

Motivation and Background 

In the emerging field of Enterprise Modelling, it is required to analyze and capture knowledge about relevant aspects of an Enterprise. Visual notations can help the respective domain experts to make their knowledge explicit and to verify what has been captured in Enterprise Models. Adapting to dynamically changing environments and to new domains requires new notations. Lately notations for Service Blueprinting and for Product-Service-Modelling have been developed at the University of Rostock. However, a standardized way to design and to evaluate new visual notations with regards to their symbols and syntax is missing.

Some guidelines in the area are provided by Moody’s “Physics of Notations” (2009) and Krogstie’s SEQUAL framework (2006). Furthermore there are approaches like the theory of cognitive fit (Koedinger and Anderson 1990). Still, there are other theories to consider and the application of Moody and SEQUAL provides a high degree of freedom. Thus, designing, comparing, and evaluating visual notations remains a scattered field and imposes high efforts when it should be done in a rigorous ways.

The main goal of this work is the design and evaluation of a process for the design of visual notations. The developed process should be based on results of a systematic literature review which is part of the work. A special focus is on the efficient testing of designed visual notations. Process evaluation will be based on an example case.

Suggested Process

  • Perform SLR.
    • What design principles, theories, and methods have been suggested for visual notation design?
    • What should be considered when creating a new visual notation according to the authors?
    • What research approaches and methods for the evaluation of visual notations are being used? A special focus should be on the concrete measurement of notation quality. 
    • Which topics in the field of design and evaluation of visual notations need further research
      according to the authors?
  • Identify problems and solutions for the design and evaluation of visual notations based on the SLR.
  • Design a process for visual notation development based on SLR results. Try to find solutions / better solutions for the found problems.
  •  Apply the process to a sample case.
  • Evaluate the process and derive directions for future research.
Integration von Ontologien und Graphdatenbanken

Themensteller:Michael Fellmann

 

Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

Datum: 08.08.2019

Ontologien repräsentieren das Wissen in einem Gegenstandsbereich, das meist von mehreren Akteuren im Hinblick auf bestimmte Anwendungen erfasst wurde. Aufgrund ihres Charakters als expliziter, formaler Spezifikation erlauben sie zudem maschinelle Schlussfolgerungen, sodass nicht alle Fakten in einem Gegenstandsbereich explizit erfasst werden müssen. Vielmehr kann fehlendes Wissen durch Schlussfolgerung automatisiert ergänzt werden. Obwohl Ontologien in vielfältigen Bereichen eingesetzt werden können, sind sie bisher überwiegend im Kontext wissensbasierter Systeme anzutreffen. In den letzten Jahren hat sich zudem mit Graphdatenbanken eine weitere Technologie entwickelt, um Wissenselemente zu speichern und komplexe Abfragen in netzartig organisierten Wissensstrukturen durchzuführen. Während die Stärke von Ontologien in der Klassifikation von Objekten anhand von deren Eigenschaften liegt, ist es die Stärke von Graphdatenbanken, Fragen über komplexe vernetzte Wissensstrukturen zu beantworten. Ziel der Masterarbeit ist es daher, Mechanismen zur Integration von Ontologien und Graphdatenbanken zu erarbeiten, um somit die Stärken beider Ansätze nutzen zu können. Die Integration soll konkret anhand der Ontologiesprache OWL und der Graphdatenbank Neo4j untersucht werden. Als Beispiel einer abzubildenden Domäne soll das Wissensmanagement für Projekte in der Automobilzulieferindustrie fungieren. Als Ergebnis sollen Muster und Vorgehensweisen zur Integration entstehen, die in zukünftigen praxisnahen Forschungsprojekten angewendet werden können.

Prozessanalyse für Personenzentrierte Dienstleistungen

Themensteller: Dr. B. Lantow


Geeignet für: Masterarbeit, bedingt auch Bachelorarbeiten

Sprache: Deutsch/Englisch

Datum: 15.03.2019

Klassische Process-Mining-Werkzeuge bieten  umfangreiche Analysemöglichkeiten für Prozesse, welche während ihrer Ausführung umfangreiche digitale Spuren hinterlassen. Voraussetzung dafür ist eine ausreichende Digitalisierung der  Prozessausführung, damit eine entsprechende Datenbasis verfügbar ist. Für gut strukturierte Prozesse, bei denen die Prozesslogik und ihre Eingangsparameter gut zu beschreiben sind, funktionieren diese klassischen Ansätze gut.

Schwierigkeiten entstehen bei wissensintensiven Prozessen, welche durch ad-hoc Prozessverläufe und die Nutzung wenig strukturierter Daten (Wissen) gekennzeichnet sind. Im Bereich Personenzentrierter Dienstleistungen stellt sich die Situation noch einmal schwieriger dar. Es gibt im Dienstleistungsprozess Abschnitte, die ein geringes Digitalisierungspotential aufweisen. Die Prozessausführung wird von weichen Faktoren, wie sozialer Interaktion und persönlichem Empfinden beeinflusst. Eine Dokumentation des aktuellen Prozessstatus erfolgt oft textbasiert und Aktivitäten werden manuell erfasst. Eine Analyse der Prozessverläufe stößt dabei auf vielfältige Probleme, z.B.:

  • Unvollständige Datenbasis
  • Wenig strukturierte Datenbasis
  • „Weiche Faktoren“ in der Prozesslogik und Bewertung
  • Hoher individueller und kultureller Einfluss
  • Ad-hoc Verläufe in der Prozessdurchführung
  • Oft Langfristige Entwicklungen  im Fokus
  • Fokus auf Interaktion und Kommunikation

Eine Arbeit in diesem Gebiet greift gezielt einige der Aspekte auf, um dort mögliche Lösungsansätze zu entwickeln oder zu evaluieren. Wir arbeiten hier mit Partnerunternehmen der Familien- und Jugendhilfe zusammen, die uns anonymisierte Datensätze zur Untersuchung bereitstellen und Raum für eine praktische Evaluation bieten.

Datenökosysteme und Geschäftsmodelle für die Mobilität der Zukunft

Themensteller:Michael Fellmann

 

Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

Datum: 22.06.2018

"Daten sind das neue Öl" - speziell im Bereich der Mobilität gibt es eine stark zunehmende Vielfalt und Vielzahl an Daten, die moderne Fahrzeuge erfassen. Damit diese Daten über den Fahrzeugzustand und dessen Nutzung wie auch das Umfeld (z.B. die Straßenbeschaffenheit, Stau- und Parkraumsituation) sinnvoll genutzt werden können, bedarf es neben geeigneten technischen Schnittstellen zur Übermittlung und Speicherung auch neuer Geschäftsmodelle für die Datenökosysteme. Unter Letzterem werden Systeme zur Speicherung und Übermittlung von Daten sowie die Akteure, die diese Systeme wirtschaftlich nutzen, verstanden. Ziel der Arbeit ist es, bestehende Plattformen für Mobilitätsdaten aus dem Individualverkehr zu analysieren und mit einer ausgewählten Geschäftsmodellierungssprache zu beschreiben (z.B. Business Model Canvas oder e3 Value). Die so entstandenen Modelle sollen anschließend analysiert werden, um so Muster erfolgreicher Datenökosysteme zu ermitteln. Diese Muster können auch durch den Vergleich mit weiteren, bereits gut etablierten Datenökosystemen in anderen Bereichen (z.B. Haushaltsgeräte, Fitnesstracker) gewonnen werden.

Werkzeugunterstützung für die 4EM-Methodik zur Unternehmensmodellierung

Themensteller: Dr. B. Lantow


Geeignet für: Bachelorarbeit/Masterarbeit/Berufspraktikum

Sprache: Deutsch/Englisch

Datum: 14.03.2019

Mit 4EM gibt es eine Methode zur Unternehmensmodellierung, welche sich für den Einsatz in Praxis und Lehre eignet. Sie wurde in den letzten Jahren durch ein internationales Forscherteam zusammen mit dem Lehrstuhl für Wirtschaftsinformatik entwickelt und ist an mehreren Universitäten in Europa Bestandteil der Lehre.

Eine Unterstützung für die Modellierung bestand bisher in der Bereitstellung von Templates für verschiedene Diagrammeditoren wie Visio und DIA. Damit verbunden sind zwei Probleme: (1) Der Modellierer muss die Einhaltung der Regeln der 4EM-Modellnotation selbst überwachen (2) Es entsteht kein formales Modell, welches weiterer maschineller Analyse zugänglich wäre.

Die Universität Wien hat ein Projekt gestartet, um ein 4EM-spezifisches Modellierungswerkzeug zu entwickeln, welches diese Probleme lösen soll. Inzwischen existiert ein Prototyp dieses Werkzeugs, welcher bereits in der Lehre eingesetzt wurde und im Verbund des 4EM-Teams weiterentwickelt wird. Dieser Prototyp basiert auf der ADOxx-Plattform welche die Basis für Modellierungswerkzeuge in vielen EU-Projekten und für kommerzielle Anbieter ist. ADOxx bietet die einfache Generierung eines grafischen Editors auf Basis eines Metamodells der jeweiligen Modellierungssprache, die Möglichkeit der Anpassung des Editors mit Skripten und die Nutzung sprachenunabhängiger Module zur Modellanalyse.

  • Mögliche Aufgaben im Rahmen einer Arbeit sind unter anderem:
  • Abbildung des gesamten 4EM-Sprachmodells im Werkzeug
  • Verbesserung der Usability
  • Ergänzung von Schnittstellen und Analysefunktionalität
  • Bereitstellung von Funktionalität zur Modellierung im Team und zum Modellmanagement
  • Untersuchung des Einflusses des Werkzeugs auf den Modellierungsprozess

Die Arbeit wird in Kooperation mit den beteiligten Forschungseinrichtungen durchgeführt.

Entwicklung von Ontologie und Ontologiemuster am Beispiel des Anwendungsgebiets Freizeit/Tourismus

Themensteller:Kurt Sandkuhl

 

Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

Datum: 22.02.2018

Ontologien bieten die Möglichkeit, wichtige Konzepte in einem Anwendungsgebiet und deren semantische Beziehungen in einer formalen Repräsentation zu erfassen. So kann beispielsweise das gemeinsame „Weltmodell“ aller Akteure in einem Anwendungsgebiet oder der in einer Organisation verwendete Begriffsraum explizit gemacht werden. Ontologiemuster sind wiederverwendbare Ontologiebausteine, die gute Modellierungslösungen repräsentieren und für beispielsweise verschiedene Weltmodelle verwendet werden können.

Das Ziel der Masterarbeit ist es, einerseits eine Ontologie für ein ausgewähltes Anwendungsgebiet zu entwickeln und andererseits dabei Muster zu identifizieren, die möglicherweise für andere Gebiete interessant sind. Die Ontologieentwicklung soll als Ausgangspunkt bereits verfügbare Datenmodelle, Topic-Maps, Klassifikationsstandards oder andere Konzeptualisierungen haben. Die Werkzeugunterstützung bei der Entwicklung und Pflege von Ontologien und –mustern ist zu berücksichtigen.

Eine Beschäftigung als wissenschaftliche Hilfskraft im Projekt SEMA (semantische Assistenz bei der Objekterkennung in Bewegtbildern) ist möglich. Ebenso ist die Zusammenarbeit mit FutureTV als Projektpartner denkbar, aber nicht verpflichtend.

 

Good Software Design and the Influence on Software Quality Metrics

Themensteller:Achim Reiz

Geeignet für: Masterarbeit

Sprache: Deutsch/Englisch

Datum: 28.02.2020

Software projects today are often performed distributed. Reasons are increasing complexity and with it the specialization of team-members, as well as the project focused work culture of today's software development departments. This requires more than ever a good code-style that is readable, efficient and well structured. There are several Frameworks with principles, best practices and methodologies available. Examples are "Clean Code" as a methodology, Agile programming as practices and "Don’t repeat yourself" as a principle.
While the frameworks ensure that the developer write good code, software metrics can quantify what a "good code" actually means.
Your task is the assessment and improvement of existing code of the ontology-measurement platform "OntoMetrics". The platform was mainly programmed by different student projects over a long period of time and lacks at the one hand quality of the code itself, at the other hand doesn't follow frameworks
 At first, your task is to evaluate and choose existing software metrics and methodologies by performing a literature analysis.
In the next step, your task is to assess the code by the chosen metrics and document your results. Now, with your chosen programming methodology, you start to improve the code design. After every major revision, the code assessment is performed repeatedly. The thesis is completed with an assessment which principles had a certain effect on the calculated metrics.

Zum Einfluss des Werkzeugs auf die Gruppenarbeit bei der Unternehmensmodellierung – ein empirischer Vergleich zwischen Whiteboard und Multi-Touch-Tisch

Geeignet für: Masterarbeit

Sprache: Deutsch

Datum: 14.07.2017

 

Vorgeschlagen von: Anne Gutschmidt

Unternehmensmodellierung wird bevorzugt in Gruppen durchgeführt, um eine Vielfalt von Stakeholdern mit deren persönlicher und fachlicher Sicht einzubeziehen. Häufig werden zum Zeichnen der Modelle Plastikfolie oder auch Whiteboard verwendet. Zunehmend werden jedoch auch andere Medien wie Multi-Touch-Tische für diesen Zweck in Erwägung gezogen, da sich Modelle hiermit leichter speichern und ändern lassen. Multi-Touch-Tische sind jedoch teuer in der Anschaffung. Daher ist es wichtig herauszufinden, ob und welchen Mehrwert Multi-Touch-Tische gegenüber traditionellen Medien schaffen. Es fehlen insbesondere Kenntnisse darüber, wie die Zusammenarbeit in der Gruppe am Multi-Touch-Tisch abläuft und mit welchen Mitteln, z.B. im Rahmen der Software- und Benutzeroberflächengestaltung, diese Zusammenarbeit unterstützt werden kann. In einer als Experiment angelegten Studie, die im Juni 2017 stattfand, wurden bereits sechs Gruppen bei der Erarbeitung eines Ziel- und Problemmodells mit der 4-EM-Notation gefilmt und danach zu ihrer Gruppenarbeit befragt. Jede Gruppe bestand aus drei Mitgliedern. Drei der Gruppen arbeiteten an einem Whiteboard inklusive Moderationskarten, Magneten und Markern, die drei anderen Gruppen arbeiteten an einem Multi-Touch-Tisch, der mit einem speziellen Editor für Ziel-und Problemmodellierung ausgestattet war. In der Masterarbeit soll anhand der bereits gesammelten Daten die Zusammenarbeit innerhalb der Gruppen am Multi-Touch-Tisch mit der am Whiteboard verglichen werden. Besonderer Fokus soll dabei auf der Partizipation und Koordination der Gruppenmitglieder liegen. Für die Auswertung der Videodaten und der Interviews sind vor allem inhaltsanalytische Methoden heranzuziehen. So müssen verbale sowie nonverbale Beiträge der Gruppenmitglieder und ihre Nutzung des Mediums während der Modellierung analysiert werden. Neben Unterschieden und Gemeinsamkeiten der Zusammenarbeit an Whiteboard und Multi-Touch-Tisch soll Wissen zur Verbesserung des Modellierungsprozesses sowie der Softwareunterstützung herausgearbeitet werden.