Refine
Year of publication
Document Type
- Working Paper (78)
- Conference Proceeding (25)
- Contribution to a Periodical (14)
- Bachelor Thesis (4)
- Report (3)
- Master's Thesis (2)
- Article (1)
- Book (1)
- Part of Periodical (1)
Keywords
- Deutschland (16)
- Werkstoffforschung (6)
- Europäische Union (5)
- Umformwerkzeug (5)
- Fachhochschule (4)
- Globalisierung (4)
- Management (4)
- Arbeitsmarkt (3)
- Controlling (3)
- Corporate Social Responsibility (3)
Per- und Polyfluoralkylsubstanzen (PFAS) sind organische Verbindungen aus Kohlenstoffketten, bei denen die Wasserstoffatome vollständig oder teilweise durch Fluoratome ersetzt sind. Die starken chemischen Bindungen zwischen Kohlenstoff- und Fluor-Atomen in PFAS führen zu sehr stabilen Substanzen mit besonders nützlichen Eigenschaften wie chemischer Inertheit, Wasserabweisung, Schmierwirkung, Antihaftwirkung, Feuerbeständigkeit und Hitzebeständigkeit. Sie sind jedoch nur schwer biologisch abbaubar sind und lassen sich daher in der Umwelt nur schwer zersetzen (Ye et al. 2015).
PFAS werden in vielen Anwendungsfeldern in der Industrie und in Endprodukten eingesetzt, wie z. B. in der industriellen Produktion, in Dichtungen, Schmierstoffen, Verpackungen, Metallbeschichtung, in Medizintechnik-Produkten, elektronischen Geräten, Solarzellen, Brennstoffzellen, Batterien, im Baubereich und auch in Consumer-Produkten in Textilien, Kochgeschirr und Kosmetik (Glüge et al. 2020, ECHA 2023). Aufgrund ihrer Wirkungen auf Umwelt und Menschen und ihrer Persistenz in der Umwelt werden PFAS aktuell stark diskutiert und auf EU-Ebene wurde eine Initiative hin zu möglichen Stoffverboten angestoßen (ECHA 2023). Unternehmen aus Baden-Württemberg und ganz Europa suchen inzwischen Substitute für die Anwendung von PFAS, um bei einem möglichen Stoffverbot Alternativen zur Verfügung zu haben.
In dieser Metastudie wird daher eine Übersicht über mögliche Stoffe und Stoffgruppen gegeben, die das Potenzial besitzen, die technischen Funktionen von PFAS zu ersetzen. Dies wird an ausgewählten Beispielen vertieft untersucht.
Unter Nutzung von Softwaretools auf Basis von Künstlicher Intelligenz (KI) wurden mögliche Substitute identifiziert und strukturiert ausgewertet. Nach der Analyse von 35.246 wissenschaftlichen Dokumenten weltweit wurden 420 Materialien und deren Zusammenfassung in 32 Klassen für fünf beteiligte namhaften Unternehmen aus Baden-Württemberg identifiziert. Nach genauerer Analyse der Anforderungen der beteiligten Unternehmen konnte nur eine sehr begrenzte Anzahl potenzieller Ersatzstoffe ermittelt werden, die PFAS nach heutigem Stand partiell substituieren könnten.
Per- and polyfluoroalkyl substances (PFAS) are organic compounds consisting of carbon chains in which the hydrogen atoms are completely or partially replaced by fluorine atoms. The strong chemical bonds between carbon and fluorine atoms in PFAS lead to very stable substances with particularly useful properties such as chemical inertness, water repellency, lubricity, non-stick properties, fire resistance and heat resistance. However, they are not readily biodegradable and are therefore difficult to break down in the environment (Ye et al. 2015).
PFAS are used in many fields of application in industry and in end products, such as in industrial production, in seals, lubricants, packaging, metal coatings, in medical technology products, electronic devices, solar cells, fuel cells, batteries, in the construction sector and also in consumer products in textiles, cookware and cosmetics (Glüge et al. 2020, ECHA 2023). Due to their effects on the environment and humans and their persistence in the environment, PFAS are currently the subject of much debate and an initiative has been launched at EU level to potentially ban substances (ECHA 2023). Companies from Baden-Württemberg and all over Europe are now looking for substitutes for the use of PFAS in order to have alternatives available in the event of a possible substance ban.
This meta-study therefore provides an overview of possible substances and substance groups that have the potential to replace the technical functions of PFAS. This is analysed in depth using selected examples.
Using software tools based on artificial intelligence (AI), possible substitutes were identified and analysed in a structured manner. After analysing 35,246 scientific documents worldwide, 420 materials and their summary in 32 classes were identified for five participating well-known companies from Baden-Württemberg. After analysing the requirements of the participating companies in more detail, only a very limited number of potential substitutes could be identified that could partially replace PFAS as things stand today.
Open-Source Software (OSS) has played a central role in shaping the modern digital environment. Over the last five decades, many business models have evolved around value creation with OSS. However, there remains a noticeable hesitation among businesses, especially in German Small and Medium Enterprises (SMEs). This thesis offers a comprehensive overview of essential aspects of business strategy, licensing, and community management related to OSS. Utilizing a taxonomy-based approach, we examine three case studies relevant to German SMEs, aiming to derive actionable insights for businesses considering active involvement in OSS. By integrating public data with insights from participating company decision-makers, this research raises evidence in support of certain business strategies: It highlights the importance of a tailored user segmentation strategy and careful calibration of free and commercial offerings. It suggests the importance of a symbiotic community relationship and a balanced approach towards community governance. The analysis also presents evidence indicating the resilience of the Direct-sale revenue mechanism, and conversely, the possible vulnerabilities of Infrastructure-based models to intermediation. The thesis concludes by discussing current OSS trends and suggesting strategies considering trends such as licensing challenges and emerging software supply chain threats.
In den letzten Jahren hat sich die Art und Weise, wie Datenzentren betrieben werden, stark verändert. Eine der wichtigsten Entwicklungen in diesem Bereich ist die zunehmende Verwendung von Virtualisierungstechnologien, die es ermöglichen, den Betrieb des Gesamtsystems und der angebotenen Dienste zu optimieren und zu vereinfachen. Ein weiteres wichtiges Thema im Zusammenhang mit Datenzentren ist die Automatisierung von Prozessen, insbesondere im Bereich des Deployments und des Monitorings. Ein interessantes Anwendungsgebiet für diese Technologien ist der Einsatz von Raspberry Pi in Datenzentren. Der Raspberry Pi ist ein kostengünstiger und leistungsfähiger Computer, der in vielen Anwendungen eingesetzt werden kann, einschließlich des Aufbaus von Datenzentren. Die Einsatzmöglichkeiten von Raspberry Pi erstrecken sich von der Verwendung als einfache Web-Server bis hin zu komplexen Anwendungen wie dem Aufbau von Cloud-Computing-Umgebungen. In diesem Zusammenhang ist es wichtig, Werkzeuge zur Verfügung zu haben, die das Monitoring und Deployment von neuen Diensten und Anwendungen in einem Raspberry Pi Datenzentrum automatisieren können. Automatisierte Deployment-Prozesse ermöglichen es, neue Dienste und Anwendungen schnell und einfach in einem Datenzentrum bereitzustellen, ohne dass manuelle Schritte erforderlich sind. Auf diese Weise kann die Zeit, die für die Bereitstellung von neuen Diensten und Anwendungen benötigt wird, erheblich reduziert werden. Das Ziel dieser Arbeit ist es daher, ein automatisiertes Deployment-System für Raspberry Pi Datenzentren zu entwickeln, das es ermöglicht, neue Dienste und Anwendungen schnell und einfach bereitzustellen. Dabei sollen sowohl die Automatisierung der Deployment-Prozesse als auch die Möglichkeiten des Monitorings berücksichtigt werden. Durch die Verwendung von Raspberry Pi und automatisierten Deployment-Prozessen soll es möglich sein, ein kosteneffizientes und leistungsfähiges Datenzentrum aufzubauen.
Um Energiesysteme hinsichtlich minimaler Umweltwirkungen zu planen und zu optimieren, werden unter anderem technologiespezifische Daten von Anlagen zur Erzeugung elektrischer Energie benötigt. Die vorliegende Arbeit hat das Ziel, eine solche Datengrundlage für Kleinwindenergieanlagen zu schaffen, um diese in ein ökobilanzbasiertes Energiesystemmodell zu integrieren. Teil dieser Datengrundlage sind Sachbilanzdaten einer Kleinwindenergieanlage, die mithilfe einer ökobilanziellen Untersuchung erzeugt werden. Mit einem im Rahmen dieser Arbeit entwickelten Skalierungsmodell lassen sich diese Sachbilanzdaten auf Kleinwindenergieanlagen unterschiedlicher Größe skalieren. Um auch Kosten als Kriterium im Energiesystemmodell zu berücksichtigen, werden die Investitions- und Betriebskosten der Anlage abgeschätzt.
Mithilfe einer Ertragsprognose für einen gewählten Standort in Süddeutschland und der Wirkungsabschätzung werden über den Lebenszyklus einer Kleinwindenergieanlage entstehende Umweltwirkungen je erzeugter Energieeinheit analysiert und ausgewertet. Insbesondere in Bezug auf das Treibhauspotential und die Verknappung fossiler Energieträger zeigt die Energieerzeugung durch die Kleinwindenergieanlage Vorteile verglichen mit dem deutschen Strommix. Das Verknappungspotential von Mineralien und Metallen ist dagegen bei der Kleinwindenergieanlage um ein Vielfaches größer. Die Berechnung von Amortisationszeiten und Stromgestehungskosten erfolgt auf Basis der Investitions- und Betriebskosten und ermöglicht eine Einordnung der Wirtschaftlichkeit. Hierbei zeigt sich, dass die Stromgestehungskosten der betrachteten Kleinwindenergieanlage deutlich höher liegen als bei anderen etablierten erneuerbaren Energieerzeugern.
Mit der Magnetpartikelspektroskopie (MPS) steht ein empfindliches Messverfahren für den spezifischen Nachweis von magnetischen Nanopartikeln (MNP) zur Verfügung. Das Verfahren beruht auf der Detektion der nicht-linearen magnetischen dynamischen Suszeptibilität der MNP und eignet sich neben dem direkten Nachweis der MNP auch zur Untersuchung der biologischen Umgebung der MNP in biomedizinischen Anwendungen.
Im Rahmen dieser Arbeit wird das MPS für den Nachweis von Biomolekülen über die Quervernetzung mit MNP untersucht. Als Modellsystem für eine Quervernetzung werden MNP unterschiedlicher Größe eingesetzt, deren organische Hülle mit Streptavidin funktionalisiert ist. Streptavidin ist ein Protein, das spezifisch an Biotin bindet. Des Weiteren wird biotinyliertes BSA (B-BSA) verwendet, das aufgrund mehrerer Biotin-Bindungsstellen die Quervernetzung der MNP ermöglicht. Die spezifische Bindung der Streptavidinmoleküle auf der Oberfläche der MNP an Biotin auf der Oberfläche des BSA führt zu einer Quervernetzung der MNP. Durch die Zunahme des hydrodynamischen Durchmessers der MNP-Agglomerate resultiert ein verändertes dynamisches Magnetisierungsverhalten, das mit Hilfe der MPS gemessen werden kann. Damit hat der Bindungszustand bzw. der Grad der Quervernetzung der MNP einen Einfluss auf das MPS-Signal.
Zur Etablierung der MPS zum Nachweis des Biomoleküls BSA werden Versuchsreihen mit unterschiedlichen Konzentrationsverhältnissen zwischen MNP und B-BSA durchgeführt. Hierbei wird die Abhängigkeit, der durch die Quervernetzung induzierten MPS-Signaländerung, von der Anregungsfeldstärke untersucht. Des Weiteren wird der Einfluss der Inkubationszeit der Proben und der Einfluss eines äußeren Feldes während der Inkubation auf den Grad der Quervernetzung untersucht. Aus den Analysen wird die Nachweisgrenze der Methodik, die Menge an gebundenem BSA und die Sensitivität des Nachweises ermittelt. Die Spezifität der Methodik wird anhand eines Kontrollexperiments mit freiem Biotin bestimmt. Zum Vergleich des Nachweises mit bereits etablierten MNP-basierten Verfahren wird die Kernspin-Relaxometrie (NMR-Relaxometrie) herangezogen.
Es wird das Coaching-Konzept im Detail beschrieben. Voraussetzung für seine Anwendung ist eine Innovationsidee, die aus den Nachhaltigkeitsperspektiven betrachtet werden soll. Das Coaching-Konzept basiert auf einem iterativen Prozess aus konzeptioneller Arbeit sowie Anwendungstests zur Validierung und Optimierung. Es wurde im Rahmen der Entrepreneurship Education an der Hochschule Pforzheim entwickelt und seit 2018 im Rahmen der Veranstaltung „Startup Summer Camp – Sustainable Innovation“ mit dem Schwerpunkt „Nachhaltige Innovation“ angeboten.
Es werden Impulse zu den Zielen der nachhaltigen Entwicklung gegeben. Ein Schwerpunkt ist die Integration von Ökobilanzierung, Bewertung von sozialen Aspekten, Einschätzung des Beitrags zu den SDGs, Life Cycle Thinking und Ökodesign. Dies gibt den Teilnehmenden die Möglichkeit, sich auszuprobieren und eine eigene „nachhaltige Geschäftsidee“ zu entwickeln. Hierzu wird das Bewertungsinstrument „Green Check Your Idea“ (GCYI) (Lang-Koetz et al. 2020) vorgestellt und in Teilen auf die Ideen der Teilnehmenden angewendet. Mit Hilfe der Anwendung des Tools während des Coachings kann ein Verständnis für die Komplexität der Entstehung von Umweltauswirkungen unter Berücksichtigung des gesamten Lebenszyklus vermittelt werden. Das Coaching wird durch Impulsvorträge und kurze Übungen zu verschiedenen Nachhaltigkeitsaspekten begleitet.
Cyber-physical production systems (CPPS) are formed by a flexible and heterogeneous system architecture. Therefore, a comprehensive automation software design requires methods for creating and managing automation software variants. In scope of CPPS, existing approaches do not consider the design of variants combined with software structuring principles. In addition, information from Asset Administration Shells (AAS) is not used sufficiently. Therefore, we propose a novel approach for a comprehensive design of automation software variants based on a domain-specific language (DSL). Thereby, software structuring is provided by the use of several layers with different levels of abstraction. Automation software variants are defined on the mentioned abstraction layers using specific language elements. In order to determine appropriate variants of control programs for particular automation systems, information from AAS is used. Finally, the advantages of the proposed approach are demonstrated in the field of process engineering.
Die Arbeit beschäftigt sich mit der Evaluierung von Einsatzmöglichkeiten für das Process Mining im Finanz- und Controllingbereich. Durch den Einsatz einer Befragung und durch exemplarische Use Cases gelingt es dem Autor, relevante Erkenntnisse in Bezug auf den Nutzen des Process Minings zu gewinnen.
Tracer Based Sorting ist ein innovativer Ansatz für Erkennungs- und Sortierschritte in Abfallwirtschaft, der die Sortierung von Materialien oder Produkten unabhängig von deren physikalischen Eigenschaften ermöglicht. Die Technologie nutzt dabei anorganische Markersub-stanzen in ppm-Konzentrationen. Diese Substanzen werden im Recy-clingprozess detektiert und ermöglichen so die Rückgewinnung hochwertiger Sortierfraktionen und positive Klimawirkungen. Fünf deutsche Unternehmen sowie zwei Hochschulen und ein assoziierter Netzwerkpartner untersuchten im Rahmen eines durch das BMBF geförderten Forschungsvorhabens die Umsetzbarkeit dieses Ansatzes für Leichtverpackungen.
Diese Forschungsarbeit verfolgt das Ziel, einen systematischen Ansatz zur Nachhaltigkeitsberatung von Gründer:innen an Hochschulen zu entwickeln. Startups leisten einen wichtigen Beitrag zum Erreichen der Ziele für eine Nachhaltigen Entwicklung. Bislang gibt es jedoch keine systematische Integration von Nachhaltigkeit in die Gründungsunterstützung von Hochschulen. Dadurch kann das Nachhaltigkeitspotential der Gründungsvorhaben ungenutzt bleiben. Für die Entwicklung eines systematischen Ansatzes wurde die folgende Forschungsfrage gestellt: Was sind die Anforderungen an eine Nachhaltigkeitsberatung an Hochschulen aus der Perspektive der Gründer:innen? Diese wurde mit Hilfe einer Befragung von Gründer:innen, die in Baden-Württemberg von Hochschul-Gründungsberatungen betreut werden, bearbeitet. Die Ergebnisse zeigen, dass die Gründer:innen eine individuelle Beratung fordern, die diverse Angebote ermöglicht und transparent die möglichen Schritte aufzeigt. Die Gründer:innen möchten ein Verständnis für Nachhaltigkeit erlangen und den Mehrwert der Integration von Nachhaltigkeit kennenlernen. Die Beratung sollte die Vermittlung von Expert:innen ermöglichen und Best Practice Beispiele zeigen. Auf Grundlage der Ergebnisse ist es empfehlenswert, mit Hilfe vielfältiger Angebote, eine individuelle und zielgruppenspezifische Nachhaltigkeitsberatung für Gründer:innen zu ermöglichen. Potentielle Lösungsansätze sind bspw. die Organisation von Crowd-Funding, die Etablierung eines Peer-Learning-Ansatzes und die Ökobilanzierung in Studierendenprojekten. Damit die Gründungsberatung langfristig den Anforderungen der Gründer:innen gerecht werden kann, könnte die Integration von Nachhaltigkeit in die strategische Zielsetzung aller Bereiche der Gründungsberatung sinnvoll sein. Mit Hilfe des entwickelten systematischen Ansatzes zur Integration von Nachhaltigkeit in die Gründungsunterstützung kann das Nachhaltigkeitspotential der Gründungsvorhaben gesteigert werden.
FPGA hardware design for plenoptic 3D image processing algorithm targeting a mobile application
(2021)
Over the past years, widespread use of applications based on 3D image processing has increased rapidly. It is being employed in various fields, such as research, medicine and automation. Plenoptic camera system is used to capture light-field that can be exploited to estimate the 3D depth of the scene. The respective algorithms consist of a large number of computation-intensive instructions. It eventually leads to the problem of large execution time of the algorithm. Moreover, they require substantial amount of memory cells for the storage of intermediate and final results. Desktop GPU based solutions are power intensive and therefore cannot be used in the mobile applications with low energy requirements. The idea presented in this paper is to use the FPGA based hardware design to improve the performance of a 3D depth estimation algorithm by utilizing the advantage of concurrent execution. The algorithm is implemented, evaluated and the results show that FPGA design reduces the respective execution time significantly.
Logistics processes are strongly affected by automation but due to the prevailing conditions the demand for human labor will still remain in intralogistics, in particular in manual order picking. While the results of previous research work on learning processes in manual order picking are mainly available in the form of learning curves, the present research project focuses on the qualitative dimension of these learning processes. Based on current teaching-learning research, suitable learning formats were devel-oped and consolidated as learning packages for practical use. We have considered a variety of learning methods, from enhanced instruction methods common in many companies to the use of modern learn-ing media such as tablets or Virtual Reality. These can be used in companies today and in the future.
An extensive study with test persons in a laboratory environment called LernLager (Learning Ware-house) focused on and optimized those learning packages, looking particularly at four different picking technologies: Pick-by-Light, Pick-by-Scan, Pick-by-Voice and Pick-by-Vision. In order to reflect on the results of the test persons’ experiments and to prepare transferring the results into practice, hands-on experts subsequently discussed the practicability and transferability of the learning packages in work-shops.
The results of the research project show that if methodologically and didactically elaborated learning formats are adapted to practical situations and target groups, they can significantly promote the learning process. At the same time, new employees are motivated to play an active role in the learning process and to acquire new knowledge and skills in the long run.
Künstliche Intelligenz (KI) ist ein Trendthema der heutigen Zeit und zeigt auch im Marketing großes Einsatzpotenzial. Die Digitalisierung trägt zu einem zunehmend komplexen Markenumfeld bei, in welchem der Konsument stärkste Triebkraft des Wettbewerbs ist. Der Ansatz des werteorientierten Marketings ermöglicht durch ehrliche Kundenorientierung den nachhaltigen Erfolg einer Marke. Sein Ziel ist die Steigerung von Wert für den Konsumenten bzw. den im Rahmen der Service-Dominant-Logic vorgestellten „Value in Context“ entlang der gesamten Consumer-Decision-Journey.
Das Ziel dieser Arbeit ist, herauszufinden, ob KI-gestützte Marketingaktivitäten das Potenzial haben, „Value in Context“ zu schaffen bzw. zu steigern. Anhand einer umfassenden Literaturrecherche wurde neben begrifflichen und konzeptionellen Grundlagen ein Wertekonstrukt erarbeitet, das als Bewertungs-grundlage beispielhafter Marketingmaßnahmen dient.
KI zeigt sich als wertvolles Instrument zur Ausgestaltung eines werteorientierten Marketings. Eine Steigerung der betrachteten Werteausprägungen Effizienz, Qualität, hedonistischer Wert und Selbstwert konnte auf Seiten des Konsumenten ausgemacht werden, wenn dieser mit einer KI-gestützten Marketingaktivität in Kontakt kommt. Das Potenzial, riesige Datenmengen (Big Data) zu erfassen und zu ver-arbeiten unterstützt Marketer in der Planung von Wertangeboten sowie der Implementierung von individualisierten und kontextorientierten Marketingmaßnahmen, um Wertpotenziale in tatsächlichen Wert zu überführen.
Gestützt durch Expertengespräche wurden Zukunftsperspektiven und Herausforderungen des Einsatzes von KI im werteorientierten Marketing betrachtet. Neben weitreichenden zukünftigen Möglichkeiten muss ein Unternehmen zudem interne Herausforderungen meistern, rechtliche Regulierungen einhalten und ethische Aspekte berücksichtigen, um ein werteorientiertes Marketing zu verwirklichen.
Dieser Beitrag geht der Frage nach, welche Rolle normative Ethiken in den Wirtschaftswissenschaften spielen. Zunächst wird dazu der allgemeine Zusammenhang zwischen Erfahrungswissenschaften und normativen Ethiken diskutiert. Dann wird gezeigt, in welcher Form die sogenannte Wohlfahrtsökonomik versucht, die Beschreibung von Marktprozessen einer Beurteilung durch unterschiedliche normative Ethiken zugänglich zu machen.
Spätestens seit YouTuber Logan Paul Anfang des Jahres (2018) in einem Video-Blog das Thema Suizid als Clickbait für mehr Klicks nutzte, ist das Thema Clickbait in aller Munde. Zwar nahm der YouTuber, dem auf dem gleichnamigen Netzwerk 18 Millionen Menschen folgen, das Video mit dem Titel „We found a dead body in the Japanese Suicide forest…“ frühzeitig von der Plattform, wurde es dennoch sechs Millionen Mal geklickt und landete auf Platz zehn der YouTube Trending-Liste. Bei der Aufmachung seines Videos bediente sich Paul einer reißerischen Überschrift und einem bearbeiteten Foto, das ihn und die erhängte Leiche eines Suizidopfers zeigte. Für viele, klare Methodiken des Clickbaitings. Als irreführend oder manipulativ geltend, genießen „Klickköder“1, wie sie im Deutschen genannt werden, bereits seit einiger Zeit einen schlechten Ruf. Überschriften wie „Als Frau sieht, was der Nachbarshund frisst, weint sie“2 oder „Mutter versucht ihre Kinder aus einer Polizeikontrolle zu befreien – und blamiert sich“3 hat jeder, der sich längere Zeit im Internet bewegt, bereits gesehen. Wurden bislang diese Praktiken den sozialen Netzwerken und unseriösen Medien zugeschrieben, sind Clickbaits mittlerweile auch auf den Online-Nachrichtenportalen und Social-Media-Kanälen bekannter Medien und damit in der Mitte unserer Gesellschaft angekommen.
So betitelt z. B. der YouTube-Kanal des ZDF ein Video mit „Sensation! 300 Jahre alte Dose sprengt alle Erwartungen“4 oder der Stern einen seiner Artikel mit „Schnappschuss aus Café enthält ein er-staunliches Detail.“5 Jeder, der bereits auf einen solchen Titel geklickt hat, kennt das enttäuschende Gefühl, dass aufkommt, wenn der Inhalt die großen Erwartungen an den Artikel nicht erfüllt. Warum also klicken wir auf sie? Auch ist es für den Leser nicht immer leicht zu beurteilen, was Clickbait ist und was nicht.
Dürfen Überschriften wie „Darum darf Trump nicht zu McCains Beerdigung“6 von Spiegel Online zwei-felsfrei mit den oben genannten Clickbait-Titeln in einen Topf geworfen werden? Zusätzlich drängt sich, den zweifelhaften Ruf von Clickbaits bedenkend, die Frage auf, weshalb bekannte und renom-mierte Medien diese verwenden und ihren guten Ruf scheinbar aufs Spiel setzten. Diesen Fragen wird sich innerhalb des theoretischen Teils der Arbeit gewidmet. Dabei werden die Merkmale von Click-baits, ihre psychologischen Grundlagen und der Wandel der Medienmärkte eingehend betrachtet.
Wie bereits angesprochen, greifen immer mehr Medienunternehmen heute bei der Präsentation ihrer digitalen Inhalte auf Clickbait-Methodiken zurück. Für sie stellt sich dabei vor allem die Frage, welche Konsequenzen sich daraus ergeben. Wie verfährt ihre Leserschaft mit diesen Clickbaits und welchen Einfluss hat die Kenntnis von Clickbaits auf den Umgang mit diesen: Entscheiden sich Leser, die Clickbaits kennen, anders als diejenigen, denen diese unbekannt sind? Um beide Fragen zu beant-worten, wurden folgende Fragestellungen erarbeitet:
1. Funktionieren Clickbaits? Besteht ein Zusammenhang zur Kenntnis von Clickbaits?
2. Werden Clickbait als glaubwürdig empfunden? Hat die Kenntnis von Clickbaits Einfluss auf diese Entscheidung?
3. Werden Clickbaits erkannt? Inwieweit spielt Erfahrung dabei eine Rolle?
4. Werden Clickbaits von bestimmten Medienunternehmen erwartet?
5. Was passiert, wenn ein Clickbait erkannt wird?
Für Medienunternehmen, die darüber nachdenken, sich künftig des Clickbaitings zu bedienen oder dieses bereits anwenden, sind Erkenntnisse dieser Fragen von großem Interesse, zeigen sie doch mögliche Konsequenzen aus deren Verwendung auf. Zur Bearbeitung dieser Fragen wird aufbauend auf den in der Theorie dargelegten Kenntnissen, eine empirische Studie erarbeitet. Dafür werden in dem methodischen Teil der Arbeit Hypothesen gebildet, welche in der empirischen Studie beantwortet werden.
Für Unternehmen ist es in der heutigen Zeit essenziell, durch Innovationen einen Wettbewerbsvorteil zu erlangen. Besonders die Selektion der erfolgsbringenden Ideen stellt eine Herausforderung im Innovationsprozess dar. Allzu oft scheitern Innovationen nach der Einführung am Markt oder verworfene Ideen werden von der Konkurrenz entwickelt und stellen sich als Erfolg heraus. Es existiert bisher keine einheitliche Theorie, nach welchen Kriterien, abhängig von der Phase im Innovationsprozess, zu bewerten ist, um Fehler zu vermeiden. Das Ziel dieser Arbeit besteht daher darin, eine Hilfestellung für die Zusammenstellung von Bewertungskriterien zur optimalen Auswahl von Ideen während des Innovati-onsprozesses zu entwickeln. Die Forschungsfrage wurde auf dieses Ziel ausgelegt und hinterfragt zu-dem, welche Anzahl an Kriterien, welche Gewichtungen und welche Skalierungen sich für die Bewer-tung von Innovationsideen empfehlen lassen. Die Arbeit bezieht sich dabei ausschließlich auf Produk-tinnovationen. Da die Entstehung und Durchsetzung von Innovationen eng mit einer im Unternehmen vorherrschenden Innovations-, Fehler- und Risikokultur verbunden sind, werden diese im Verlauf der Arbeit zusätzlich untersucht. Wissenschaftliche Quellen für Bewertungskriterien und die Ergebnisse aus der qualitativen Inhaltsanalyse von sechs leitfadenorientierten Experteninterviews sowie einer Gruppen-diskussion sind zur Beantwortung der Forschungsfrage analysiert worden. Die sich daraus ergebenden Bewertungskriterien sind zu einem Kriterienset zusammengestellt worden. Dieses stellt dar, in welcher Phase des Innovationsprozesses das jeweilige Kriterium in die Bewertung der Innovationsideen einbe-zogen werden kann. Die Anzahl der zu verwendenden Kriterien ist dabei limitiert und nimmt im Laufe des Innovationsprozesses auf bis zu zehn Kriterien zu. Unterschieden wird die zeitliche Verwendung der Kriterien in Abhängigkeit vom Neuheitsgrad der Idee. Zusätzlich bietet das Bewertungskriterienset eine Einteilung der Kriterien in Obergruppen. Somit wird direkt erkannt, ob aus einer Obergruppe viele Kriterien ausgewählt werden und einer Überbetonung der Obergruppe kann vorgebeugt werden. Au-ßerdem gibt das Kriterienset Hinweise zur Interpretation der Kriterien. Abhängig davon, was unter einem Kriterienbegriff verstanden wird, kann eine Doppelbewertung oder gegenseitige Aufhebung der Kriterien entstehen. Um dies zu vermeiden, ist eine Einflussmatrix entwickelt worden. Sie zeigt auf, welche Kom-binationen von Kriterien sich gegenseitig beeinflussen können. Das Kriterienset kann demnach den In-novationsprozess in jeder Phase unterstützen und bietet einen optimalen Rahmen um das Potential von innovativen Ideen zu erfassen und abzubilden. Darüber hinaus haben die Forschungsergebnisse einen optimierten Ablauf des Bewertungsprozesses ergeben. Empfehlungen gehen auf Aufgaben vor und nach der Bewertung ein und beinhalten unter anderem wie bzw. ob Kriterien gewichtet werden sollten sowie Skalierungsmöglichkeiten. Die Kombination aus Kriterienauswahlset, Einflussmatrix und Hand-lungsempfehlungen macht das in dieser Arbeit entwickelte Konzept nicht nur für die Robert Bosch GmbH zu einem wertvollen Tool.