Die Frage nach einer Ethik der Künstlichen Intelligenz (KI) ist keine einfache und erfordert vor allem differenzierte Betrachtungen. Die Vielfalt von KI-Systemen, ihre unterschiedlichen Anwendungsbereiche sowie unterschiedliche Wertvorstellungen lassen das Ziel einer einzigen umfassende Antwort kaum realistisch erscheinen.
Von Ingrid Becker und Florian Krause
St.Gallen (csr-news) – KI-Anwendungen gibt es für Fahrzeuge, medizinische Diagnosen, Finanzanalysen, Personalentscheidungen, personalisierte Empfehlungen im Internet, Kategorisierung von Bildern auf dem eigenen Smartphone und noch vieles mehr. Jede Anwendung und Art von Künstlicher Intelligenz birgt dabei eigene, mehr oder weniger drängende ethische Fragen, da Auswirkungen und potenzielle Risiken – und damit die Bedeutung künstlicher Intelligenz – in verschiedenen Kontexten offensichtlich unterschiedlich sind. Auf der anderen Seite bieten Anwendungen Künstlicher Intelligenz auch große Potenziale – beispielsweise für Effizienz- und Produktivitätssteigerungen in diversen Bereichen, Sicherheit oder um neue Erkenntnisse aus Daten zu gewinnen.
Auch wird die Frage nach Ethik im Kontext Künstlicher Intelligenz mit diversen, zum Teil aus der Science-Fiction stammenden Vorstellungen, Wünschen und Ängsten überdeckt, die tatsächliche aktuelle Fragen in den Hintergrund drängen können oder die Diskussion über KI auf (aktuell) völlig fiktive Szenarien lenken.
Erschwert wird die Diskussion ebenfalls dadurch, dass nicht selten konkrete ethische Herausforderungen (z.B. Datenschutz, Manipulation, Verschleierung von Machtstrukturen etc.) durch einen unbestimmten, allgemeinen Begriff ‚Ethik‘ verdeckt werden. So wird in Bezug auf Künstliche Intelligenz oft von ‚Ethik‘ gesprochen, die ‚auch berücksichtigt‘ oder ‚in Algorithmen eingebettet‘ werden solle oder die schlichtweg ‚auch wichtig‘ sei. Doch was in diesen Kontexten genau zu berücksichtigende ethische Probleme sind und damit verbunden die Frage, ob und wie diese gelöst werden können, bleibt dabei oft unklar.
Was ist eine Künstliche Intelligenz?
Eine Künstliche Intelligenz (KI) ist im Wesentlichen eine besondere Art von Computerprogramm, das sich von einfachen Algorithmen in bestimmten Aspekten unterscheidet. Während einfache Algorithmen Daten typischerweise nach einem statischen Wenn-Dann-Schema auswerten und ein Ergebnis produzieren, wertet eine KI ebenfalls Daten aus, produziert zunächst jedoch aus diesen Daten ein Ergebnis, das wiederum als Eingabe für den Auswertungsalgorithmus verwendet wird, um sich selbst zu verbessern. In diesem Stadium kann man sagen, dass die KI ‚lernt‘ und dadurch ihre Aufgabe im Laufe der Zeit immer besser bewältigt.
Dieses Lernen wird in der Regel durch menschliche Unterstützung ermöglicht. Zum Beispiel können Bilddaten für eine KI von Menschen kategorisiert werden (z.B. Katze, Hund, Hamster usw.). Mit Hilfe großer Rechenkapazitäten sucht die KI dann nach (statistischen) Mustern in allen Bildern der jeweiligen Kategorie und versucht hierdurch, wesentliche Muster der Kategorie zu identifizieren. Dann wird anhand gefundener Muster eine Zuordnung getestet. Gelingt diese nicht, wird erneut gesucht, und dieser Prozess wird so oft wiederholt, bis das Ergebnis ‘optimal’ ist, also Bilder zuverlässig der korrekten Kategorie zugeordnet werden.
Diese Optimierung ist bei sogenannten schwachen KIs immer auf ein ganz spezifisches Problem ausgerichtet. Eine KI, die gelernt hat, bestimmte Tiere auf Bildern zu erkennen, ist beispielsweise nicht für Wetterprognosen oder Personalauswahl geeignet. Jede KI ist im Prinzip ein Computerprogramm, das für eine ganz bestimmte Aufgabe entwickelt und optimiert wurde. Im Gegensatz dazu meint starke oder generelle KI, die derzeit noch in den Bereich der Science-Fiction gehört, in der Literatur jedoch bereits eifrig diskutiert wird, eine KI, die eine Vielzahl verschiedener Probleme ebenso gut oder sogar besser lösen kann als Menschen.
Anthropomorphismen
KI wird häufig mit Vorstellungen in Verbindung gebracht, die möglicherweise von Fantasy- und Science-Fiction-Geschichten beeinflusst sind – etwa Vorstellungen künstlicher Menschen oder Genies mit bedrohlicher, übermenschlicher Intelligenz. In verschiedenen Definitionen von KI wird “menschenähnlich” auch explizit verwendet (Beck 2020). Selbst im wissenschaftlichen Diskurs nehmen Implikationen einer (hypothetischen) KI, die als quasi künstlicher Mensch gedeutet werden könnte, einen bedeutenden Platz ein, wie etwa ‘Rechte für Roboter’ (Gunkel 2018) oder Vergabe von Staatsbürgerschaften an den Roboter ‘Sophia’ zeigen. Neben sicher interessanten Gedankenspielen finden in diesen Kontexten jedoch häufig Anthropomorphismen statt: Technische Reaktionen werden vor dem Hintergrund menschlicher Empfindungen und Normen gedeutet. Generell ist es nicht ungewöhnlich, dass es spezifische Normen für Gegenstände von sozialer Bedeutung gibt (z.B. persönliche Gegenstände oder Kunstwerke mit gesellschaftlicher Bedeutung) (Beschorner & Krause 2018). Jedoch erscheint der Ruf nach diesen in Bezug auf KI wohl übereilt und nicht Gegenstandsadäquat.
Die Technik der künstlichen Intelligenz erscheint in durch Anthropomorphismen geprägten Diskussionen mitunter als Bedrohung durch ihre übermenschlichen Fähigkeiten. Fraglos anzuerkennen ist dabei, dass KI-Technologien natürlich in gewisser Hinsicht ‘übermenschliche’ Fähigkeiten haben. Dies ist jedoch eher eine allgemeine Eigenschaft diverser Technologien – es begründet meist sogar ihren Sinn (Taschenrechner, Flugzeuge etc.). In gewisser Weise ist die Idee von Technologie darauf ausgerichtet, menschlichen Handlungsspielraum zu erweitern und Möglichkeiten zu bieten, die wir sonst nicht hätten.
Bereits 1950 beschrieb Alan Turing die sprachlichen Möglichkeiten eines Computers als “The Imitation Game”. Mit Imitation ist hier gemeint, dass der Output eines Computers bei Menschen den Anschein erwecken kann, dass der Computer etwas verstanden hätte oder mit ihnen spräche, da er einen Satz produziert, der eine mögliche Antwort auf die gestellte Frage liefert. Der Turing-Test fragt, ob ein Computerprogramm in der Lage ist, einen Output zu generieren, der Menschen suggeriert, dass der Output von einem Menschen stammt. Eine Antwort, die von einem Menschen stammen könnte, führt anschließend nicht selten zu Diskussionen darüber, ob eine KI ein Bewusstsein haben, ob sie lügen, strategisch und sogar böswillig planen oder Urheberin von etwas sein kann, usw. Einiges davon lässt sich sicher als unzulässiger Anthropomorphismus ablehnen, aber andere Fragen werfen durchaus grundlegendere Fragen über normative Gewissheiten über uns selbst auf und lenken daher eigentlich von Fragen über KIs ab. Wir gehen beispielsweise normativ davon aus, dass die Menschen um uns herum ein Bewusstsein haben, aber unsere Fähigkeit, mit ihnen sinnvoll zu interagieren, ist wahrscheinlich deutlich zentraler für ihren sozialen Status als Menschen als die Frage, ob sie ‘wirklich, wirklich’ ein Bewusstsein haben (und wie wir dies zweifelsfrei feststellen können).
Als Menschen kommunizieren wir stark über Sprache(n), jedoch erschöpft sich unsere Kommunikation nicht in Worten, sondern Worte sind ein Element von Kommunikation, die als Ganzes jedoch noch viele weitere Voraussetzungen hat. Vielleicht hilft die Vorstellung von Sprache als Oberfläche eines Meeres von Mustern, Konzepten, Kontexten, usw.: Wir wissen, was eine Hand ist, was geometrische Formen sind und was ein Buchstabe im Verhältnis zu Wort und Sprache ist. Wir wissen auch, was einen bestimmten Kontext ausmacht, sodass beispielsweise ein einzelnes Wort oder ein Nicken genügen kann, um eine Verständigung zu erreichen – sogar über Sprachgrenzen hinweg. Viele dieser Muster und Konzepte kennen wir schon, bevor wir sprechen können. Die ‘Welt’ einer KI beginnt in gewisser Hinsicht am anderen Ende, fokussiert also die Oberfläche, ohne das tiefe Meer darunter zu kennen oder Zugang dazu zu haben: Sie erkennt ein Wort, kennt jedoch weder dessen Bedeutung noch die Konzepte, die mit ihm verbunden sind, sondern nur Wahrscheinlichkeiten von anderen Worten im Umfeld dieses Wortes. Das Wort ‘Haus’ steht zum Beispiel im Zusammenhang mit ‘Dach’, ‘Wand’ oder ‘Wohnen’. Was diese Worte bedeuten, ist jedoch nicht Teil der Welt einer KI.
Normen für und im Umgang mit Künstlichen Intelligenzen
Unsere Vorstellungen und Erwartungen wie auch unsere Bewertungsmaßstäbe lassen sich als Normen rekonstruieren. Technik wird gerne als ‘neutral’ beschrieben in Bezug auf ihre normativen Implikationen. Gemeint ist damit, dass man sie für ‘Gutes’ oder ‘Schlechtes’ einsetzen kann. Ganz so neutral scheint Technik in normativer Hinsicht jedoch nicht, weil sie es vermag, unsere Vorstellungen davon zu verschieben, was möglich ist. Damit verschieben sie auch unsere Bewertungsmaßstäbe: Die Möglichkeiten der Medizin haben unsere Furcht vor (heute kleineren, früher lebensbedrohlichen) Unfällen verändert – und auch die Person, die nach dem Weg fragt, ist in Zeiten von GPS und Karten auf dem Smartphone nicht mehr ganz so normal wie vor der Verbreitung dieser Technik.
Es lässt sich wohl feststellen, dass Normen bezüglich Künstlicher Intelligenzen aktuell vielerorts noch nicht sonderlich klar sind – es fehlen gefestigte Vorstellungen davon, was KIs sind, was sie vermögen (und was nicht) sowie davon, was im Umgang mit ihnen zu beachten ist. Im Zuge der Verbreitung von KIs und der gesellschaftlichen Diskussion um sie sind dennoch bereits über 80, zumeist prinzipienfokussierte Ethikkodizes entstanden (Spiekermann 2021). Viele davon greifen wichtige Diskussionspunkte auf und leisten hiermit einen gewissen Beitrag zur Normsetzung, sie ersetzen jedoch kein tieferes Verständnis von Künstlicher Intelligenzen oder gar eine Diskussion über normative Implikationen bzw. ethische Spannungsfelder in der jeweiligen, konkreten Anwendung.
Beispielhaft genannt sei hier das erste Prinzip der ‘Ethischen Leitlinien für Künstliche Intelligenz’ des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK): ‘Vorrang menschlichen Handelns und menschlicher Aufsicht – Die Technik darf nie das Sagen haben. Eine Bevormundung des Menschen durch KI (…) muss ausgeschlossen sein’ (BMWK 2021). Diesem Prinzip ohne Kontext zu folgen könnte zur Schlussfolgerung führen, dass beispielsweise KIs in Autos, die eine Notbremsung vornehmen, auszuschließen seien, weil diese eine Bevormundung darstellten. Dies ist hier jedoch (hoffentlich) nicht gemeint.
Es wäre interessant zu diskutieren, ob sich diese Art der Bevormundung wesentlich von direkter zwischenmenschlicher Bevormundung unterscheidet, beispielsweise von der Bevormundung Minderjähriger durch ihre Eltern, das heißt von Stellvertretungen, die zum Wohle von Lebewesen getroffen werden (müssen), die Gefahren nicht so gut, schnell, etc. abschätzen können. Die häufig normativ negativ besetzte Bevormundung ist dabei nicht per se ein Widerspruch zur normativ positiv gesetzten Selbstbestimmung. Trotz bestimmter Bevormundung durch Eltern kann beispielsweise auch die Selbstbestimmung von Kindern langfristig – bei Erhalt eines gegenseitigen Vertrauensverhältnisses – sogar gefördert werden. Damit kann Selbstbestimmung auch ein inhärentes Ziel einer Bevormundung und eben keinen Widerspruch zu ihr darstellen. Hierfür ist Vertrauen notwendig. Nach Wiesemann (2016, S. 80) eröffnet Vertrauen ‘einen Handlungsspielraum, der der Abhängigkeitsbeziehung angemessen ist’. Um Vertrauen aufzubauen oder zu halten, sind die Bedingungen sinnvoller Bevormundung und ihr konkreter Vollzug, der mehr oder weniger bedacht sein kann, entscheidend (Wiesemann 2016). Vertrauen basiert dabei – wenn es über ein Sich-verlassen-auf, also hier über ein Funktionieren von Technik wie erwartet, hinausgeht – neben dieser Zuverlässigkeit auf weiteren geteilten Werten (Lahno 2001) wie zum Beispiel Wahrhaftigkeit oder Vorsorge. Was diese Werte jeweils in einer Situation normativ gebieten, setzt eine Interpretation durch die Beteiligten voraus.
Vertrauen kann auch in schwierigen Situationen erhalten bleiben, wenn davon ausgegangen wird, dass sich die Parteien im Vertrauen (normativ) zueinander verhalten. Dann sollte diejenige Entität, der irrtümlich in Bezug auf etwas vertraut wird, zumindest darüber aufklären, dass ihr in dieser Sache nicht vertraut werden kann (Wiesemann 2016). Damit verlagert sich der Fokus auf die Vertrauenswürdigkeit der bevormundenden Instanz, die voraussetzungsreicher ist als ein einfaches „Versprechen“: „Vertrauen Sie uns“. Zum Beispiel kann bei Anbietern (von KIs, Autos, etc.) unter Umständen ein gewisser Widerstreit zwischen dem Wunsch nach dem Verkauf oder Einsatz einer KI und dem Aufzeigen ihrer Grenzen aufflammen – insbesondere, wenn die Einschätzung von KI allgemein noch schwerfallen. An welchen Normen orientieren sich Anbieter oder auch Entwickler:innen in ihren Entscheidungen in Bezug auf die KI? Wie erfahren User diesen Bezug auf Normen, um sich entsprechend zu verhalten? Wird sich beispielsweise darauf verständigt, dass sich automatisiertes Fahren an Normen des Wertes Lebensschutz orientiert, kann sich auf mittlere Sicht zeigen, ob die Bevormundung diesen (und andere) Werte erfüllt und das Vertrauensverhältnis damit aufrechterhält, bevor es irgendwann vielleicht zur Gewohnheit wird und im engeren Sinne keines mehr ist.
Ethische Problemfelder Künstlicher Intelligenz
Die Fragen nach dem Vertrauen in eine Künstliche Intelligenz ist eng verbunden mit weiteren Problemfeldern:
Daten
Trainingsdaten sind für eine KI zentral. Auf Basis der Trainingsdaten werden Muster erstellt, die von der KI für künftige Auswertungen genutzt werden. Unerwünschte Elemente sollten folglich bereits im Training eliminiert worden sein. Dies stellt jedoch eine Herausforderung dar, weil eine KI zum einen sehr große Datenmengen benötigt, um ihre Muster zu erstellen, und zum anderen, weil Aspekte, die für Menschen unauffällig oder unbedeutend sind, für die KI vielleicht den statistisch entscheidenden Faktor darstellen können: Besteht der Trainingsdatensatz z.B. aus Lebensläufen mit dem Ziel, anhand von Lebensläufen die Passung von Bewerber:innen festzustellen, können Aspekte, die für Fragen der Passung keine wirkliche Bedeutung haben, von der KI jedoch aufgrund von statistischen Merkmalen mit Bedeutung versehen werden. Für die KI kann es ausschlaggebend sein, ob beispielsweise für Lebensläufe eine Serifenschrift gewählt wurde – oder Personen mit einem bestimmten Namen werden häufiger eingestellt, wenn im Trainingsdatensatz mehr Personen mit diesem Namen positiv kategorisiert wurden.
Es entsteht hier häufig ein Trade-off zwischen ‘Clean Data’ und ‘Big Data’. Letztere sind leichter zu beschaffen, jedoch ein schonungsloser, wenn auch meist unerwünschter Spiegel unserer Gesellschaft, da der Ist-Zustand der Gesellschaft nicht dem normativ leitenden Soll-Zustand entspricht (siehe auch Stalder 2019). Erinnert sei an die KIs, die auf Basis von Auswertungen in Social Media sehr schnell beleidigende und rassistische Texte produziert haben (Graff 2016). Dies ist nicht das, was wir uns von so einer Technik wünschen, aber mitunter ein ehrliches Resultat aus Texten in Sozialen Medien mit dem Optimierungskriterium eines großen Interaktionspotenzials. ‘Clean Data’ – oder besser ‘Cleaner Data’ – setzt nicht unerheblichen, menschlichen Arbeitseinsatz (‘Klickarbeit’) voraus (Leisegang 2023), der in Bezug auf viele KIs, beispielsweise bilderzeugende KIs, durchaus nochmals eigene ethische Fragen aufwirft, wenn z.B. Personen Bilder mit illegalem pornographischen Gehalt kategorisieren, damit eine KI ebensolche nicht erstellt. Es kann bezweifelt werden, ob dies immer unter adäquaten Arbeitsbedingungen, geschweige denn mit Zugang zu Supervision zur Verarbeitung des oder Distanzierung vom Gesehenen geschieht. Aber auch in weniger problematischen Kontexten ist das Bereinigen von Daten, um Biases zu vermeiden, eine Herausforderung: Beim Versuch der Anonymisierung von Lebensläufen kann eine KI durchaus auch indirekt Merkmale ausmachen: Wenn z.B. weibliche Kandidatinnen eine gewisse Lücke im Lebenslauf haben durch die Geburt eines Kindes, die man aus dem Lebenslauf entfernt hat, um ihn geschlechtsneutral zu halten. Sind im Trainingsdatensatz dann solche Lücken nicht vorhanden oder nicht mit positivem Outcome korreliert, schreibt sich diese Diskriminierung fort. Gleiches wurde auch festgestellt, wenn die Hautfarbe von Personen zwar nicht erfasst wurde, der Algorithmus dieses Merkmal jedoch im Ergebnis über Umwege wiederhergestellt hat, z.B. durch Korrelation von Hautfarbe mit bestimmten Wohngegenden.
Dazu kommen Aspekte des Datenschutzes im Kontext großer Datensätze, wenn etwa eine direkte oder auch nur indirekte statistische Verknüpfung von Daten de facto Rückschlüsse auf Individuen ermöglich (z.B. Gausling 2019), und gegebenenfalls auch des Urheberrechts, wenn KIs auf Basis geschützter Werke trainiert werden. Es bleibt festzuhalten: Die KI hat keine wirkliche inhaltliche Vorstellung von dem, wofür sie eingesetzt wird, und kann daher auch nicht aus unserer Sicht wesentliche von unwesentlichen, legale von illegalen Aspekten unterscheiden. Die Bereinigung von Daten, um Verzerrungen und unberechtigte Benachteiligungen zu vermeiden, ist eine eigene Herausforderung, die jedoch großen Einfluss auf gute Ergebnisse hat.
Black Box, Human in the Loop und Algorithmische Autorität
Ein weiteres zentrales ethisches Problem ist, dass sich das Entscheidungskriterium bzw. die interne Funktionsweise einer KI kaum oder nur mit sehr großem Aufwand rekonstruieren lässt. Beim Mensch beeinflusst die Rechtfertigung einer Entscheidung mitunter maßgeblich die ethische Bewertung einer Handlung. Bei einer KI ist an Stelle der Rechtfertigung jedoch eine ‘Black Box’, ein Undurchsichtigkeitsproblem (Herberger 2018). Es entsteht oft bei komplexen KI-Modellen wie Deep Learning-Neuronalnetzwerken, bei denen viele Parameter in komplexen Wechselwirkungen stehen. Für bestimmte Anwendungen ist diese KI Black-Box unproblematisch, solange die Ergebnisse ihren Zweck erfüllen. Allerdings können undurchsichtige KI-Systeme in Bereichen, die Rechtfertigungen von Entscheidungen benötigen (z.B. Gesundheitswesen, Finanzen oder Rechtswesen, Strafverfolgung) problematisch sein. KIs arbeiten mit statistischen Zusammenhängen und generieren Outputs, auf deren Basis dann ggf. eine Entscheidung getroffen wird oder die den Entscheidungsprozess gar ganz ersetzt. Ob die statistisch genutzten Merkmale dann eine berechtigte Differenzierung oder eine ungerechtfertigte Diskriminierung darstellen (Beck 2020), ist eine berechtigte Frage, die aufgrund der Black Box jedoch nur schwer zu beantworten ist. Man spricht hier auch von einer ‘autonomen’ Entscheidung der KI (Simmler, Markenwalder 2017). „KI dixit“ („Die KI hat gesprochen.“) dürfte für Menschen, denen negative Auswirkungen auch in existentiellen Bereichen durch den Output der KI drohen, jedoch keine zufriedenstellende Begründung darstellen.
Diesem Problem wird häufig mit einem ‘Human in the Loop’ Ansatz begegnet. Ziel ist es, menschliche Expertise und Kontrolle in den Ablauf einer KI einzubinden, um Outputs zu verbessern bzw. offensichtlich sinnlose Outputs zu verwerfen. Diese Rolle ist vor dem Hintergrund der ‘Black Box’ nicht ganz trivial, weil zum einen eben in den meisten Fällen nicht nachvollzogen werden kann, wie ein bestimmter Output zustande gekommen ist, und zum anderen, weil dem Output gerne ‘algorithmische Autorität’ zugeschrieben wird (Rogers 2013). Diese meint ein argumentatives Gewicht des Outputs bzw. der Schlussfolgerungen, die dieser Output nahelegt, aufgrund der Wahrnehmung von Algorithmen als objektiv, ‘rational’ und zusätzlich basierend auf großen Datenmengen. Man denke an eine Situation, in der ein ‘Human in the Loop’ sich gegen die Implikationen eines Outputs einer KI entscheidet und in der Folge ein Schaden entsteht.
Für den Menschen ist der Output kaum vorhersehbar und im Nachhinein kaum begründbar – dies macht die Erwartung einer kurzfristigen Einschätzung unrealistisch.
Unterschiedliche Anwendungen Künstlicher Intelligenz eröffnen in vielen Kontext neue Möglichkeiten. Die aktuelle Diskussion pendelt dabei häufig zwischen Technikbegeisterung und Technikapokalypse – beide Perspektiven werden Möglichkeiten und Problemen Künstlicher Intelligenzen nicht gerecht und sorgen insgesamt eher für normative Unsicherheit. Hierzu mischen häufig diffuse ‘ethische Bedenken’. Für Vertrauen in technischen Umgebungen muss KI sich zunächst einmal bewähren – und das kann sie auch nur dann, wenn sie von den „vielen Händen, die an ihrer Operation beteiligt sind“ (Coeckelbergh 2022, 136), angemessen – d.h. nach relevanten Normen – konzipiert und eingesetzt wird. Das Einbringen relevanter, sowohl technik- als auch kontextbezogener Werte, die durch KI eine normative Verschiebung erfahren, kann hierbei einen wichtigen Beitrag leisten. Die Problematisierung normativer Verschiebungen als ‘Misstrauen’ gegenüber Technik, gegenüber der KI, führt im ungünstigsten Falle selbst dazu.

Dr. Ingrid Becker (Foto: privat)
Dr. Ingrid Becker,
Institut für Wirtschaftsethik, forscht an den Schnittstellen digitaler Technologien und Philosophie mit Fokus auf Vertrauens- und Sicherheitsfragen, gefördert durch den Grundlagenforschungsfonds (GFF) der Universität St.Gallen.
ingrid.becker@unisg.ch

Dr. Florian Krause (Foto: privat)
Dr. Florian Krause
forscht und lehrt am Institut für Wirtschaftsethik der Universität St.Gallen sowie am Institut für Interdisziplinäre Arbeitswissenschaft der Leibniz Universität Hannover u.a. zu Themen der Digitalen Transformation, Unternehmensverantwortung und Nachhaltigkeit.
florian.krause@unisg.ch
Literatur
Beck, S. (2020): Künstliche Intelligenz – ethische und rechtliche Herausforderungen, in: Mainzer, K. (Hrsg.): Philosophisches Handbuch Künstliche Intelligenz, Springer.
BMWK (2021): Ethische Leitlinien für Künstliche Intelligenz, online: https://www.bmwk.de/Redaktion/DE/Schlaglichter-der-Wirtschaftspolitik/2021/09/11-ethische-leitlinien-fur-kunstliche-intelligenz.html
Coeckelbergh, Mark. 2022. The Political Philosophy of AI: An Introduction. Cambridge UK: Polity Press.
Gausling, T. (2019): Künstliche Intelligenz im digitalen Marketing, in: Zeitung für Datenschutz. 8:335–341.
Gunkel, D. J. (2018): Robot rights. Cambridge: MIT Press.
Herberger, M. (2018). „Künstliche Intelligenz“ und Recht, in: Neue Juristische Wochenschrift. 39:2825–2829.
Lahno, Bernd. 2001. . „On the Emotional Character of Trust.“ Ethical Theory and Moral Practice 4: 171–189.
Simmler, M.; Markwalder, N. (2017): Roboter in der Verantwortung?, in: Zeitschrift für die gesamte Strafrechtswissenschaft 1:20–47.
Leisegang, D. (2023): Prekäre Klickarbeit hinter den Kulissen von ChatGPT, online: https://netzpolitik.org/2023/globaler-sueden-prekaere-klickarbeit-hinter-den-kulissen-von-chatgpt/
Rogers, Richard (2013): Digital Methods, Cambridge.
Spiekermann, S. (2021): Digitale Ethik und die Künstliche Intelligenz, in: Mainzer, K. (Hrsg.), Philosophisches Handbuch Künstliche Intelligenz, Springer.
Turing; A.M. (1950) Computing machinery and intelligence. Mind 59(236): 433–460.
Wiesemann, Claudia (2020). „Vertrauen als moralische Praxis – Bedeutung für Medizin und Ethik.“ In Autonomie und Vertrauen Schlüsselbegriffe der modernen Medizin, herausgegeben von Holmer Steinfath, Claudia Wiesemann, Reiner Anselm, Gunnar Duttge, Volker Lipp, Friedemann Nauck, und Silke Schicktanz, 69–99. Wiesbaden: Springer VS.
Dieser Text (ohne Bilder) ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.