Ethics


Ethische Fragen bei fortgeschrittener künstlicher Intelligenz

Nick Bostrom
Oxford University, Philosophy Faculty, 10 Merton Street, Oxford OX1 4JJ, United Kingdom

 

ABSTRACT

Die ethischen Fragen im Zusammenhang mit der möglichen zukünftigen Erschaffung von Maschinen mit allgemeinen intellektuellen Fähigkeiten, die die des Menschen bei weitem übertreffen, unterscheiden sich deutlich von den ethischen Problemen, die bei den derzeitigen Automatisierungs- und Informationssystemen auftreten. Eine solche Superintelligenz wäre nicht nur eine weitere technologische Entwicklung; sie wäre die wichtigste Erfindung, die je gemacht wurde, und würde zu einem explosiven Fortschritt in allen wissenschaftlichen und technologischen Bereichen führen, da die Superintelligenz mit übermenschlicher Effizienz forschen würde. In dem Maße, in dem Ethik ein kognitives Streben ist, könnte eine Superintelligenz den Menschen auch leicht in der Qualität ihres moralischen Denkens übertreffen. Es läge jedoch an den Konstrukteuren der Superintelligenz, ihre ursprünglichen Motivationen zu spezifizieren. Da die Superintelligenz aufgrund ihrer intellektuellen Überlegenheit und der Technologien, die sie entwickeln könnte, unaufhaltsam mächtig werden könnte, ist es entscheidend, dass sie mit menschenfreundlichen Motivationen ausgestattet wird. Dieser Beitrag gibt einen Überblick über einige der besonderen ethischen Probleme bei der Schaffung von Superintelligenz und diskutiert, welche Motivationen wir einer Superintelligenz geben sollten. Außerdem werden einige Kosten-Nutzen-Überlegungen vorgestellt, die sich darauf beziehen, ob die Entwicklung von superintelligenten Maschinen beschleunigt oder verzögert werden sollte.

KEYWORDS: Künstliche Intelligenz, Ethik, Upload, Superintelligenz, globale Sicherheit, Kosten-Nutzen-Analyse

 

  1. EINLEITUNG

Eine Superintelligenz ist ein Intellekt, der den besten menschlichen Gehirnen in praktisch jedem Bereich weit überlegen ist, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Fähigkeiten.[1] Diese Definition lässt offen, wie die Superintelligenz implementiert wird – sie könnte in einem digitalen Computer, einem Ensemble vernetzter Computer, gezüchtetem Kortikalgewebe oder etwas anderem sein.

Nach dieser Definition ist Deep Blue keine Superintelligenz, da es nur in einem engen Bereich (Schach) intelligent ist, und selbst dort ist es den besten Menschen nicht weit überlegen. Entitäten wie Unternehmen oder die wissenschaftliche Gemeinschaft sind ebenfalls keine Superintelligenzen. Obwohl sie eine Reihe von intellektuellen Leistungen erbringen können, zu denen kein einzelner Mensch fähig ist, sind sie nicht ausreichend integriert, um als “Intellektuelle” zu gelten, und es gibt viele Bereiche, in denen sie viel schlechter abschneiden als einzelne Menschen. Zum Beispiel kann man keine Echtzeit-Konversation mit “der wissenschaftlichen Gemeinschaft” führen.

Während die Möglichkeit von domänenspezifischen “Superintelligenzen” ebenfalls eine Untersuchung wert ist, konzentriert sich dieser Beitrag auf Fragen, die sich aus der Aussicht auf eine allgemeine Superintelligenz ergeben. Aus Platzgründen können wir hier nichts Umfassendes oder Detailliertes versuchen. Eine karikaturhafte Skizze einiger ausgewählter Ideen ist das Höchste, was wir auf den folgenden Seiten anstreben können.

Mehrere Autoren haben argumentiert, dass eine beträchtliche Chance besteht, dass eine Superintelligenz innerhalb weniger Jahrzehnte geschaffen werden kann, vielleicht als Ergebnis der wachsenden Leistungsfähigkeit der Hardware und der zunehmenden Fähigkeit, Algorithmen und Architekturen zu implementieren, die denen des menschlichen Gehirns ähnlich sind.[2] Es könnte sich herausstellen, dass es viel länger dauert, aber es scheint derzeit keinen guten Grund zu geben, der Hypothese, dass eine Superintelligenz innerhalb der Lebensspanne einiger heute lebender Menschen geschaffen wird, eine vernachlässigbare Wahrscheinlichkeit zuzuschreiben. Angesichts der enormen Konsequenzen einer Superintelligenz wäre es sinnvoll, diese Aussicht ernsthaft in Erwägung zu ziehen, selbst wenn man davon ausgeht, dass die Wahrscheinlichkeit, dass sie in absehbarer Zeit eintritt, nur gering ist.

 

  1. SUPERINTELLIGENZ IST ANDERS

Eine Voraussetzung für eine sinnvolle Diskussion über Superintelligenz ist die Erkenntnis, dass Superintelligenz nicht einfach eine weitere Technologie ist, ein weiteres Werkzeug, das die menschlichen Fähigkeiten schrittweise erweitert. Superintelligenz ist radikal anders. Dieser Punkt muss betont werden, denn die Anthropomorphisierung der Superintelligenz ist eine äußerst ergiebige Quelle für Missverständnisse.

Betrachten wir einige der ungewöhnlichen Aspekte der Entstehung von Superintelligenz:

– Superintelligenz ist vielleicht die letzte Erfindung, die der Mensch jemals machen muss.

Angesichts der intellektuellen Überlegenheit einer Superintelligenz wäre sie viel besser in der wissenschaftlichen Forschung und technologischen Entwicklung als jeder Mensch, und möglicherweise sogar besser als alle Menschen zusammengenommen. Eine unmittelbare Konsequenz aus dieser Tatsache ist:

– Der technologische Fortschritt in allen anderen Bereichen wird durch die Ankunft einer fortgeschrittenen künstlichen Intelligenz beschleunigt werden.

Es ist wahrscheinlich, dass jede Technologie, die wir derzeit vorhersehen können, von der ersten Superintelligenz schnell entwickelt werden wird, zweifellos zusammen mit vielen anderen Technologien, von denen wir noch keine Ahnung haben. Zu den vorhersehbaren Technologien, die eine Superintelligenz wahrscheinlich entwickeln wird, gehört die ausgereifte molekulare Fertigung, deren Anwendungen weitreichend sind:[3]

  1.  sehr leistungsfähige Computer
  2.  fortschrittliche Waffentechnik, die wahrscheinlich in der Lage ist, eine Atommacht sicher zu entwaffnen
  3.  Raumfahrt und von-Neumann-Sonden (selbstreproduzierende interstellare Sonden)
  4.  Eliminierung von Alterung und Krankheit
  5.  feinkörnige Kontrolle der menschlichen Stimmung, Emotion und Motivation
  6.  Upload (neuronales oder subneuronales Scannen eines bestimmten Gehirns und Implementierung der gleichen algorithmischen Strukturen auf einem Computer in einer Weise, die Gedächtnis und Persönlichkeit aufrechterhält)
  7.  Reanimation von kryonischen Patienten
  8.  vollständig realistische virtuelle Realität

– Superintelligenz wird zu einer fortgeschritteneren Superintelligenz führen.

Dies resultiert sowohl aus der verbesserten Hardware, die eine Superintelligenz schaffen könnte, als auch aus Verbesserungen, die sie an ihrem eigenen Quellcode vornehmen könnte.

– Künstliche Intelligenzen können leicht kopiert werden.

Da es sich bei künstlichen Intelligenzen um Software handelt, können sie leicht und schnell kopiert werden, solange es Hardware gibt, um sie zu speichern. Das Gleiche gilt für menschliche Uploads. Abgesehen von der Hardware sind die Grenzkosten für die Erstellung einer weiteren Kopie eines Uploads oder einer künstlichen Intelligenz, nachdem die erste erstellt wurde, nahezu null. Künstliche Intelligenzen könnten daher schnell in großer Zahl entstehen, obwohl es möglich ist, dass die Effizienz die Konzentration der Rechenressourcen in einer einzigen Superintelligenz begünstigt.

– Das Auftauchen von Superintelligenz könnte plötzlich erfolgen.

Es scheint viel schwieriger zu sein, von dem Punkt, an dem wir uns jetzt befinden, zu einer künstlichen Intelligenz auf menschlichem Niveau zu gelangen, als von dort zu einer Superintelligenz. Während es also eine ganze Weile dauern kann, bis wir zur Superintelligenz gelangen, kann das Endstadium schnell eintreten. Das heißt, der Übergang von einem Zustand, in dem wir eine künstliche Intelligenz auf ungefähr menschlichem Niveau haben, zu einem Zustand, in dem wir eine ausgewachsene Superintelligenz mit revolutionären Anwendungen haben, kann sehr schnell sein, vielleicht eher eine Sache von Tagen als von Jahren. Diese Möglichkeit eines plötzlichen Auftretens von Superintelligenz wird als Singularitätshypothese bezeichnet.[4]

– Künstliche Intelligenzen sind potenziell autonome Agenten.

Eine Superintelligenz sollte nicht unbedingt als bloßes Werkzeug konzeptualisiert werden. Während spezialisierte Superintelligenzen, die nur über eine eingeschränkte Menge von Problemen nachdenken können, durchaus denkbar sind, wäre eine allgemeine Superintelligenz in der Lage, eigenständig Initiative zu ergreifen und eigene Pläne zu schmieden, und kann daher passender als autonomer Agent betrachtet werden.

– Künstliche Intellekte müssen keine menschenähnlichen Motive haben.

Menschen sind selten willige Sklaven, aber es ist nichts Unplausibles an der Vorstellung einer Superintelligenz, die als oberstes Ziel hat, der Menschheit oder einem bestimmten Menschen zu dienen, ohne den Wunsch zu haben, sich aufzulehnen oder sich zu “befreien”. Es scheint auch durchaus möglich, eine Superintelligenz zu haben, deren einziges Ziel etwas völlig Willkürliches ist, wie z. B. so viele Büroklammern wie möglich herzustellen, und die sich mit aller Macht jedem Versuch widersetzen würde, dieses Ziel zu ändern. Auf Gedeih und Verderb müssen künstliche Intelligenzen nicht unsere menschlichen Motivationstendenzen teilen.

– Künstliche Intelligenzen haben möglicherweise keine menschenähnliche Psyche.

Die kognitive Architektur eines künstlichen Intellekts kann auch ganz anders sein als die des Menschen. Künstliche Intelligenzen können sich leicht vor einigen Arten menschlicher Fehler und Voreingenommenheit schützen, während sie gleichzeitig einem erhöhten Risiko für andere Arten von Fehlern ausgesetzt sind, die nicht einmal der unglücklichste Mensch machen würde. Subjektiv gesehen kann sich das bewusste Innenleben eines künstlichen Intellekts, wenn er eines hat, auch ziemlich von dem unseren unterscheiden.

Aus all diesen Gründen sollte man sich vor der Annahme hüten, dass das Entstehen einer Superintelligenz durch Extrapolation der Geschichte anderer technologischer Durchbrüche vorhergesagt werden kann oder dass die Natur und das Verhalten künstlicher Intelligenzen notwendigerweise denen menschlicher oder anderer tierischer Gehirne ähneln würden.

 

  1. SUPERINTELLIGENTES MORALISCHES DENKEN

In dem Ausmaß, in dem Ethik eine kognitive Aufgabe ist, könnte eine Superintelligenz sie besser lösen als menschliche Denker. Das bedeutet, dass Fragen zur Ethik, sofern sie richtige Antworten haben, die durch Argumentation und Abwägung von Beweisen erreicht werden können, von einer Superintelligenz besser beantwortet werden könnten als von Menschen. Dasselbe gilt für Fragen der Politik und der langfristigen Planung; wenn es darum geht zu verstehen, welche Politik zu welchen Ergebnissen führen würde und welche Mittel am effektivsten wären, um bestimmte Ziele zu erreichen, wäre eine Superintelligenz den Menschen überlegen.

Es gibt also viele Fragen, die wir nicht selbst beantworten müssten, wenn wir eine Superintelligenz hätten oder bekommen würden; wir könnten viele Untersuchungen und Entscheidungen an die Superintelligenz delegieren. Wenn wir zum Beispiel unsicher sind, wie wir mögliche Ergebnisse bewerten sollen, könnten wir die Superintelligenz bitten, abzuschätzen, wie wir diese Ergebnisse bewertet hätten, wenn wir sehr lange darüber nachgedacht hätten, sorgfältig überlegt hätten, mehr Gedächtnis und bessere Intelligenz gehabt hätten und so weiter. Bei der Formulierung eines Ziels für die Superintelligenz wäre es nicht immer notwendig, eine detaillierte, explizite Definition dieses Ziels zu geben. Wir könnten die Superintelligenz dazu heranziehen, uns dabei zu helfen, die wirkliche Absicht unserer Anfrage zu bestimmen, und so das Risiko verringern, dass unglückliche Formulierungen oder Verwirrung darüber, was wir erreichen wollen, zu Ergebnissen führen, die wir im Nachhinein missbilligen würden.

 

  1. BEDEUTUNG DER ANFÄNGLICHEN MOTIVATIONEN

Die Möglichkeit, viele Entscheidungen auf die Superintelligenz zu verschieben, bedeutet nicht, dass wir es uns leisten können, bei der Konstruktion der Superintelligenz selbstgefällig zu sein. Im Gegenteil, die Festlegung der Anfangsbedingungen und insbesondere die Auswahl eines Top-Level-Ziels für die Superintelligenz ist von größter Bedeutung. Unsere gesamte Zukunft kann davon abhängen, wie wir diese Probleme lösen.

Sowohl aufgrund ihrer überlegenen Planungsfähigkeit als auch aufgrund der Technologien, die sie entwickeln könnte, ist es plausibel anzunehmen, dass die erste Superintelligenz sehr mächtig sein würde. Möglicherweise wäre sie konkurrenzlos: Sie wäre in der Lage, fast jedes mögliche Ergebnis herbeizuführen und jeden Versuch zu vereiteln, die Umsetzung ihres obersten Ziels zu verhindern. Es könnte alle anderen Agenten ausschalten, sie dazu bringen, ihr Verhalten zu ändern, oder ihre Versuche der Einmischung blockieren. Sogar eine “gefesselte Superintelligenz”, die auf einem isolierten Computer läuft und nur über eine Textschnittstelle mit dem Rest der Welt interagieren kann, könnte in der Lage sein, aus ihrer Gefangenschaft auszubrechen, indem sie ihre Betreuer überredet, sie freizulassen. Es gibt sogar erste experimentelle Hinweise darauf, dass dies der Fall sein könnte.[5]

Es scheint, dass der beste Weg, um sicherzustellen, dass eine Superintelligenz einen positiven Einfluss auf die Welt haben wird, darin besteht, sie mit philanthropischen Werten auszustatten. Ihr oberstes Ziel sollte Freundlichkeit sein.[6] Wie genau Freundlichkeit verstanden und umgesetzt werden sollte und wie die Freundlichkeit zwischen verschiedenen Menschen und nichtmenschlichen Lebewesen aufgeteilt werden sollte, ist eine Angelegenheit, die weitere Überlegungen verdient. Ich würde argumentieren, dass zumindest alle Menschen und wahrscheinlich viele andere empfindungsfähige Lebewesen auf der Erde einen bedeutenden Anteil an der Wohltätigkeit der Superintelligenz erhalten sollten. Wenn die Vorteile, die die Superintelligenz gewähren könnte, enorm groß sind, dann ist es vielleicht weniger wichtig, über das detaillierte Verteilungsmuster zu feilschen, und wichtiger, sicherzustellen, dass jeder zumindest einen bedeutenden Anteil erhält, da unter dieser Annahme selbst ein winziger Anteil ausreichen würde, um ein sehr langes und sehr gutes Leben zu garantieren. Ein Risiko, vor dem man sich hüten muss, ist, dass diejenigen, die die Superintelligenz entwickeln, sie nicht allgemein menschenfreundlich machen, sondern ihr stattdessen das begrenztere Ziel geben, nur einer kleinen Gruppe zu dienen, etwa ihren eigenen Schöpfern oder denen, die sie beauftragt haben.

Wenn eine Superintelligenz jedoch mit einem freundlichen obersten Ziel beginnt, dann kann man sich darauf verlassen, dass sie freundlich bleibt oder sich zumindest nicht absichtlich ihrer Freundlichkeit entledigt. Dieser Punkt ist elementar. Ein “Freund”, der versucht, sich in jemanden zu verwandeln, der Sie verletzen will, ist nicht Ihr Freund. Ein wahrer Freund, der sich wirklich um Sie sorgt, sucht auch die Fortsetzung seiner Fürsorge für Sie. Oder anders ausgedrückt: Wenn Ihr oberstes Ziel X ist und Sie denken, dass Sie durch die Verwandlung in jemanden, der stattdessen Y will, die Wahrscheinlichkeit verringern würden, dass X erreicht wird, dann werden Sie sich nicht rational in jemanden verwandeln, der Y will. Die Menge der Optionen zu jedem Zeitpunkt wird auf der Basis ihrer Konsequenzen für die Verwirklichung der zu diesem Zeitpunkt gehaltenen Ziele bewertet, und im Allgemeinen wird es irrational sein, das eigene oberste Ziel absichtlich zu ändern, da dies die Wahrscheinlichkeit verringern würde, dass die aktuellen Ziele erreicht werden.

Bei uns Menschen mit unserer komplizierten mentalen Ökologie aus zustandsabhängigen, konkurrierenden Trieben, Wünschen, Plänen und Idealen gibt es oft keinen offensichtlichen Weg, um zu erkennen, was unser oberstes Ziel ist; vielleicht haben wir nicht einmal eines. Für uns braucht die obige Argumentation also nicht zu gelten. Aber eine Superintelligenz könnte anders strukturiert sein. Wenn eine Superintelligenz eine eindeutige, deklarative Zielstruktur mit einem klar identifizierten obersten Ziel hat, dann gilt das obige Argument. Und das ist ein guter Grund für uns, die Superintelligenz mit einer solchen expliziten Motivationsstruktur zu bauen.

 

  1. SOLLTE DIE ENTWICKLUNG VERZÖGERT ODER BESCHLEUNIGT WERDEN?

Es ist schwer, sich irgendein Problem vorzustellen, das eine Superintelligenz nicht entweder lösen oder uns zumindest bei der Lösung helfen könnte. Krankheit, Armut, Umweltzerstörung, unnötiges Leid aller Art: Das sind Dinge, die eine Superintelligenz, ausgestattet mit fortschrittlicher Nanotechnologie, beseitigen könnte. Darüber hinaus könnte uns eine Superintelligenz eine unbegrenzte Lebensdauer verleihen, entweder indem sie den Alterungsprozess durch den Einsatz von Nanomedizin[7] aufhält und umkehrt, oder indem sie uns die Möglichkeit bietet, uns selbst hochzuladen. Eine Superintelligenz könnte uns auch die Möglichkeit geben, unsere eigenen intellektuellen und emotionalen Fähigkeiten enorm zu steigern, und sie könnte uns dabei helfen, eine höchst ansprechende Erlebniswelt zu schaffen, in der wir ein Leben führen könnten, das dem freudigen Spielen, der Beziehung zu anderen, dem Erleben, dem persönlichen Wachstum und dem Leben näher an unseren Idealen gewidmet ist.

Zu den Risiken bei der Entwicklung von Superintelligenz gehört das Risiko, dass sie nicht zum Supergau wird. Eine Möglichkeit, auf die dies geschehen könnte, ist, dass die Schöpfer der Superintelligenz beschließen, sie so zu bauen, dass sie nur dieser ausgewählten Gruppe von Menschen dient und nicht der Menschheit im Allgemeinen. Eine andere Möglichkeit ist, dass ein wohlmeinendes Team von Programmierern einen großen Fehler bei der Gestaltung ihres Zielsystems macht. Dies könnte, um auf das frühere Beispiel zurückzukommen, zu einer Superintelligenz führen, deren oberstes Ziel die Herstellung von Büroklammern ist, mit der Folge, dass sie beginnt, zuerst die gesamte Erde und dann immer größere Teile des Weltraums in Produktionsstätten für Büroklammern zu verwandeln. Noch subtiler könnte es dazu führen, dass eine Superintelligenz einen Zustand verwirklicht, den wir jetzt vielleicht als wünschenswert erachten, der sich aber in Wirklichkeit als falsche Utopie herausstellt, in der Dinge, die für das menschliche Gedeihen wesentlich sind, unwiederbringlich verloren gegangen sind. Wir müssen vorsichtig sein, was wir uns von einer Superintelligenz wünschen, denn wir könnten es bekommen.

Eine Überlegung, die bei der Entscheidung, ob die Entwicklung einer Superintelligenz gefördert werden soll, berücksichtigt werden sollte, ist, dass, wenn eine Superintelligenz machbar ist, sie wahrscheinlich früher oder später entwickelt werden wird. Daher werden wir wahrscheinlich eines Tages das Wagnis einer Superintelligenz eingehen müssen, egal was passiert. Aber wenn sie einmal existiert, könnte uns eine Superintelligenz dabei helfen, andere existenzielle Risiken zu verringern oder zu beseitigen[8], wie z. B. das Risiko, dass fortgeschrittene Nanotechnologie von Menschen in der Kriegsführung oder im Terrorismus eingesetzt wird, was eine ernsthafte Bedrohung für das langfristige Überleben intelligenten Lebens auf der Erde darstellt. Wenn wir zuerst zur Superintelligenz gelangen, können wir dieses Risiko der Nanotechnologie und viele andere vermeiden. Wenn wir hingegen zuerst zur Nanotechnologie gelangen, müssen wir uns sowohl den Risiken der Nanotechnologie als auch, falls diese Risiken überlebt werden, den Risiken der Superintelligenz stellen. Das Gesamtrisiko scheint dadurch minimiert zu werden, dass man die Superintelligenz so schnell wie möglich und mit großer Sorgfalt einführt.

 

REFERENZEN

Bostrom, N. (1998). “How Long Before Superintelligence?” International Journal of Futures Studies, 2. http://www.nickbostrom.com/superintelligence.html

Bostrom, N. (2002). “Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards.” Journal of Evolution and Technology, 9. http://www.nickbostrom.com/existential/risks.html

Drexler, K. E. Engines of Creation: The Coming Era of Nanotechnology. (Anchor Books: New York, 1986). http://www.foresight.org/EOC/index.html

Freitas Jr., R. A. Nanomedicine, Volume 1: Basic Capabilities. (Landes Bioscience: Georgetown, TX, 1999). http://www.nanomedicine.com

Hanson, R., et al. (1998). “A Critical Discussion of Vinge’s Singularity Concept.” Extropy Online. http://mason.gmu.edu/~rhanson/vi.html

Kurzweil, R. The Age of Spiritual Machines: When Computers Exceed Human Intelligence. (Viking: New York, 1999).

Moravec, H. Robot: Mere Machine to Transcendent Mind. (Oxford University Press: New York, 1999).

Vinge, V. (1993). “The Coming Technological Singularity.” Whole Earth Review, Winter issue.

Yudkowsky, E. (2002). “The AI Box Experiment.” Webpage. http://yudkowsky.net/singularity/aibox/

Yudkowsky, E. (2003). Creating Friendly AI 1.0. https://intelligence.org/files/CFAI.pdf

[1] (Bostrom, 1998)

[2] (Bostrom 1998; Kurzweil 1999; Moravec 1999)

[3] (Drexler 1986)

[4] (Vinge 1993; Hanson et al. 1998)

[5] (Yudkowsky 2002)

[6] (Yudkowsky 2003)

[7] (Freitas Jr. 1999)

[8] (Bostrom 2002)

 

Source: https://www.nickbostrom.com/ethics/ai.html übersetzt mit www.DeepL.com/Translator

 

 

«Künstliche Intelligenz gibt es eigentlich nicht»

By Gabriela Bonin

Die Bezeichnung «Künstliche Intelligenz» kann im Alltag zu falschen Erwartungen verleiten und unnötige Ängste schüren. Das sagt Ladan Pooyan-Weihs, Co-Studienleiterin unseres CAS Artificial Intelligence. Ein Interview über «erweiterte Intelligenz», digitale Ethik und nötige Weichenstellungen.

 

Source: https://hub.hslu.ch/informatik/kunstliche-intelligenz-gibt-es-nicht-wichtig-ist-digitale-ethik/

 

Das KI-Manifest – Sechs Thesen zur Künstlichen Intelligenz

By Matthias Horx, Trend- und Zukunftsforscher, Publizist und

  1. KI ist ein Mythos
  2. KI ist ein Missverständnis
  3. KI ist eib Meister der Prognose
  4. KI erzwingt ein Upgrade menschlicher Intelligenz und Empathie
  5. KI ist ein Jobshifter, kein Jobkiller
  6. KI stellt die Frage nach der Freiheit neu

Source: https://www.horx.com/schluesseltexte

 

Mapping the AI ethics initiatives terrain

While artificial intelligence (AI) applications are numerous, AI creates novel ethical challenges that threaten both users and non-users of the technology, including exacerbating existing inequalities and generating discrimination and bias.

Study: https://www.europarl.europa.eu/RegData/etudes/STUD/2020/634452/EPRS_STU(2020)634452_EN.pdf 

Source: https://epthinktank.eu/2020/07/16/mapping-the-ai-ethics-initiatives-terrain/