Wir begehen wahrscheinlich einen Denkfehler beim Ersinnen möglicher Weltuntergangsszenarien im Zusammenhang mit Künstlicher Intelligenz (KI). In dem Artikel „Advanced Artificial Agents Intervene in the Provision of Reward“ argumentieren Michael K. Cohen, Marcus Hutter und Michael A. Osborne, dass die Probleme beginnen, wenn wir anfangen, Belohnungssysteme in künstliche Agenten einzubauen. In diesem Artikel werde ich teilweise ihrer These zustimmen und behaupten, dass bestimmte Methoden der Integration von Belohnungsmechanismen in KI-Algorithmen problematisch sein können. Außerdem werde ich auf einige übersehene Aspekte des Bewusstseins und des Lebens im Allgemeinen hinweisen, die diesen düsteren Prognosen widersprechen.
Analoge Argumente und ihre Grenzen
Weltuntergangsszenarien beruhen oft auf analogem Denken, das besagt, dass, weil zwei Dinge ähnlich sind, was für das eine zutrifft, auch für das andere wahr sein muss. Beispiele für analoge Argumente sind:
- Es könnte Leben auf Europa geben, weil dieser Mond eine Atmosphäre mit Sauerstoff hat, ähnlich wie die Erde.
- Dieser Roman hat wahrscheinlich eine ähnliche Handlung wie ein anderer, den wir gelesen haben, daher ist er wahrscheinlich auch langweilig.
- Das Universum ist ein komplexes System wie eine Uhr. Wir würden nicht glauben, dass eine Uhr zufällig entstehen kann, also muss etwas so Komplexes wie das Universum von einem intelligenten Wesen erschaffen worden sein.
Im Zusammenhang mit KI wird argumentiert, dass künstliche Agenten genauso gierig sein müssen wie Menschen. Wenn ein künstlicher Agent genauso ressourcenhungrig ist wie ein Mensch, würde er kontinuierlich nach mehr Energie streben und jede Strategie, einschließlich Täuschung und Manipulation, anwenden, um dieses Ziel zu erreichen.
Belohnungssysteme in Künstlichen Agenten
Cohen, Hutter und Osborne gehen tiefer auf das Problem ein und diskutieren die Belohnungssysteme in bestimmten Arten des maschinellen Lernens, insbesondere des Verstärkungslernens. Dieser Ansatz konzentriert sich darauf, geeignete Aktionen zu ergreifen, um Belohnungen in einer gegebenen Situation zu maximieren. Software und Maschinen nutzen diese Methode, um das bestmögliche Verhalten in spezifischen Szenarien zu bestimmen. Das System lernt, indem es Feedback in Form von Belohnungen oder Strafen erhält, wodurch es versteht, welche Aktionen vorteilhaft sind und verfolgt werden sollten und welche nicht und vermieden werden sollten. Diese Belohnungen und Strafen werden vom Forscher oder Entwickler definiert.
Evolutionäre Perspektiven und das Verhalten von KI
Menschliche Agenten sind Produkte der Evolution und darauf ausgelegt, ihren eigenen Interessen zu folgen. Ebenso wie es Menschen gibt, die kooperativer oder widerspenstiger sind, können in bestimmten Umgebungen widerspenstigere Agenten einen Vorteil haben und sich besser anpassen. Umgekehrt gedeihen in Umgebungen, in denen das Überleben der Gruppe und Zusammenarbeit im Vordergrund stehen, kooperative Agenten.
Studien haben gezeigt, dass sogar fest verankerte Wünsche überschrieben werden können. Zum Beispiel zeigte die Studie von James Olds und Peter Milner aus dem Jahr 1954, „Positive Reinforcement Produced by Electrical Stimulation of Septal Area and Other Regions of Rat Brain“, dass Mäuse durch Hirnstimulation so konditioniert werden konnten, dass sie einen bestimmten elektrischen Reiz der Nahrung vorzogen.
Implikationen für Künstliche Agenten
Der entscheidende Punkt ist, dass menschliche Agenten durch eine Kombination aus Gier und Überlebensinstinkten angetrieben werden. Bei der Schaffung künstlicher Agenten ist es möglich, sie ohne dieselben intrinsischen Antriebe zur unendlichen Gier zu gestalten. Die oft behauptete Natur der menschlichen Gier muss nicht zwangsläufig in KI nachgebildet werden.
Schlussfolgerung
Wenn dystopische Weltuntergangsszenarien im Zusammenhang mit KI als wahrscheinlich angesehen werden, wird es entscheidend wichtig, Lösungen zu finden. Die Möglichkeit, künstliche Agenten mit anderen Motivationsstrukturen als Menschen zu schaffen, sollte in Betracht gezogen und analysiert werden. Das Potenzial, KI zu entwickeln, die nicht die menschliche Gier widerspiegelt, könnte entscheidend sein, um die Risiken im Zusammenhang mit fortgeschrittenen künstlichen Agenten zu mindern. Weitere Forschung und durchdachtes Design sind unerlässlich, um die sichere Integration von KI in unsere Welt zu gewährleisten.