Elon Musk: Legt die KI in Ketten!
Das Enfant terrible der Technik-Szene Elon Musk hat sich kürzlich weit aus dem Fenster gelehnt, als er Künstliche Intelligenz als gefährliche Technologie bezeichnet hat. Musk warnt davor, dass in einigen Jahren eine künstliche Superintelligenz entstehen könnte. Er sprach sich vor amerikanischen Gouverneuren dafür aus, die KI zu regulieren. Das scheint keine schlechte Idee zu sein.
Das Enfant terrible der Technik-Szene Elon Musk hat sich kürzlich weit aus dem Fenster gelehnt, als er Künstliche Intelligenz als gefährliche Technologie bezeichnet hat. Musk warnt davor, dass in einigen Jahren eine künstliche Superintelligenz entstehen könnte. Er sprach sich vor amerikanischen Gouverneuren dafür aus, die KI zu regulieren. Das scheint keine schlechte Idee zu sein.
Auf dem diesjährigen Sommertreffen der National Governors Association bezeichnete Musk die KI als „fundamentales Risiko für das Fortbestehen der menschlichen Zivilisation“. Mehrere Experten der KI-Szene reagierten sauer auf Musks Unkenrufe. Mit seinen Science-Fiction-artigen Warnungen würde er angeblich nur von den wahren Gefahren der KI ablenken, die sich jetzt schon zeigen. Ein Beispiel ist der Einsatz von schwacher KI in Banken für die Frage, ob jemand kreditwürdig ist oder ob jemand einen Job kriegt. Oder die Tatsache, dass die KI in den Händen einer kleinen Anzahl Technologie-Giganten ist, die damit ihre eh schon große Macht weiter vergrößern.
Zu spät
Musk betonte gegenüber den Politikern, dass die Regierung die Aufsicht über die Entwicklung der KI haben müsse. Die Firmen seien nun alle scharf auf die Entwicklung von KI. Wer hier nicht mitspielt, wird durch die Konkurrenz vernichtet werden. Ohne Steuerung führe dies nicht unbedingt zur bestmöglichen Entwicklung für die Allgemeinheit. Er meinte: „Ich glaube ernsthaft, dass eine Regulierung durch die Regierung notwendig ist, um sicherzustellen, dass es dem Allgemeinwohl dienen wird.“
Keine gute Idee, bemerkte einer von Musks Kritikern, denn Regulierung steht Innovation im Weg. Doch der Haupt-Effekt sei laut Musk eben kein Bug, sondern ein Feature. Wenn nicht sichergestellt werden kann, dass eine bestimmte KI-Anwendung sicher ist, muss die Entwicklung daran eben solange pausieren. Musk meint: „KI ist einer der seltenen Fälle, wo man zwingend proaktiv regulieren muss statt hinterher. Denn wenn man versucht, noch hinterher einzugreifen, dann ist es schon zu spät.“
Superintelligenz
Musk bezieht seine Vision zur KI aus dem Buch Superintelligence des schwedischen Philosophen Nick Bostrom. In dem im Jahr 2014 erschienenen Buch beschreibt Bostrom strukturiert die möglichen Gefahren eine superintelligenten Entität, die in vielen Aspekten schlimmer ist als Menschen. Eine der Gefahren nennt sich Steuerungsproblematik. Wenn Menschen eine Superintelligenz entwickeln, ist es schwierig, diese unter Kontrolle zu halten. Vermutlich wird sich die überlegene Intelligenz bemühen, uns zu entkommen. Und dann können wir nur hoffen, dass sie sich nicht gegen uns wendet.
Ein zweiter Punkt ist, dass man nicht präzise abschätzen kann, wann genau eine Superintelligenz entsteht. Ein mögliches Szenario ist ein selbstlernendes System, das autonom an der eigenen Verbesserung arbeitet. Es kann dabei eine positive Rückkoppelung entstehen in der Art, dass das immer besser funktionierende System sich immer besser und schneller optimieren kann. Dadurch kann die Zeit, in der der Übergang von intelligent nach superintelligent stattfindet, sehr klein sein. Zu kurz möglicherweise, dass Menschen noch eingreifen könnten.
Existentielles Risiko
Bostrom gibt keine Einschätzung, wann eine solche Superintelligenz entstehen wird. Er gesteht sogar ein, dass es denkbar ist, dass so eine Superintelligenz nicht entstehen wird. Aber wenn eine entsteht, dann können wir sie nicht beherrschen. Eine Superintelligenz ist daher ein existentielles Risiko. Mit anderen Worten handelt es sich um ein Risiko, das bei negativem Ausgang das Ende der Menschheit bedeuten kann. Aus diesem Grund sollten wir vorab gut darüber nachdenken, warnt Bostrom.
Die KI-Fachleute die Musk kritisieren, haben sicher Recht damit, dass mehr Gewicht auf Probleme gelegt werden muss, welche die KI Tag für Tag mit sich bringt. Doch an die langfristigen Folgen zu denken, die Bostrom zu bedenken gibt, ist ja kein Gegensatz. Im Gegenteil können sich die Effekte von kurz- und langfristigen Auswirkungen gegenseitig verstärken. Grund genug, explizit zu formulieren, was wir als Menschen von der KI wollen. Dazu passt auch der Vorschlag von Musk, die Entwicklung von KI staatlich zu beaufsichtigen. Die Regierung muss bei technischen Firmen und Universitäten ein Auge auf die KI-Entwicklung haben, um uns alle zu schützen.
Auf dem diesjährigen Sommertreffen der National Governors Association bezeichnete Musk die KI als „fundamentales Risiko für das Fortbestehen der menschlichen Zivilisation“. Mehrere Experten der KI-Szene reagierten sauer auf Musks Unkenrufe. Mit seinen Science-Fiction-artigen Warnungen würde er angeblich nur von den wahren Gefahren der KI ablenken, die sich jetzt schon zeigen. Ein Beispiel ist der Einsatz von schwacher KI in Banken für die Frage, ob jemand kreditwürdig ist oder ob jemand einen Job kriegt. Oder die Tatsache, dass die KI in den Händen einer kleinen Anzahl Technologie-Giganten ist, die damit ihre eh schon große Macht weiter vergrößern.
Zu spät
Musk betonte gegenüber den Politikern, dass die Regierung die Aufsicht über die Entwicklung der KI haben müsse. Die Firmen seien nun alle scharf auf die Entwicklung von KI. Wer hier nicht mitspielt, wird durch die Konkurrenz vernichtet werden. Ohne Steuerung führe dies nicht unbedingt zur bestmöglichen Entwicklung für die Allgemeinheit. Er meinte: „Ich glaube ernsthaft, dass eine Regulierung durch die Regierung notwendig ist, um sicherzustellen, dass es dem Allgemeinwohl dienen wird.“
Keine gute Idee, bemerkte einer von Musks Kritikern, denn Regulierung steht Innovation im Weg. Doch der Haupt-Effekt sei laut Musk eben kein Bug, sondern ein Feature. Wenn nicht sichergestellt werden kann, dass eine bestimmte KI-Anwendung sicher ist, muss die Entwicklung daran eben solange pausieren. Musk meint: „KI ist einer der seltenen Fälle, wo man zwingend proaktiv regulieren muss statt hinterher. Denn wenn man versucht, noch hinterher einzugreifen, dann ist es schon zu spät.“
Superintelligenz
Musk bezieht seine Vision zur KI aus dem Buch Superintelligence des schwedischen Philosophen Nick Bostrom. In dem im Jahr 2014 erschienenen Buch beschreibt Bostrom strukturiert die möglichen Gefahren eine superintelligenten Entität, die in vielen Aspekten schlimmer ist als Menschen. Eine der Gefahren nennt sich Steuerungsproblematik. Wenn Menschen eine Superintelligenz entwickeln, ist es schwierig, diese unter Kontrolle zu halten. Vermutlich wird sich die überlegene Intelligenz bemühen, uns zu entkommen. Und dann können wir nur hoffen, dass sie sich nicht gegen uns wendet.
Ein zweiter Punkt ist, dass man nicht präzise abschätzen kann, wann genau eine Superintelligenz entsteht. Ein mögliches Szenario ist ein selbstlernendes System, das autonom an der eigenen Verbesserung arbeitet. Es kann dabei eine positive Rückkoppelung entstehen in der Art, dass das immer besser funktionierende System sich immer besser und schneller optimieren kann. Dadurch kann die Zeit, in der der Übergang von intelligent nach superintelligent stattfindet, sehr klein sein. Zu kurz möglicherweise, dass Menschen noch eingreifen könnten.
Existentielles Risiko
Bostrom gibt keine Einschätzung, wann eine solche Superintelligenz entstehen wird. Er gesteht sogar ein, dass es denkbar ist, dass so eine Superintelligenz nicht entstehen wird. Aber wenn eine entsteht, dann können wir sie nicht beherrschen. Eine Superintelligenz ist daher ein existentielles Risiko. Mit anderen Worten handelt es sich um ein Risiko, das bei negativem Ausgang das Ende der Menschheit bedeuten kann. Aus diesem Grund sollten wir vorab gut darüber nachdenken, warnt Bostrom.
Die KI-Fachleute die Musk kritisieren, haben sicher Recht damit, dass mehr Gewicht auf Probleme gelegt werden muss, welche die KI Tag für Tag mit sich bringt. Doch an die langfristigen Folgen zu denken, die Bostrom zu bedenken gibt, ist ja kein Gegensatz. Im Gegenteil können sich die Effekte von kurz- und langfristigen Auswirkungen gegenseitig verstärken. Grund genug, explizit zu formulieren, was wir als Menschen von der KI wollen. Dazu passt auch der Vorschlag von Musk, die Entwicklung von KI staatlich zu beaufsichtigen. Die Regierung muss bei technischen Firmen und Universitäten ein Auge auf die KI-Entwicklung haben, um uns alle zu schützen.