Könnte KI die größten Probleme der Welt lösen?

Stehen wir kurz davor, künstliche Intelligenz zu schaffen, die in der Lage ist, Antworten auf die dringendsten Herausforderungen der Welt zu finden? Nach stetigen Fortschritten bei grundlegenden KI-Aufgaben in den letzten Jahren ist dies die Vision, die einige führende Technologen für KI haben. Und doch, wie wir diesen großen Sprung machen werden, ist unklar.





Eric Schmidt, Executive Chairman von Alphabet (ehemals Google), sagt, dass KI genutzt werden könnte, um zur Lösung großer Herausforderungen wie Klimawandel und Ernährungssicherheit beizutragen. Bei einer Veranstaltung, die diese Woche in New York einberufen wurde, um die Chancen und Risiken der KI zu diskutieren, machte Schmidt keine Angaben darüber, wie die Technologie für solch komplexe und abstrakte Probleme angepasst werden könnte.

Demis Hassabis, CEO von Google Deepmind, einer Abteilung innerhalb von Google, die bahnbrechende Arbeit im maschinellen Lernen leistet und darauf abzielt, eine künstliche allgemeine Intelligenz hervorzubringen (siehe Googles Intelligence Designer ), sagte, das Ziel dieser Bemühungen sei es, KI für große Herausforderungen zu nutzen. Wenn wir Intelligenz allgemein genug lösen können, können wir sie auf alle möglichen Dinge anwenden, um die Welt zu einem besseren Ort zu machen, sagte er.

Und der Chief Technology Officer von Facebook, Mike Schroepfer, äußerte ähnliche Hoffnungen. Die Stärke der KI-Technologie besteht darin, dass sie Probleme lösen kann, die den ganzen Planeten betreffen, sagte er.



Erich Schmidt

Ein stetiger Strom von Fortschritten – hauptsächlich ermöglicht durch die neuesten maschinellen Lerntechniken – befähigt Computer tatsächlich, immer mehr Dinge zu tun, von der Erkennung des Inhalts von Bildern bis hin zum Führen von kurzen Text- oder Sprachgesprächen. Diese Fortschritte scheinen dazu bestimmt zu sein, die Art und Weise zu verändern, wie Computer in vielen Branchen eingesetzt werden, aber es ist noch lange nicht klar, wie die Branche von der Bildunterschrift zur Bekämpfung von Armut und Klimawandel übergehen wird.

Tatsächlich war Schroepfer nach seinem Vortrag bestrebt, die Erwartungen zumindest kurzfristig einzuschränken. Schroepfer sagte, dass die jüngsten Fortschritte nicht ausreichten, um es Maschinen zu ermöglichen, das menschliche Intelligenzniveau zu erreichen, und dass zwei Dutzend oder mehr große Durchbrüche erforderlich seien, bevor dies geschehe. Und er sagte, viele Leute hätten offenbar eine falsche Vorstellung davon, wie schnell sich das Feld bewege. Die Leute sehen ein cooles Beispiel und extrapolieren daraus, sagte er.



Die Veranstaltung, die von der New York University sowie führenden Unternehmen zur Nutzung künstlicher Intelligenz, darunter Facebook und Google, organisiert wird, kommt zu einem heiklen Zeitpunkt für akademische Forscher und Unternehmen, die auf der Welle des Fortschritts in der KI reiten. Der Fortschritt wird sicherlich viele Branchen revolutionieren, vielleicht mit negativen Folgen, wie etwa der Vernichtung bestimmter Arbeitsplätze (siehe Wem gehören die Roboter?). Es wird sicherlich auch neue ethische Fragen aufwerfen, wie die rechtliche und moralische Haftung in selbstfahrenden Autos oder die Auswirkungen autonomer Waffen (siehe How to Help Self-Driving Cars Make Ethical Decisions ).

Aber der beeindruckende Fortschritt hat einige im Bereich der KI (sowie einige außerhalb) dazu inspiriert, über die langfristigen Auswirkungen der Technologie zu dozieren. Manchmal konzentrierte sich diese Diskussion auf die Herausforderung, die KI zu kontrollieren, sollte sie wesentlich mächtiger und unabhängiger werden – etwas, das heute bei weitem nicht möglich ist.

Sorgen über die langfristigen Risiken von KI inspirierten kürzlich die Gründung einer neuen gemeinnützigen Organisation mit dem Namen OpenAI widmet sich der Förderung künstlicher Intelligenz, die der Menschheit zugute kommt (siehe Was braucht es, um eine virtuose KI zu bauen?). OpenAI wird durch einen milliardenschweren Zuschuss von Elon Musk, dem Gründer von Tesla und SpaceX, finanziert, der sich offen über die langfristigen Gefahren von KI und anderen Technologie-Schwergewichten geäußert hat.



Hassabis und mehrere andere räumten ein, dass die ethischen Fragen ernst genommen werden sollten. Wie bei jeder Technologie müssen wir, wenn sie so leistungsfähig sein soll, darüber nachdenken, wie wir sie ethisch und verantwortungsbewusst einsetzen können, sagte er.

verbergen