Experte zur Entwicklung Künstlicher Intelligenz: "Eine Art Kampf zwischen Mensch und Maschine"

2021-12-14 17:41:48 By : Ms. Mina He

Was ist heute wichtig. Lesen Sie den RND-Newsletter "Der Tag"

Jeden Morgen die wichtigsten News, Hintergrundinformationen und Termine des Tages.

Wie bewahren wir die Menschheit in einer Welt intelligenter Maschinen? Wie bringen wir künstliche allgemeine Intelligenz, Programmierung mit den kognitiven Fähigkeiten des menschlichen Gehirns, mit humanistischen Werten in Einklang? Wie lässt sich die Ausbreitung der Gefahren von Big Tech eindämmen? Das sind die Fragen, die den KI-Forscher Mark Nitzberg beschäftigen.

Er ist Executive Director des Center for Human-Compatible AI (CHAI) an der UC Berkeley und Leiter der Technologieforschung beim Berkeley Round Table Forum on International Business. Gemeinsam mit Olaf Groth hat Mark Nitzberg das Buch „The AI ​​Generation: Shaping Our Global Future With Thinking Machines“ veröffentlicht. Im Interview mit dem RedaktionsNetzwerk Deutschland (RND) spricht der 60-Jährige in Berkeley über die Macht der Algorithmen und den globalen Wandel durch künstliche Intelligenz.

Herr Nitzberg, Sie schreiben über die „schöne neue Welt der maschinellen Leistungsgesellschaft“, die Künstliche Intelligenz mit sich bringt. Wie wird diese Welt sein? (Das Wort „Meritokratie“ leitet sich vom lateinischen „Verdienst“ und dem altgriechischen „Herrschaft“ ab; „Maschinen-Meritokratie“ ist eine Metapher für die Weltordnung, in der Maschinen aufgrund ihrer „Verdienste“ dominieren, Red. ).

Mark Nitzberg: Die einfache Antwort lautet: Es ist schon da. Fortschrittliche Computerlösungen werden auf allen Ebenen der menschlichen Aktivität integriert. Wir haben hochvernetzte Systeme. Sie führen von zentralen Rechenzentren in die Taschen der Menschen. In der Tasche, wenn Sie ein Handy haben.

Sehr hohe Rechenleistung, Netzwerksynergien und extrem schnelle technologische Fortschritte prägen das Bild. Was ist grundsätzlich neu an den Veränderungen, die wir jetzt erleben?

Es gab schon große Veränderungen. Die Entwicklung des Luftverkehrs, die ersten Automobile. Aber diese Änderung ist viel umfassender und betrifft viele weitere Bereiche. Die Hälfte der Weltbevölkerung schaut morgens beim Aufwachen auf einen kleinen Bildschirm. Und das ist nicht mit einer Zeitung zu vergleichen. Algorithmen bestimmen, was Sie zuerst sehen und was Sie als nächstes sehen. Sie optimieren für ein bestimmtes Ziel und nicht unbedingt in unserem besten Interesse. Die Idee ist, dass sie etwas finden sollten, das Ihrem Geschmack entspricht.

Doch wie die neuesten Facebook-Enthüllungen gezeigt haben, geht es letztlich darum, das Unternehmensergebnis zu optimieren. Die Benutzer sind von untergeordneter Bedeutung. Die zentrale Frage lautet: Wie kann das Unternehmen Sie nutzen und verändern, um finanziell erfolgreicher zu sein?

Die Generation der „Digital Natives“ kennen wir bereits. Kommen auch "KI-Natives" hinzu?

Das ist bereits der Fall. Wir sind bereits auf Algorithmen angewiesen. Sie bringen uns von A nach B, verbinden uns mit einer Antwort auf eine Frage. Sie helfen uns bei der Entscheidung, was wir als nächstes essen. Sie lassen uns wissen, worüber unsere Freunde gerade nachdenken. Dies wird als Verstärkungslernen bezeichnet. Es ist eine Art Kampf zwischen Mensch und Maschine, und die Maschine gewinnt immer. Wir müssen sehr genau darauf achten, wofür wir optimieren. Das mache ich bei CHAI.

Der Oxforder Zukunftsdenker Nick Bostrom warnte 2003 vor "Superintelligenz", also der möglichen Entstehung einer KI, die in jeder Hinsicht intelligenter als der Mensch wäre ...

Dies ist eine Art Gedankenexperiment, das es schon lange gibt. Wir müssen auf den Golem vor viertausend Jahren zurückblicken. Bei den technologischen Fortschritten geht es heute weder um individuelle Intelligenz, noch darum, dass wir eine Maschine mit Superintelligenz schaffen. Es geht um verteilte Systemintelligenz, die auch ganz anders funktionieren kann, als wir denken. Milliarden von Jahren evolutionärer Entwicklung sind in unser Gehirn geflossen, aber der breitere Kontext ist, dass Milliarden von Menschen, die mit bestimmten Arten von Algorithmen verbunden sind, Superintelligenz im großen Stil ermöglichen.

In gewisser Weise haben wir dies bereits erreicht. Systeme, die für einfache Ziele optimieren, können ungewollt große Auswirkungen auf die Gesellschaft haben. Wir müssen einen Weg finden, die unbeabsichtigten Folgen, die negativen Folgen, zu messen und sie dann in das System zurückzugeben, um sicherzustellen, dass seine Ziele angepasst werden und unseren Wünschen entsprechen.

Am Center for Human-Compatible AI arbeiten Sie an der Mensch-Maschine-Anpassung in der KI. Was erhoffst du dir damit zu erreichen?

Bis vor kurzem, vor etwa fünf Jahren, haben wir noch nicht einmal darüber nachgedacht, wie wir Systeme bauen können, die nachweislich unseren Interessen als Individuen und als Gesellschaft entsprechen. Nehmen wir als Beispiel ein System, das das Fahrverhalten von Menschen beeinflusst. Wie können wir sicherstellen, dass es sicher ist? Wir bei CHAI versuchen, die KI auf eine neue Basis zu stellen, um die Sicherheit zu verbessern, Standards zu schaffen und Aufsichtsgremien für Algorithmen einzurichten, wie dies in anderen Technologiebereichen bereits der Fall ist.

Im Vorwort zu Ihrem Buch schreibt Admiral James Stavridis, dass fortschrittliche kognitive Technologien sowohl ein Allheilmittel als auch die Büchse der Pandora sind ...

Wenn wir etwas wirklich Mächtiges bauen ... Und wir haben noch nie etwas in der Größenordnung gebaut, wie wir es jetzt tun. Dies ist das größte technologische System, das der Mensch je geschaffen hat. Was es tun könnte, ist sehr schwer vorherzusagen, und wenn es in die Hände eines Gegners gerät ... Admiral Stavridis hat ein Buch darüber geschrieben. „2034: Ein Roman des nächsten Weltkriegs“. In den falschen Händen könnte so viel Macht den Schaden anrichten, den wir im Atomzeitalter befürchten. Bei CHAI können wir Systeme bauen, die sich als sicher erwiesen haben. Aber dann wird es Menschen geben, die diese Schutzmaßnahmen nicht nutzen, und wir müssen diese Risiken reduzieren.

Bei maschinellen Lernsystemen geht es oft um den Black-Box-Ansatz, aber der Markt scheint sich nach vorhersehbareren und transparenteren Lösungen zu sehnen ...

Dies ist ein sehr wichtiges Thema. Wir bauen auf Machine Learning basierende Systeme zusammen, füttern sie mit Daten und sie treffen Entscheidungen. Aber wir können nicht wirklich erklären, warum sie in bestimmten Situationen bestimmte Entscheidungen treffen. Dieses Forschungsgebiet nennt sich „Explainable AI“. Wir werden diese Systeme nicht einfach deshalb aufgeben, weil sie eine fast magische Effizienz haben. Aber wir müssen einen Weg finden, um sicherzustellen, dass wir eine Erklärung bekommen, wenn etwas schief geht.

Der andere Aspekt ist, ob wir Systeme erforschen werden, die so mächtig sind, dass sie viel Schaden anrichten können. Es gibt Bereiche der Wissenschaft, in denen eine echte Gefahr besteht. Gene Editing ist ein solcher Bereich. In Berkeley ermöglicht uns das CRISPR-System, Gene zu verändern. Jennifer Doudna forscht auf diesem Gebiet. Hochleistungssysteme werden uns immer faszinieren und die Forschung nicht aufgeben, sondern Standards einführen wollen. Gleichzeitig gibt es einige Bereiche, in denen wir meiner Meinung nach eine harte Linie ziehen müssen. Mein Kollege Stuart Russell und ich stimmen zu: Die Tatsache, dass wir vollständig autonome tödliche Waffen bauen können, bedeutet nicht, dass wir dies zulassen sollten.

Wo sehen Sie die größten Herausforderungen bei der Implementierung von KI? Dass es zu Social Engineering führen könnte? Zur Joboptimierung und Umschulung?

Das Problem mit den Arbeitsplätzen gibt es seit Beginn der Automatisierung. Wir mussten viele soziale Veränderungen vornehmen, um uns selbst zu schützen. Aber die Automatisierung harter Arbeit hat einen positiven Aspekt. Wir bei CHAI wissen nicht, wie viele Arbeitsplätze verloren gehen. Sicherlich werden einige Aufgaben wegfallen, aber nicht unbedingt ganze Jobs. In Norwegen muss jedes Unternehmen seine Mitarbeiter für den nächsten Job ausbilden und dafür bezahlen. Ich denke, das ist ein Teil des Erfolgsrezepts.

Sie schreiben über die grundlegende Entwicklung der KI durch die drei Cs – „Erkenntnis, Bewusstsein und Gewissen“. Bei Bewusstsein geht es darum, wie KI unser Leben, unsere Gesellschaft und unsere Wirtschaft beeinflusst. Bei "Gewissen" geht es um ethische Festlegungen, zum Beispiel durch die Entwicklung einer KI-Charta ...

Die drei Cs waren ein absolut tolles Konzept für ein Buch. Wir befinden uns jetzt in einer Zeit, in der viele kognitive Tests mit KI-Tools entwickelt werden. „Bewusstsein“ ist eher eine philosophische Überlegung. "Gewissen" aber ... Wir erleben die ersten wirklich ernsthaften KI-Regulierungen, abgesehen von der KI-Bill of Rights in den USA, einer Reihe von Prinzipien, die uns leiten werden. China hat letzten Monat einige ziemlich strenge Vorschriften erlassen. Dies zeigt, dass sich das „Gewissen“ dort in konkreten Gesetzen manifestiert.

Werden zukünftige Fortschritte in der Künstlichen Intelligenz die Machtverhältnisse in der Welt verändern?

Wird dies der nächste Durchbruch in der Künstlichen Intelligenz schaffen? Ich glaube nicht, dass das Land dahinter einen Vorteil haben wird. Da sind zum Beispiel diese großen KI-Sprachmodelle: China hat Wu Dao 2.0 mit 1,75 Billionen Parametern, das amerikanische GPT-3 muss mit „nur“ 175 Milliarden Parametern auskommen. Das Problem ist, dass das chinesische Modell drei volle Tage Strom aus dem Drei-Schluchten-Staudamm braucht, um trainiert zu werden. Und da in China bereits Stromknappheit herrscht, wollen sie nicht nur Energie verschwenden.

Wo stehen Europa und Deutschland in diesem Rennen?

Deutschland und Europa spielen eine sehr wichtige Rolle bei der Bewältigung der ethischen und gesellschaftlichen Herausforderungen, die mit dem Aufstieg der KI verbunden sind. Deutsche Politiker gehörten zu den ersten, die im Silicon Valley und dem KI-Labor in Berkeley Fragen zu Standards für autonomes Fahren stellten. Wir hatten Besuch vom Wirtschaftsministerium und von Bundestagsabgeordneten. Sie haben sich aktiv mit großen Unternehmen und Hochschulen ausgetauscht. Deutschland muss tun, was es besonders gut kann. Und das sind in erster Linie Produktion und Technik. Daher muss es sich auf KI-Anwendungen in diesen Bereichen konzentrieren. Außerdem müssen sowohl die USA als auch Europa herausfinden, wie sie bei der Entwicklung der nächsten Generation von KI-Chips unabhängig bleiben können. Und das ist eine transatlantische Aufgabe.

Was ist Ihre wichtigste Erkenntnis aus der jahrelangen Arbeit mit KI?

Dass wir in Situationen, in denen wir unseren eigenen Raum aufgeben, nicht schlafwandeln. Wir müssen unseren Gedanken freien Lauf lassen, anstatt auf einen Bildschirm oder ein System zu schauen, das das Denken für uns übernimmt.

Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir halten Sie über neue Entwicklungen auf dem Laufenden.