Autor: A.R. Bild: Wikipedia/John Phillips Lizenz: CC BY 2.0 DEED
Inmitten einer Führungskrise bei OpenAI, einem Pionier der KI-Entwicklung, warnt Ethereum-Mitbegründer Vitalik Buterin vor den potenziellen Gefahren einer sogenannten „superintelligenten“ KI. Diese Form der Künstlichen Intelligenz, die menschliche kognitive Fähigkeiten erreichen oder sogar übertreffen könnte, weckt zunehmend Besorgnis unter Experten. Sie befürchten, dass die Welt nicht angemessen auf den Umgang mit solch fortschrittlichen KI-Systemen vorbereitet sei. Buterin, bekannt für seine tiefgreifenden technologischen Einsichten, äußerte sich hierzu kritisch auf der Plattform X und betonte die Risiken:
„Superintelligente KI ist sehr riskant, und wir sollten sie nicht überstürzen. Wir sollten gegen jene vorgehen, die es versuchen. Keine 7 Billionen Dollar teuren Serverfarmen, bitte. Ein starkes Ökosystem offener Modelle, die auf Verbraucherhardware laufen, ist eine wichtige Absicherung gegen eine Zukunft, in der der von KI erfasste Wert hyperkonzentriert ist und der größte Teil des menschlichen Denkens von einigen wenigen zentralen Servern gelesen und vermittelt wird, die von einigen wenigen Menschen kontrolliert werden. Diese Modelle bergen auch ein viel geringeres Risiko für eine Katastrophe als unternehmerischer Größenwahn oder militärische Ambitionen.“
Diese Äußerungen kommen zu einer Zeit, in der Jan Leike, der ehemalige Leiter der Ausrichtungsabteilung bei OpenAI, seinen Rücktritt aufgrund von Meinungsverschiedenheiten über die Prioritäten des Unternehmens bekannt gab. Leike beklagte, dass Sicherheitsstandards und Prozesse zu Gunsten von kommerziell ausgerichteten Produkten vernachlässigt würden. Buterin schlägt vor, offene Modelle auf Verbraucherhardware zu fördern als eine Absicherung gegen die Möglichkeit, dass eine kleine Gruppe von Unternehmen den Großteil menschlicher Gedanken kontrollieren könnte. Diese Modelle würden auch das Risiko einer Katastrophe durch „unternehmerischen Größenwahn oder militärische Ambitionen“ verringern.
Diese Diskussionen sind besonders relevant angesichts der jüngsten Führungskrise bei OpenAI, einschließlich des Rücktritts von Ilya Sutskever, Mitbegründer und Chefwissenschaftler, der jedoch keine Bedenken bezüglich der AGI äußerte, aber seine Hoffnung ausdrückte, dass OpenAI eine sichere und nützliche AGI entwickeln wird. Die Debatte um KI und ihre Kontrolle wird weiterhin intensiv geführt, besonders unter Berücksichtigung der zunehmenden Einflussnahme großer Technologieunternehmen im KI-Sektor.