Services

Superintelligenz – OpenAI gründet eigenes Team

Mit ChatGPT ist OpenAI ein großer Durchbruch in Sachen AI gelungen. Jetzt gründet die Firma ein eigenes Team rund um das Thema Superintelligenz – und deren Gefahren.

OpenAI, eine führende Organisation in der KI-Forschung, hat angekündigt, ein spezielles Team zur Bewältigung der Risiken von superintelligenten KI-Systemen zu bilden. Doch was bedeutet das für die Zukunft der KI?

Superintelligenz: Eine neue Ära der KI

Superintelligenz bezeichnet hypothetische KI-Modelle, die intelligenter sind als die klügsten Menschen und in mehreren Fachgebieten statt nur in einem Bereich hervorragende Leistungen erbringen. OpenAI geht davon aus, dass solche Modelle noch vor Ende des Jahrzehnts Realität werden könnten. “Superintelligenz wird die wirkungsvollste Technologie sein, die die Menschheit je erfunden hat und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen”, so die Non-Profit-Organisation. Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen.”

Kontrolle und Ausrichtung der Superintelligenz

Das neue Team wird von OpenAI Chief Scientist Ilya Sutskever und Jan Leike, dem Leiter der Ausrichtungsabteilung des Forschungslabors, geleitet. OpenAI plant zudem, 20 Prozent seiner derzeit gesicherten Rechenleistung für die Initiative bereitzustellen, mit dem Ziel, einen automatisierten Ausrichtungsforscher zu entwickeln. Ein solches System würde OpenAI theoretisch dabei helfen, sicherzustellen, dass eine Superintelligenz sicher zu nutzen und mit menschlichen Werten ausgerichtet ist. “Obwohl dies ein unglaublich ehrgeiziges Ziel ist und wir nicht garantiert erfolgreich sein werden, sind wir optimistisch, dass eine konzentrierte, konzertierte Anstrengung dieses Problem lösen kann”, so OpenAI.

Regulierung der KI: Eine globale Herausforderung

Die Ankündigung erfolgt zu einem Zeitpunkt, an dem Regierungen weltweit überlegen, wie sie die aufstrebende KI-Industrie regulieren sollen. In den USA hat Sam Altman, der CEO von OpenAI, in den letzten Monaten mindestens 100 Bundesgesetzgeber getroffen. Öffentlich hat Altman erklärt, dass eine KI-Regulierung “unverzichtbar” ist und dass OpenAI “eifrig” daran arbeitet, mit politischen Entscheidungsträgern zusammenzuarbeiten. Doch wir sollten solchen Proklamationen und tatsächlich auch Bemühungen wie dem Superausrichtungsteam von OpenAI skeptisch gegenüberstehen.

Via Engadget

Jan Gruber

Chefredakteur Magazin und Podcasts

Neueste Artikel

Dead On Arrival? Die verpasste Chance der Apple Vision Pro in Deutschland

Kennt ihr das Problem des ersten Eindrucks? Mit dem ersten Eindruck macht man in der Regel alles klar. Man entscheidet…

9. August 2024

Apple’s Neue Gebühren Verärgern Epic Games und Spotify – Es Gibt Nur Eine Lösung

Apple steht erneut im Mittelpunkt der Kritik, nachdem das Unternehmen seine Gebührenstruktur für Apps außerhalb des App Stores angepasst hat.…

9. August 2024

Apple Ändert EU App-Store-Richtlinien nach Untersuchung durch die Kommission

Apple hat nach einer Untersuchung der Europäischen Kommission seine Richtlinien für den App Store in der EU geändert. Diese Änderungen…

9. August 2024

AI Pin von Humane enttäuscht: Mehr Rückgaben als Neuverkäufe

Der von Humane entwickelte AI Pin, gedacht als revolutionäres Wearable, das Informationen auf beliebige Oberflächen projiziert, konnte die hohen Erwartungen…

9. August 2024

Apples Mac Mini mit M4-Chip wird der kleinste Computer aller Zeiten

Apple plant eine neue Version des Mac mini, die das kleinste Desktop-Computer-Modell des Unternehmens sein wird. Diese Einführung ist Teil…

8. August 2024

Analysten spekulieren: Apple Intelligence könnte 20 USD/Monat kosten

Apple plant, seine neuen Apple Intelligence-Funktionen schrittweise einzuführen. Einige dieser fortschrittlichen Funktionen könnten bald kostenpflichtig sein. Analysten diskutieren mögliche Preise…

8. August 2024

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen