OpenAI, der Entwickler hinter ChatGPT, präsentiert ein umfassendes Sicherheitskonzept für seine KI-Modelle. Dieses Konzept soll Risiken in vier Schlüsselbereichen bewerten und minimieren.
Die Risiken werden in vier Bereichen bewertet: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohungen, Überzeugungskraft und Modellautonomie. Jede Kategorie erhält eine Risikostufe von “niedrig” bis “kritisch”.
Für jede Risikokategorie werden spezifische Sicherheitsmaßnahmen vorgesehen. Ziel ist es, dass nur Modelle mit maximal “mittlerem” Risiko eingesetzt werden. Modelle mit “kritischer” Risikostufe dürfen nicht weiterentwickelt werden.
Die Einführung von ChatGPT hat nicht nur Interesse, sondern auch Bedenken geweckt. Viele Menschen sehen in KI eine potenzielle Bedrohung für die menschliche Zivilisation. OpenAI reagiert darauf mit seinem neuen Sicherheitskonzept.
Via Der Standard
Kennt ihr das Problem des ersten Eindrucks? Mit dem ersten Eindruck macht man in der Regel alles klar. Man entscheidet…
Apple steht erneut im Mittelpunkt der Kritik, nachdem das Unternehmen seine Gebührenstruktur für Apps außerhalb des App Stores angepasst hat.…
Apple hat nach einer Untersuchung der Europäischen Kommission seine Richtlinien für den App Store in der EU geändert. Diese Änderungen…
Der von Humane entwickelte AI Pin, gedacht als revolutionäres Wearable, das Informationen auf beliebige Oberflächen projiziert, konnte die hohen Erwartungen…
Apple plant eine neue Version des Mac mini, die das kleinste Desktop-Computer-Modell des Unternehmens sein wird. Diese Einführung ist Teil…
Apple plant, seine neuen Apple Intelligence-Funktionen schrittweise einzuführen. Einige dieser fortschrittlichen Funktionen könnten bald kostenpflichtig sein. Analysten diskutieren mögliche Preise…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen