News

OpenAI führt erweiterten Sprachmodus für ChatGPT ein

OpenAI hat bekannt gegeben, dass der erweiterte Sprachmodus nun für eine kleine Anzahl von zahlenden ChatGPT-Nutzer:innen verfügbar ist. Diese können die neuen, natürlicheren und in Echtzeit geführten Konversationen testen.

Echtzeit-Interaktionen und verbesserte Sprachqualität

Der erweiterte Sprachmodus ermöglicht es ChatGPT, in Echtzeit zu antworten und auch Unterbrechungen zu erkennen. Zudem kann das Modell auf Humor, Sarkasmus und andere subtile Nuancen in der Sprache reagieren. Im Gegensatz zum bisherigen Sprachmodus muss die gesprochene Sprache nicht erst in Text umgewandelt und dann wieder zurückübersetzt werden. Dies führt zu einer geringeren Latenz bei den Interaktionen.

OpenAI hat den erweiterten Sprachmodus erstmals im Mai vorgestellt und dabei eine AI-Stimme namens Sky gezeigt, die der Schauspielerin Scarlett Johansson auffallend ähnlich klang. Diese Stimme wurde ohne Johanssons Erlaubnis erstellt und verwendet, was sie zu einer öffentlichen Stellungnahme veranlasste. Sie äußerte sich schockiert und verärgert über die Tatsache, dass OpenAI-CEO Sam Altman sie mehrfach kontaktiert hatte, um sie als Stimme für ChatGPT zu gewinnen. Johansson lehnte jedoch ab. OpenAI erklärte, dass die Stimme von Sky nicht absichtlich der von Johansson ähneln sollte, entfernte sie aber dennoch, nachdem Johansson rechtliche Schritte eingeleitet hatte.

Sicherheitsmaßnahmen und verbesserte Benutzererfahrung

Seit der Demonstration im Mai hat OpenAI daran gearbeitet, die Sicherheit und Qualität der Sprachgespräche zu verbessern. Der erweiterte Sprachmodus bietet vier voreingestellte Stimmen und verhindert, dass Ausgaben erzeugt werden, die von diesen Stimmen abweichen könnten. Dies soll die Nachahmung von Prominentenstimmen verhindern. OpenAI hat auch Schutzmechanismen implementiert, um Anfragen nach gewalttätigen oder urheberrechtlich geschützten Inhalten zu blockieren. Die ersten Tests sollen dazu dienen, das Feature vor einer breiteren Einführung weiter zu verbessern.

Nutzer:innen, die Zugriff auf den erweiterten Sprachmodus erhalten, werden per E-Mail benachrichtigt. OpenAI plant, diese Funktion schrittweise für mehr Personen verfügbar zu machen. Im Herbst sollen alle Nutzer:innen des Plus-Abonnements Zugriff auf den erweiterten Sprachmodus erhalten.

Quelle: 9To5Mac
Titelbild: OpenAI

Michael Reimann

Neueste Artikel

Dead On Arrival? Die verpasste Chance der Apple Vision Pro in Deutschland

Kennt ihr das Problem des ersten Eindrucks? Mit dem ersten Eindruck macht man in der Regel alles klar. Man entscheidet…

9. August 2024

Apple’s Neue Gebühren Verärgern Epic Games und Spotify – Es Gibt Nur Eine Lösung

Apple steht erneut im Mittelpunkt der Kritik, nachdem das Unternehmen seine Gebührenstruktur für Apps außerhalb des App Stores angepasst hat.…

9. August 2024

Apple Ändert EU App-Store-Richtlinien nach Untersuchung durch die Kommission

Apple hat nach einer Untersuchung der Europäischen Kommission seine Richtlinien für den App Store in der EU geändert. Diese Änderungen…

9. August 2024

AI Pin von Humane enttäuscht: Mehr Rückgaben als Neuverkäufe

Der von Humane entwickelte AI Pin, gedacht als revolutionäres Wearable, das Informationen auf beliebige Oberflächen projiziert, konnte die hohen Erwartungen…

9. August 2024

Apples Mac Mini mit M4-Chip wird der kleinste Computer aller Zeiten

Apple plant eine neue Version des Mac mini, die das kleinste Desktop-Computer-Modell des Unternehmens sein wird. Diese Einführung ist Teil…

8. August 2024

Analysten spekulieren: Apple Intelligence könnte 20 USD/Monat kosten

Apple plant, seine neuen Apple Intelligence-Funktionen schrittweise einzuführen. Einige dieser fortschrittlichen Funktionen könnten bald kostenpflichtig sein. Analysten diskutieren mögliche Preise…

8. August 2024

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen