Apple AI-Fake-News-Warnungen verdeutlichen das Fehlinformationsproblem der Technik


Jap Erins | Nurfoto Getty Images

Eine künstliche Intelligenzfunktion in iPhones generiert Fake-News-Warnungen und schürt Bedenken hinsichtlich der Fähigkeit der Technologie, Fehlinformationen zu verbreiten.

Letzte Woche wurde eine neue Funktion eingeführt Apfel die Benutzerbenachrichtigungen mithilfe von KI zusammenfasst, falsch zusammengefasste Benachrichtigungen der BBC News-App, die an die Geschichte des Senders über das Halbfinale der PDC World Darts Championship weitergeleitet wurden und behaupteten, der britische Dartspieler Luke Littler habe die Meisterschaft gewonnen.

Der Vorfall ereignete sich einen Tag vor dem Finale des eigentlichen Turniers, das Littler schließlich gewann.

Dann, Stunden nach diesem Vorfall, wurde in einer separaten Benachrichtigung von Apple Intelligence, dem KI-System des Technologieriesen, fälschlicherweise behauptet, Tennislegende Rafael Nadal habe sich als schwul geoutet.

Die BBC versucht seit fast einem Monat, Apple dazu zu bringen, das Problem zu beheben. Britischer Staatssender Habe mich im Dezember bei Apple beschwert Nachdem seine KI-Funktion eine falsche Schlagzeile erzeugte, die suggerierte, dass Luigi Mangione, der verhaftet wurde, nachdem er Brian Thompson, den CEO der Krankenversicherung UnitedHealthcare in New York, getötet hatte, sich selbst erschossen hatte – was nie geschah.

Apple war für eine Stellungnahme nicht sofort erreichbar, als CNBC ihn kontaktierte. Am Montag teilte Apple der BBC mit, dass es an einem Update zur Behebung des Problems arbeite und eine Klarstellung hinzufüge, die zeigt, dass Apple Intelligence für den in Benachrichtigungen angezeigten Text verantwortlich sei. Derzeit erscheinen generierte Nachrichtenberichte direkt von der Quelle.

„Apples Intelligence-Funktionen befinden sich in der Beta-Phase und wir verbessern uns mithilfe des Benutzer-Feedbacks ständig“, sagte das Unternehmen in einer Erklärung, die der BBC mitgeteilt wurde. Apple fügte hinzu, dass es Benutzer dazu ermutigt, Bedenken zu melden, wenn sie „unerwartete Benachrichtigungszusammenfassungen“ sehen.

Die BBC ist nicht die einzige Nachrichtenorganisation, bei der Apple Intelligence Nachrichtenberichte falsch zusammenfasst. Im November verschickte die Einrichtung eine AI-Kurzmeldung Der israelische Ministerpräsident Benjamin Netanyahu hat fälschlicherweise behauptet, er sei verhaftet worden.

Der Fehler wurde von Ken Schweinke, leitender Redakteur der Website für investigativen Journalismus ProPublica, in der Social-Media-App Bluesky gemeldet.

CNBC hat die BBC und die New York Times um einen Kommentar zu Apples vorgeschlagener Lösung für das Fehlinformationsproblem seiner KI-Funktion gebeten.

Das Fehlinformationsproblem der KI

Apple behauptet es KI-generierte Benachrichtigungszusammenfassungen bieten eine effiziente Möglichkeit, die Vorschau von Nachrichten-App-Benachrichtigungen in einer einzigen Benachrichtigung auf dem Sperrbildschirm des Benutzers zu gruppieren und umzuschreiben.

Das ist Apples Spezialität sagt Entwickelt, um Benutzern dabei zu helfen, ihre Benachrichtigungen nach wichtigen Details zu durchsuchen und die überwältigende Flut an Updates zu durchbrechen, mit der viele Smartphone-Benutzer vertraut sind.

Dies hat jedoch zu dem geführt, was KI-Experten als „Halluzinationen“ bezeichnen – durch KI erzeugte Reaktionen, die falsche oder irreführende Informationen enthalten.

„Ich vermute, dass Apple mit den Herausforderungen, die KI-generierte Inhalte mit sich bringen, nicht alleine sein wird. Wir haben bereits viele Beispiele von KI-Diensten gesehen, die wahrheitsgetreu falsche Dinge, sogenannte ‚Illusionen‘, erzählen“, sagt Ben Wood. Ein führender Analyst für technologieorientierte Märkte. Das Forschungsunternehmen CCS Insights sagte gegenüber CNBC.

Da die KI im Fall von Apple versucht, Informationen zu konsolidieren und zu verdichten, um eine grundlegende Zusammenfassung der Informationen anzuzeigen, vermischt sie Wörter auf eine Art und Weise, die Ereignisse falsch darstellt – sie aber selbstbewusst als Tatsachen darstellt.

„Apple hatte die zusätzliche Schwierigkeit, Inhalte in sehr kurze Zusammenfassungen zu komprimieren, was die falschen Nachrichten vermittelte“, fügte Wood hinzu. „Apple wird zweifellos versuchen, dieses Problem so schnell wie möglich anzugehen, und ich bin sicher, dass die Wettbewerber genau beobachten werden, wie sie reagieren.“

Generative KI versucht, die bestmögliche Antwort auf eine vom Benutzer eingegebene Frage oder Aufforderung zu finden, und stützt sich dabei auf große Datenmengen, um die zugrunde liegenden großen Sprachmodelle zu trainieren.

Manchmal kennt die KI die Antwort möglicherweise nicht. Da es jedoch immer so programmiert ist, dass es auf Benutzereingaben reagiert, kann es vorkommen, dass die KI praktisch implizit ist.

Es ist unklar, wann genau Apples Behebung des Fehlers in seiner Benachrichtigungszusammenfassungsfunktion behoben sein wird. Der iPhone-Hersteller erwartet, dass es „in den kommenden Wochen“ eintrifft.



Source link

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert