...

Generative KI: Jeder dritte Nutzer findet Fehler

ChatGPT & Co: Fast jeder dritte KI-Nutzer findet Fehler
In der digitalen Ära, in der Künstliche Intelligenz (KI) immer stärker in unseren Alltag integriert wird, zeigt eine aktuelle Umfrage des TÜV-Verbands, dass zwar drei von vier Nutzern mit den Ergebnissen generativer KI-Anwendungen zufrieden sind, jedoch fast ein Drittel der Anwender:innen regelmäßig fehlerhafte Informationen bemängelt. Während die Technologie wie ChatGPT oder DeepSeek ein enormes Potenzial besitzt, bleibt ein kritischer Umgang unerlässlich. Die Nutzer:innen tendieren dazu, KI-generierte Inhalte durch eigene Recherchen zu überprüfen, und fragen vermehrt nach expliziten Quellenangaben. Diese Entwicklung unterstreicht die Bedeutung eines reflektierten Einsatzes von KI im beruflichen Kontext, um die Möglichkeiten der Technologie optimal auszuschöpfen und zugleich die Vertrauenswürdigkeit zu wahren.
Werbung auf Nachrichtenseiten nervt dich auch? Uns genauso.
Leider ist sie für viele Plattformen überlebenswichtig – aber wir wollen einen anderen Weg gehen. Bei uns steht der Inhalt im Fokus, nicht blinkende Banner oder störende Pop-ups. Wenn dir dieser Beitrag gefallen hat und du unsere werbefreie Arbeit unterstützen möchtest, freuen wir uns riesig über einen Kaffee. Mit deiner Unterstützung hilfst du uns, auch in Zukunft unabhängig, leserfreundlich und voller Mehrwert zu bleiben.

Bremen (VBR).

In einer aktuellen Umfrage des TÜV-Verbands, die im Oktober 2024 durchgeführt wurde, zeigt sich ein differenziertes Bild über den Einsatz von generativer Künstlicher Intelligenz. Trotz der steigenden Popularität dieser Technologien, zu denen ChatGPT, Claude und andere gehören, sind die Nutzer:innen durchaus kritisch. Zwar äußern sich 75 Prozent zufrieden mit den Ergebnissen ihrer KI-Anwendungen, doch gleichzeitig betreiben 78 Prozent eigene Recherchen, um die erhaltenen Informationen abzusichern.

Diese kritische Herangehensweise ist nicht unbegründet: Fast ein Drittel der Anwender:innen (31 Prozent) weist darauf hin, dass die gelieferten Informationen häufig fehlerhaft oder inkorrekt sind. "Die Ergebnisse generativer KI-Anwendungen sind in der Regel als Erstaufschlag hilfreich, aber alles andere als perfekt", erläutert Patrick Gilroy, Referent für Künstliche Intelligenz und beim TÜV-Verband. Er betont die Notwendigkeit, Antworten der KI zu hinterfragen und mit eigenen Erkenntnissen zu verknüpfen, um die Potenziale der vollständig auszuschöpfen.

Ein weiteres Problem der KI-Systeme, so der Bericht, ist die Qualität der zugrundeliegenden Trainingsdaten, die oft lückenhaft oder fehlerbehaftet sind. Zudem spielen algorithmische Verzerrungen sowie Manipulationen aus politischen und wirtschaftlichen Interessen herein. Beispiele finden sich in Modellen wie DeepSeek und dem Grok-Modell von Elon Musks xAI, deren Zensurmaßnahmen bestimmte Themenbereiche betreffen. Solche Einschränkungen werfen die Frage auf, "wer diese Regeln nach welchen Vorgaben festlegt" (Zitat-Quelle: ).

Besonders problematisch sind sogenannte "halluzinierte" Informationen, bei denen die KI selbstbewusst falsche Daten präsentiert oder erfundene Quellen angibt, anstatt Nichtwissen einzuräumen. Inzwischen bieten viele Anbieter verbesserte Funktionen für detailliertere Analysen, doch bleibt die Einordnungsfähigkeit der Nutzer:innen entscheidend. Patrick Gilroy betont: "Damit KI langfristig Vertrauen gewinnt, müssen Transparenz und Verlässlichkeit der Systeme weiter verbessert werden. Und auf Seiten der Nutzer:innen darf zunehmende Vertrautheit mit generativer Ko-Intelligenz nicht das eigene kritische Denken ausschalten."

Um einen sicheren Umgang mit generativer KI zu gewährleisten, empfiehlt der TÜV-Verband verschiedene Maßnahmen wie das Prüfen von Quellen, den Einsatz spezialisierter Faktencheck-Websites und die Beachtung von Aktualität und Konsistenz der gelieferten Informationen. Der Ausbau von Kompetenzen im Umgang mit KI steht dabei im Vordergrund, weshalb der TÜV-Verband Partner der "AI Skilling Alliance Deutschland" ist und entsprechende Weiterbildungen anbietet.

Die grundlegende Botschaft lautet also, ein ausgewogenes Verhältnis zwischen sinnvoller Nutzung und kritischer Prüfung der generativen KI-Ergebnisse zu schaffen. Eine Herausforderung unserer Zeit, die uns die Chancen dieser Technologien erst vollumfänglich begreifen lässt.


Für weitere Informationen, Pressekontakte, Bilder oder Dokumente geht es hier zur Quelle mit dem Originaltitel:
ChatGPT & Co: Fast jeder dritte KI-Nutzer findet Fehler

Original-Content übermittelt durch news aktuell.


Werbung mit Mehrwert: Entdecken Sie passende Lektüre zum Thema

Diese Titel können sie günstig auf buecher.de kaufen




Die Zukunft der KI-Nutzung: Chancen, Risiken und der Weg zur verantwortungsbewussten Integration

Mit der zunehmenden Verbreitung von generativer Künstlicher Intelligenz (KI) in alltäglichen und beruflichen Kontexten stellt sich die Frage, wie wir diese Technologien verantwortungsvoll nutzen können, um sowohl individuelle als auch gesellschaftliche Vorteile zu maximieren. Bereits heute geben 53 Prozent der Bundesbürger an, regelmäßig generative KI-Modelle wie ChatGPT oder Claude zu nutzen. Diese breitflächige Akzeptanz zeigt das enorme Potenzial der Technologie, spiegelt jedoch gleichzeitig die Herausforderungen wider, die mit ihrem Einsatz einhergehen.

Eine bedeutende Herausforderung bleibt die Sicherstellung der Qualität und Richtigkeit der von KI gelieferten Inhalte. Trotz einer zufriedenstellenden Nutzererfahrung bei 75 Prozent der Anwender:innen überprüfen 78 Prozent ihre Ergebnisse durch eigene Recherchen. Diese kritische Haltung ist entscheidend für den zukünftigen Erfolg künstlicher Intelligenz. Denn auch wenn KI-Systeme helfen können, kreative Prozesse anzustoßen und Informationen effizienter zu verarbeiten, bleiben sie auf die Qualität ihrer Trainingsdaten und die Neutralität der zugrundeliegenden Algorithmen angewiesen. Die Gefahr algorithmischer Biases wurde in vergangenen Situationen, etwa mit dem Modell DeepSeek oder Grok, deutlich, wo Verzerrungen die Objektivität der Antworten beeinträchtigten.

Ein weiterer Aspekt, der in der Diskussion um die Nutzung generativer KI eine Rolle spielt, ist die fortlaufende Entwicklung von Fähigkeiten der Anwender:innen. Im Berufsleben werden ‚Future Skills‘ zunehmend wichtig, wobei der kompetente und reflektierte Umgang mit KI-Technologien im Vordergrund steht. Die AI Skilling Alliance Deutschland des TÜV-Verbandes leistet hierbei einen wichtigen Beitrag durch kostenlose Bildungsangebote. Die Initiative zielt darauf ab, Transparenz, Verlässlichkeit und letztlich Vertrauen in KI-Systeme zu stärken und so den gesellschaftlichen Mehrwert zu sichern.

Prognosen deuten darauf hin, dass diese Entwicklungen nicht nur technologisch, sondern auch rechtlich Einfluss nehmen werden. Leitlinien, wie die bald erwarteten GPAI Codes of Practice im Rahmen des EU AI Acts, sollen Standards setzen, um eine sichere und ethisch vertretbare Verwendung von KI zu gewährleisten. In einer Welt, in der digitale Kommunikation zunehmend dominiert, wird die Balance zwischen Innovation und Verantwortung zum Schlüssel für nachhaltigen Fortschritt.

Es liegt an uns allen, diese Technologie mit Sorgfalt und Vorsicht zu integrieren, um die Potenziale voll auszuschöpfen, ohne die existierenden Risiken außer Acht zu lassen. Nur durch eine übergreifende Zusammenarbeit aller Beteiligten – von Entwicklern bis hin zu Endnutzern – kann Künstliche Intelligenz ihre Rolle als unterstützendes Werkzeug optimal entfalten.


Weiterführende Informationen auf Wikipedia

  1. Generative Künstliche Intelligenz
  2. ChatGPT
  3. Forsa-Umfrage
  4. Tian’anmen-Massaker
  5. EU AI Act

Weitere Nachrichten aus der Verbands- und Vereinswelt finden Sie in unserem Newsportal.

4 Antworten

  1. Ich hab auch gehört, dass viele Menschen ihre Informationen überprüfen müssen, obwohl sie KI nutzen. Das zeigt doch, dass man der Technik nicht ganz vertrauen kann oder? Gibt es nicht bessere Lösungen?

    1. Ja genau! Aber ich frage mich auch, was die Nutzer machen können, um sicherzustellen, dass die Infos stimmen? Vielleicht sollten Schulen das Thema mehr aufgreifen.

  2. Ich finde es gut, dass die Leute kritisch mit KI umgehen. Aber warum sind so viele Informationen immer noch falsch? Ich verstehe nicht, wie das sein kann. Woher kommen die Daten, die da eingegeben werden?

    1. Das stimmt, Kurt. Es ist wirklich verwirrend. Man sollte mehr Transparenz in der KI-Entwicklung haben. Vielleicht sollten wir mehr darüber lesen, wie diese Systeme trainiert werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Das könnte Sie auch interessieren