Banner Leaderboard

Aktenvernichter HSM Securio: Entspannt Akten vernichten – mit 5 Jahren Garantie.

Banner Leaderboard 2

Inwerk: Starte das neue Jahr mit top ergonomischen Büromöbeln. Sonderaktion vom 08.01.–28.01.2024.

ChatGPT & Co: Fast jeder dritte KI-Nutzer findet Fehler

Eine Stu­die des TÜV-Ver­bands zeigt: Die Mehr­heit der Nut­zer ist mit den Ergeb­nis­sen gene­ra­ti­ver KI-Sys­te­me zufrie­den. Jeder Drit­te jedoch fin­det Feh­ler. Kri­ti­scher Umgang ist daher wich­tig. Aber wie kann man die Rich­tig­keit der Ergeb­nis­se über­prü­fen? Der TÜV-Ver­band hat Empfehlungen.

KI gibt nicht nur kluge Antworten. Abbildung: Fizkes, Depositphotos

KI gibt nicht nur klu­ge Ant­wor­ten. Abbil­dung: Fiz­kes, Depositphotos

Gene­ra­ti­ve Künst­li­che Intel­li­genz (KI) wie ChatGPT, Clau­de, LeChat oder Deep­Seek wird immer häu­fi­ger genutzt, doch vie­le Anwen­der ste­hen den Ergeb­nis­sen kri­tisch gegen­über. Zwar geben drei von vier (75 Pro­zent) Nut­zer an, mit den Ergeb­nis­sen zufrie­den zu sein, jedoch über­prü­fen knapp vier von fünf (78 Pro­zent) die KI-Inhal­te durch eige­ne Recher­chen. Das geht aus einer reprä­sen­ta­ti­ven For­sa-Umfra­ge im Auf­trag des TÜV-Ver­bands unter 1.001 Per­so­nen ab 16 Jah­ren her­vor. Um sich abzu­si­chern, fra­gen 44 Pro­zent der Nut­zer die KI expli­zit nach Quel­len­an­ga­ben. Des Wei­te­ren emp­fin­det fast jeder Zwei­te (48 Pro­zent) die KI-Ant­wor­ten als ober­fläch­lich und 43 Pro­zent kri­ti­sie­ren man­geln­de Kon­kret­heit. Jeder drit­te KI-Nut­zer (31 Pro­zent) gibt an, dass die Anwen­dun­gen häu­fig feh­ler­haf­te oder fal­sche Infor­ma­tio­nen liefern.

Jeder zweite Bundesbürger nutzt generative KI

„Die Ergeb­nis­se gene­ra­ti­ver KI-Anwen­dun­gen sind in der Regel als Erst­auf­schlag hilf­reich, aber alles ande­re als per­fekt“, sagt Patrick Gil­roy, Refe­rent für Künst­li­che Intel­li­genz und Bil­dung beim TÜV-Ver­band. „KI-Nut­zer soll­ten die Ant­wor­ten der KI kri­tisch hin­ter­fra­gen, Quel­len che­cken und mit eige­nen Erkennt­nis­sen ver­knüp­fen, um opti­ma­le Ergeb­nis­se zu erzie­len.“ Nur so könn­ten Feh­ler ver­mie­den und die Poten­zia­le der Tech­no­lo­gie voll aus­ge­schöpft wer­den. „Im beruf­li­chen Kon­text zählt der kom­pe­ten­te und reflek­tier­te Umgang mit KI-gene­rier­ten Inhal­ten zu den wich­tigs­ten Future Skills“, sagt Gil­roy. Laut den Ergeb­nis­sen der KI-Umfra­ge des TÜV-Ver­bands wird gene­ra­ti­ve KI der­zeit von gut jedem zwei­ten Bun­des­bür­ger (53 Pro­zent) genutzt.

KI-Modelle erfinden überzeugend klingende Antworten

Die Qua­li­tät der KI-Ergeb­nis­se hängt maß­geb­lich von den zugrun­de lie­gen­den Trai­nings­da­ten ab, die lücken- oder feh­ler­haft sein kön­nen. Die Daten­ba­sis ist aber für die Nut­zen­den nur sel­ten trans­pa­rent. Dar­über hin­aus kön­nen algo­rith­mi­sche Ver­zer­run­gen oder geziel­te Mani­pu­la­tio­nen durch poli­ti­sche oder wirt­schaft­li­che Inter­es­sen bereits in der Ent­wick­lung die Ergeb­nis­se beein­flus­sen. So lie­fert bei­spiels­wei­se das chi­ne­si­sche KI-Modell Deep­Seek kei­ne Ant­wor­ten zu oppo­si­tio­nel­len Bewe­gun­gen in Chi­na oder dem Tian­an­men-Mas­sa­ker. Auch das Grok-Modell von Elon Musks xAI zen­sier­te zeit­wei­se kri­ti­sche Ant­wor­ten des eige­nen Modells, wel­che ihn und Donald Trump in ein schlech­tes Licht rück­ten. Die Art der Pro­gram­mie­rung und das Design der Model­le spie­len eine Rol­le, etwa wenn Sys­te­me bestimm­te Inhal­te und Quel­len prio­ri­sie­ren oder filtern.

KI-Sys­te­me wie ChatGPT ste­hen auch in der Kri­tik, weil sie immer wie­der erfun­de­ne („hal­lu­zi­nier­te“) Infor­ma­tio­nen aus­ge­ben oder sogar Quel­len erfin­den, anstatt Nicht­wis­sen ein­zu­ge­ste­hen. Anstatt Lücken oder mög­li­che Feh­ler kennt­lich zu machen, „dich­tet“ die KI zunächst über­zeu­gend klin­gen­de Ant­wor­ten hin­zu. Mitt­ler­wei­se bie­ten vie­le KI-Anbie­ter ver­bes­ser­te „Deep Research“-Funktionen, die detail­lier­te­re Ana­ly­se­auf­ga­ben mit­samt Inter­net­re­cher­chen ermög­li­chen. Die bald erwar­te­ten Leit­li­ni­en für All­zweck-KI (GPAI Codes of Prac­ti­ce) des euro­päi­schen KI-Büros, die im Rah­men des EU AI Acts for­mu­liert wer­den, könn­ten hier einen Fort­schritt bringen.

Sicherer Umgang mit KI: Tipps für den Faktencheck

Um gene­ra­ti­ve KI sinn­voll und sicher ein­zu­set­zen, emp­fiehlt der TÜV-Verband:

  • Quel­len prü­fen: Inhal­te mit ver­läss­li­chen Nach­rich­ten­por­ta­len, wis­sen­schaft­li­chen Publi­ka­tio­nen oder offi­zi­el­len Doku­men­ten abglei­chen. Denn KI-Chat­bots durch­su­chen je nach Anbie­ter und Modell teils kei­ne exter­nen Quel­len in Echt­zeit – sie ver­ar­bei­tet bestehen­de Daten aus ihrem Trai­ning oder vor­de­fi­nier­ten Datenquellen.
  • Fak­ten­check nut­zen: Spe­zia­li­sier­te Web­sites wie FactCheck.org oder Snopes zur Über­prü­fung her­an­zie­hen. Auch eine her­kömm­li­che Inter­net­su­che kann hel­fen, Falsch­in­for­ma­tio­nen auf­zu­de­cken und Fak­ten zu verifizieren.
  • Quel­len ver­glei­chen: Infor­ma­tio­nen aus unab­hän­gi­gen Quel­len gegen­ein­an­der abwä­gen, bei Unsi­cher­hei­ten Exper­ten befra­gen. Ein brei­ter Quel­len­satz ver­rin­gert das Risi­ko ein­sei­ti­ger oder ver­zerr­ter Darstellungen.
  • Aktua­li­tät sicher­stel­len: Ver­öf­fent­li­chungs­da­tum und Rele­vanz der Infor­ma­tio­nen über­prü­fen. Ver­al­te­te Daten kön­nen zu fal­schen Schluss­fol­ge­run­gen führen.
  • Logik und Kon­sis­tenz prü­fen: Wider­sprü­che oder nicht plau­si­ble Aus­sa­gen erken­nen. Feh­ler­haf­te oder unschlüs­si­ge Inhal­te deu­ten dar­auf hin, dass eine Infor­ma­ti­on nicht zuver­läs­sig ist.
  • Bias hin­ter­fra­gen: Ent­ste­hung, Per­spek­ti­ven und mög­li­che Ver­zer­run­gen der KI-gene­rier­ten Inhal­te beden­ken. KI-Chat­bots spie­geln oft vor­han­de­ne Vor­ur­tei­le aus Trai­nings­da­ten wider.

Banner Footer 1

Test Half Banner

Banner Footer 2

Test Half Banner

Banner Footer 3

Test Half Banner
Sind Sie sicher, dass Sie diesen Beitrag freischallten wollen?
Verbleibende Freischaltung : 0
Sind Sie sicher, dass Sie Ihr Abonnement kündigen wollen?