
Egy új nemzetközi kutatás szerint a mesterséges intelligencia-alapú asszisztensek gyakran pontatlanul jelenítik meg a híreket: az elemzések alapján a tartalmak közel fele torzul vagy félreértelmeződik. A szakértők szerint ez súlyos kihívás a digitális média hitelessége és az online tájékoztatás jövője szempontjából.
Egy frissen publikált nemzetközi kutatás szerint a mesterséges intelligencia-alapú asszisztensek – beleértve a legnagyobb nyelvi modelleket és beszédfelismerő rendszereket – az esetek közel felében pontatlanul adják vissza a hírek tartalmát. A hiba aránya átlagosan 45 százalék, függetlenül a nyelvtől, a régiótól vagy a forrás típusától. Ez a digitális újságírás jövője szempontjából aggasztó jelzés.
A tanulmányt több európai és amerikai közszolgálati médiavállalat közösen készítette. Az elemzés szerint a mesterséges intelligencia-rendszerek gyakran félreértelmezik a politikai, gazdasági vagy tudományos összefüggéseket, különösen akkor, ha a források ellentmondásosak vagy a hírek gyorsan változnak.
A kutatók három fő okot azonosítottak a pontatlanságok mögött:
- a kontextus és kulturális árnyalatok hiányát,
- az általánosító válaszok túlzott használatát,
- valamint a több forrásból származó adatok hibás integrálását.
A jelentés arra figyelmeztet, hogy az AI-alapú hírfogyasztás egyre elterjedtebb, miközben az olvasók gyakran tényként kezelik a mesterséges intelligencia által generált vagy szerkesztett tartalmakat.
„A probléma nem az, hogy a mesterséges intelligencia rosszindulatú, hanem az, hogy túl magabiztos a tévedéseiben” – fogalmazott a kutatás egyik vezetője.
A tanulmány szerint a következő évek legfontosabb feladata a transzparens forrás-azonosítás és a felelősségvállalás erősítése lesz. A szakértők új, nemzetközi szabványok bevezetését sürgetik, amelyek egyértelműen jelzik, ha egy hír mesterséges intelligencia közreműködésével készült vagy módosult.
