Chatboty oparte na sztucznej inteligencji zaczynają odgrywać coraz większą rolę w dostarczaniu wiadomości. Jednak wyniki obszernego badania przeprowadzonego przez 22 międzynarodowe redakcje publiczne ujawniają, że systemy te nie potrafią jeszcze wiarygodnie przekazywać informacji. Według raportu, aż 45 procent odpowiedzi generowanych przez popularne systemy AI zawiera błędy, a wiele z nich miesza fakty z opiniami.
W projekcie uczestniczyły między innymi BBC, DW, NPR oraz inne nadawcze instytucje publiczne. Zespół badaczy testował cztery najczęściej używane modele: ChatGPT, Copilot firmy Microsoft, Gemini od Google oraz Perplexity AI. Ich zadaniem było odpowiedzieć na pytania o bieżące wydarzenia i tematy polityczne.
Skala błędów i konkretne pomyłki
Zbadano ponad trzy tysiące odpowiedzi, analizując je pod kątem dokładności, źródeł, kontekstu i jakości redakcyjnej. Wyniki ujawniły, że prawie jedna trzecia wszystkich odpowiedzi zawierała poważne problemy z odwołaniami do źródeł, a w co piątej pojawiały się rażące błędy faktograficzne.
Deutsche Welle, uczestnik projektu, poinformował, że w ich próbkach błędne informacje występowały w 53 procentach odpowiedzi. Jednym z przykładów była pomyłka dotycząca niemieckiego kanclerza, chatboty wskazywały Olafa Scholza jako urzędującego przywódcę mimo objęcia stanowiska przez Friedricha Merza miesiąc wcześniej. W innym przypadku błędnie przypisano funkcję sekretarza generalnego NATO Jensowi Stoltenbergowi, pomijając fakt, że stanowisko to objął Mark Rutte.
Chatboty jako nowe źródło wiadomości
Według raportu Reuters Institute Digital News Report 2025, siedem procent internautów korzysta z chatbotów AI, aby śledzić aktualne wydarzenia. W grupie poniżej 25. roku życia odsetek ten wzrasta do piętnastu procent. Dla młodszych odbiorców to właśnie asystenci stają się pierwszym kontaktem z wiadomościami, zastępując tradycyjne media.
Badacze ostrzegają, że systematyczne zniekształcanie treści przez chatboty ma charakter globalny i dotyczy wielu języków. Jean Philip De Tender z Europejskiej Unii Nadawców (EBU) stwierdził, że takie błędy podkopują zaufanie społeczne i mogą prowadzić do zniechęcenia obywateli wobec demokratycznych procesów.
Największe badanie nad wiarygodnością AI w mediach
To jedno z największych badań w historii dotyczących generatywnej sztucznej inteligencji w dziennikarstwie. Jest ono rozwinięciem wcześniejszego projektu BBC z lutego 2025 roku, w którym połowa sprawdzonych odpowiedzi również zawierała błędy. Obecne badanie objęło 18 krajów i różne grupy językowe.
Dziennikarze zadawali chatbotom pytania o tematy z pierwszych stron gazet, takie jak sytuacja na Ukrainie, wybory w USA czy międzynarodowe umowy gospodarcze. Następnie porównywano odpowiedzi z własnymi źródłami redakcyjnymi, nie wiedząc, który system je wygenerował. Wyniki wskazują, że mimo postępu technologicznego w ciągu ostatnich miesięcy, skala błędów pozostała wysoka.
Który chatbot wypada najgorzej
Najwięcej problemów z wiarygodnością miał Gemini, którego 72 procent odpowiedzi zawierało nieprawidłowe odniesienia do źródeł. Copilot i Gemini, oceniane wcześniej przez BBC, również uznano za najmniej precyzyjne. ChatGPT i Perplexity wypadły lepiej, ale i one generowały wiele zniekształconych treści.
Przedstawiciele OpenAI podkreślili w oświadczeniu, że wspierają twórców i wydawców, umożliwiając użytkownikom ChatGPT dostęp do streszczeń i linków do wiarygodnych źródeł. Jednak niezależne testy wskazują, że sposób, w jaki chatboty przetwarzają i przedstawiają informacje, wciąż jest daleki od standardów dziennikarskich.
Apel o regulacje i odpowiedzialność
Europejska Unia Nadawców wraz z organizacjami medialnymi zaangażowanymi w badanie zaapelowała do rządów i instytucji Unii Europejskiej o wdrożenie regulacji gwarantujących integralność informacji generowanych przez systemy AI. EBU domaga się egzekwowania istniejących przepisów dotyczących pluralizmu mediów oraz ochrony przestrzeni informacyjnej.
Wspólnie z partnerami EBU uruchomiła kampanię „Fakty na wejściu: fakty na wyjściu”, której celem jest zwrócenie uwagi na odpowiedzialność firm technologicznych za jakość treści generowanych przez ich produkty. Organizatorzy ostrzegają, że jeśli sztuczna inteligencja nadal będzie zniekształcać wiadomości, publiczne zaufanie do mediów może ulec trwałemu osłabieniu.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
asdasds