Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
AI-genererade bilder och desinformation: Hur politisk nyhetsrapportering påverkas av bildmanipulation
University West, School of Business, Economics and IT.
University West, School of Business, Economics and IT.
2025 (Swedish)Independent thesis Basic level (degree of Bachelor), 10 credits / 15 HE creditsStudent thesis
Abstract [en]

In recent years, AI-generated imagery has posed significant challenges to political news reporting by blurring the line between reality and fabrication. This study examines both the emotional and cognitive effects of AI-manipulated images on news consumers and how the public perceives the allocation of responsibility for preventing their spread, as well as how these perceptions correlate with trust in the media.

A web based survey of 16 questions including six image based tasks requiring respondents to distinguish AI-generated images from genuine photographs was distributed via Discord, Snapchat, and an AI-focused Facebook group. Between April and May 2025, 57 fully anonymous participants completed the questionnaire. The survey combined closed ended multiple choice items, “Other” fields for free text input, and a few Likert scale questions to capture nuanced attitudes and experiences.

Key findings indicate that approximately 65 % of participants reported strong emotional responses such as mistrust, anxiety, or surprise when confronted with images of uncertain authenticity in political news contexts. On average, respondents correctly identified about 60 % of the images, with accuracy ranging from 39 % to 75 % depending on the specific image. When informed that an image was AI-generated, participants’ trust in the associated news source declined by an average of 30 %.

Regarding accountability, 75 % of respondents placed primary responsibility on traditional news organizations, followed by 68 % attributing significant responsibility to social media platforms. AI developers and individual users were seen as less central gatekeepers. A clear positive correlation emerged between perceived media accountability and overall media trust, suggesting that proactive measures by news outlets are crucial for maintaining public confidence in an era of visual disinformation.

Abstract [sv]

Under de senaste åren har AI-genererade bilder skapat nya utmaningar för politisk nyhetsrapportering genom att sudda ut gränsen mellan verklighet och fabrication. Denna studie undersöker både den emotionella och kognitiva påverkan av AI-manipulerade bilder på nyhets konsumenter samt hur allmänheten uppfattar ansvarsfördelningen för att motverka spridning av sådant bildmaterial, och hur denna uppfattning korrelerar med förtroendet för medier.

En webbaserad enkät bestående av 16 frågor varav sex bildtester där deltagarna ombads skilja AI-genererade bilder från äkta fotografier distribuerades via Discord, Snapchat och en AI-fokuserad Facebookgrupp. Under perioden april–maj 2025 fullföljde 57 helt anonyma respondenter enkäten. Frågorna var en kombination av slutna flervalsfrågor, ett “Annat”-fält för fria textsvar och ett fåtal Likert-skalor för att fånga nyanserade attityder och upplevelser.

Resultatet visar att cirka 65 % av deltagarna upplevde starka emotionella reaktioner – såsom misstro eller förvåning när de konfronterades med bilder av osäker äkthet i politiska nyhetssammanhang. Den genomsnittliga träffsäkerheten i bild igenkänningen var runt 60 %, med korrekt identifiering mellan 39 % och 75 % beroende på bild. När deltagarna informerades om att en bild var AI-genererad sjönk deras förtroende för den associerade nyhetskällan med i genomsnitt 30 %.

Vad gäller ansvarstagande angav 75 % av respondenterna att traditionella nyhetsorganisationer bär det största ansvaret för att förebygga spridning av AI-manipulerade bilder, följt av 68 % som pekade på sociala medieplattformar. AI-utvecklare och enskilda användare uppfattas i betydligt mindre utsträckning som primära gatekeepers. En tydlig positiv korrelation framträder mellan upplevd media ansvarstagande och allmänt medieförtroende de deltagare som ansåg att medierna aktivt motverkar manipulation rapporterade högre tillit till nyhetskällorna.

Place, publisher, year, edition, pages
2025. , p. 57
Keywords [en]
AI, Disinformation, Politics
National Category
Media and Communication Studies Information Systems, Social aspects
Identifiers
URN: urn:nbn:se:hv:diva-23458Local ID: EXC509OAI: oai:DiVA.org:hv-23458DiVA, id: diva2:1967910
Subject / course
Media informatics
Educational program
Digitala media
Supervisors
Examiners
Available from: 2025-06-13 Created: 2025-06-12 Last updated: 2025-09-30Bibliographically approved

Open Access in DiVA

No full text in DiVA

By organisation
School of Business, Economics and IT
Media and Communication StudiesInformation Systems, Social aspects

Search outside of DiVA

GoogleGoogle Scholar

urn-nbn

Altmetric score

urn-nbn
Total: 134 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf