Nyhet / AI & GENERATIV AI
OpenAI, Adobe & Microsoft vill kräva märkning av AI-material
De tre stora företagen ser stora problem med att inte märka AI-genererade bilder och filmer med dess ursprung.
Det var i maj som Kamera & Bild kunde rapportera om att EU:s ministerråd godkänt förslaget som kräver att vissa verktyg, program och system måste märka bilder och video som genereras av AI i det så kallade EU AI Act.
Nu har de tre stora företagen som arbetar med och utvecklar AI och generativ AI – OpenAI, Adobe och Microsoft – själva meddelat att de stödjer ett nytt förslag som lagts fram i Kalifornien för att kräver att vattenstämplar läggs in i metadata hos inte bara bilder, utan även videoklipp och ljudfiler.
En av anledningarna är problematiken med att AI-genererat material skapar desinformation genom att det används som propaganda via olika kanaler på sociala medier. Exempelvis har även AI-genererade bilder på senare år blivit mycket mer realistiska, något som gör det svårare och svårare för en betraktare att avgöra om bilden är skapad med AI eller är ett fotografi av en verklig händelse.
Exempel på detta såg vi i Kamera & Bilds tävling "AI-bild eller fotografi?" där ingen av de tävlande fick alla rätt där de skulle gissa huruvida 8 bilder var AI-genererade eller ett riktigt foto.
"Ny teknik och nya standarder kan hjälpa människor att förstå ursprunget till innehållet de hittar online och undvika förväxling mellan mänskligt genererat innehåll och fotorealistiskt AI-genererat innehåll.", skriver OpenAI:s strategichef Jason Kwon.
Förslaget som kallas AB 3211 kommer att gå till röstning i senaten för att sedan eventuellt signeras av guvernören Gavin Newsom i slutet på september.
En vanlig missuppfattning är att den som publicerar det AI-genererade materialet måste märkas ut för betraktaren i sin publicering, exempelvis på sociala medier, vilket alltså inte är fallet. Den markering det handlar om är att systemet eller programmet som tillhandahåller tjänsten måste se till att upplysa betraktaren att materialet är AI-genererat, något som EU AI Act och nu även detta förslag handlar om.
Några som däremot tagit ställning kring publicering av AI-genererat material är Youtube, som i sina uppdaterade användarvillkor skriver att de som publicerar filmklipp på Youtube måste ange om klippet innehåller material skapat av AI, som en transparens mot tittaren. Kravet gäller för innehåll som ser realistiskt ut, och som exempel ger de en genererad realistisk scen som faktiskt inte har hänt.
Även kameratillverkaren Sony ser problemen, och har varit med och skapat samarbetet som kallas C2PA, The Coalition for Content Provenance and Authenticity, som ska användas för att bekräfta äktheten hos bilder genom algoritmerna som används. Samarbetet består av Sony, Adobe, BBC, Google, Intel, Microsoft, Truepic och Publicis, som tagit fram en egen specifikation för verifieringen.
– Spridningen av falsk information och bilder har en faktisk social påverkan som inte bara skadar våra fotojournalister och nyhetsbyråpartner, utan samhället som helhet, uttalade sig Salmon-Legagneur i samband med att samarbetet med C2PA blev officiellt.
Exakt hur du får använda AI-genererat material på ett lagligt vis kan du läsa om i vår artikel "Upphovsrätt & AI-bilder – så säger lagen om genererade verk".