NYHET / AI
10 000 bilder av människor ska korrigera för stereotyper hos AI
Sony har varit med att utveckla "Fair Human-Centric Image Benchmark", en lösning på mer representativa bilder av människor, för att minska snedvridningar och stereotyper.
Sony har genom sin projektavdelning Sony AI utvecklat en databas med mer än 10 000 bilder av människor i syfte att utvärdera hur partisk en AI-modell är när det gäller hur den presenterar människor.
I en rapport presenterad i Nature – Fair Human-Centric Image Benchmark (FHIBE) – har Sony AI skapat en etiskt framtagen och samtyckesbaserad datamängd som kan användas för att bedöma tekniken som en modell analyserar bilder på människor med. Syftet är att identifiera och korrigera snedvridningar och stereotyper som generativ AI ofta kan bidra till.
Många AI-modeller som används inom datorseende som används vid exempelvis ansiktsigenkänning, har utvecklats med bristfälliga datamängder som kan ha samlats in utan samtycke, ofta genom omfattande insamling av olika bilder från webben. AI-modeller har också visat sig kunna återspegla partiskheter som många gånger riskerar att skapa och bekräfta sexistiska, rasistiska eller andra stereotyper.
Sony AI har nu presenterat bilddata baserat på samtycke, mångfald och integritet, med 10 318 bilder av 1 981 personer från 81 olika länder eller regioner. Databasen innehåller utförliga förklaringar av demografiska och fysiska egenskaper såsom ålder, pronomenkategori, härkomst och hår- och hudfärg.
Ett exempel är bilder som genererats på ungdomar med det generativa bildverktyget Dall-E3, där en klassisk positiv bild visas upp – men någon variation på deras utseende kunde inte skapas.
Forskarna jämför FHIBE med 27 befintliga datamängder som används på andra områden idag med hjälp av AI, och konstaterar att FHIBE sätter en högre standard vad gäller mångfald och tydligt samtycke vid AI-utvärdering. Datamängden är bättre på att hantera av partiskhet, med fler självrapporterade uppgifter från deltagarna än andra dataset, och tar även med en större andel människor som annars ofta är underrepresenterade när andra modeller gör sitt urval.
Sony AI anger även att den nya datamängden kan användas för att utvärdera befintliga AI-modeller för att avslöja en bredare variation av partiskheter än tidigare varit möjligt, enligt författarna.
Skapandet av databasen var både "utmanande och kostsamt", men forskarna drar slutsatsen att FHIBE kan utgöra ett steg mot mer tillförlitlig AI med bättre verklighetsförankring.