ETSI har precis släppt sin nya grupprapport för att begränsa AI-genererade Deepfakes. Rapporten ETSI GR SAI 011, släppt av gruppen Securing AI (ISG SAI), fokuserar på användningen av AI för att manipulera multimediaidentitetsrepresentationer och illustrerar följdriskerna, såväl som de åtgärder som kan vidtas för att mildra dem.
”AI-tekniker tillåter automatiserade manipulationer som tidigare krävde en stor mängd manuellt arbete, och i extrema fall kan de till och med skapa falska multimediadata från grunden. Deepfake kan också manipulera ljud- och videofiler på ett målinriktat sätt, samtidigt som en hög akustisk och visuell kvalitet bibehålls i resultaten, vilket i stort sett var omöjligt med tidigare standardteknik. AI-tekniker kan även användas för att manipulera ljud- och videofiler i en bredare mening, t.ex. genom att tillämpa ändringar på den visuella eller akustiska bakgrunden. Vår ETSI-rapport föreslår åtgärder för att mildra följdriskerna”, förklarar Scott Cadzow, ordförande för ETSI ISG SAI.
ETSI GR SAI 011 beskriver många av de mer omedelbara problem som uppkomsten av AI ger upphov till, särskilt användningen av AI-baserade tekniker för att automatiskt manipulera identitetsdata representerade i olika medieformat, såsom ljud, video och text. Rapporten beskriver de olika tekniska tillvägagångssätten, och den analyserar även hoten från deepfakes i olika attackscenarier.
Genom att analysera de metoder som används syftar ETSI-rapporten till att ge underlag för ytterligare tekniska och organisatoriska åtgärder för att mildra dessa hot, utöver att diskutera deras effektivitet och begränsningar.
ETSI:s ISG SAI är den enda standardiseringsgruppen som fokuserar på att säkra AI och den har redan släppt åtta rapporter. Gruppen arbetar för att rationalisera AI:s roll inom hotlandskapet och därigenom identifiera åtgärder som kommer att leda till en säker och säker utplacering av AI tillsammans med den befolkning som AI:n är avsedd att tjäna.
Rapporten finns att läsa på ETSI:s hemsida.