NEW YORK — Kunstmatige intelligentiebeelden kunnen worden gebruikt om kunst te maken, kleding te passen in virtuele paskamers of reclamecampagnes te helpen ontwerpen.
Maar experts maken zich zorgen dat de duistere kant van gemakkelijk toegankelijke tools iets kan verergeren dat vooral vrouwen schaadt: niet-consensuele deepfake-pornografie.
Deepfakes zijn video’s en afbeeldingen die digitaal zijn gemaakt of gewijzigd met kunstmatige intelligentie of machine learning. Porno die met deze technologie is gemaakt, begon zich enkele jaren geleden over het internet te verspreiden toen een Reddit-gebruiker clips deelde die de gezichten van vrouwelijke beroemdheden op de schouders van pornoacteurs plaatsten.
Sindsdien hebben deepfake-makers soortgelijke video’s en afbeeldingen verspreid die zich richten op online influencers, journalisten en anderen met openbare profielen. Duizenden video’s bestaan op een overvloed aan websites. En sommige hebben gebruikers de mogelijkheid geboden om hun eigen afbeeldingen te maken, waardoor iedereen in feite iedereen die ze willen in seksuele fantasieën kan veranderen zonder hun toestemming, of technologie kan gebruiken om ex-partners schade toe te brengen.
Experts zeggen dat het probleem erger werd naarmate het gemakkelijker werd om geavanceerde en visueel aantrekkelijke deepfakes te maken. En ze zeggen dat het nog erger kan worden met de ontwikkeling van generatieve AI-tools die zijn getraind op miljarden afbeeldingen van internet en nieuwe inhoud uitspugen met behulp van bestaande gegevens.
“De realiteit is dat technologie zich zal blijven verspreiden, zal blijven groeien en net zo eenvoudig zal blijven als het indrukken van de knop”, zegt Adam Dodge, oprichter van EndTAB, een groep die misbruiktrainingen biedt, mogelijk gemaakt door technologie. . “En zolang dat gebeurt, zullen mensen deze technologie ongetwijfeld blijven misbruiken om anderen kwaad te doen, voornamelijk via online seksueel geweld, deepfake pornografie en nepnaaktfoto’s.”
Noelle Martin, uit Perth, Australië, leefde deze realiteit. De 28-jarige vond zichzelf 10 jaar geleden toen ze op een dag uit nieuwsgierigheid Google gebruikte om naar een afbeelding van zichzelf te zoeken. Tot op de dag van vandaag zegt Martin dat ze niet weet wie de nepfoto’s of -video’s heeft gemaakt waarop ze seks heeft en die ze later vindt. Ze vermoedt dat iemand waarschijnlijk een foto heeft gemaakt die op haar socialemediapagina of ergens anders is geplaatst en er porno van heeft gemaakt.
Geschrokken nam Martin jarenlang contact op met verschillende websites in een poging de afbeeldingen te laten verwijderen. Sommigen reageerden niet. Anderen namen het weg, maar ze vond het snel.
“Je kunt niet winnen,” zei Martin. “Het is iets dat altijd zal bestaan. Het is alsof het je voor altijd ruïneert.”
Hoe meer ze praatte, zei ze, hoe erger het probleem werd. Sommige mensen hebben haar zelfs verteld dat de manier waarop ze zich kleedt en afbeeldingen op sociale media plaatst, bijdraagt aan de intimidatie – in feite haar de schuld geven van de afbeeldingen in plaats van de makers.
Uiteindelijk richtte Martin zijn aandacht op wetgeving en pleitte hij voor een nationale wet in Australië die bedrijven een boete van A$ 555.000 ($ 370.706) oplegt als ze zich niet houden aan kennisgevingen om deze inhoud van regelgevende instanties te verwijderen.
Maar het internet besturen is bijna onmogelijk als landen hun eigen wetten hebben voor inhoud die soms aan de andere kant van de wereld wordt geproduceerd. Martin, momenteel advocaat en juridisch onderzoeker aan de Universiteit van West-Australië, zegt dat ze denkt dat het probleem moet worden beheerst door een soort alomvattende oplossing.
Ondertussen zeggen sommige AI-modellen dat ze de toegang tot expliciete afbeeldingen al beperken.
OpenAI zegt dat het expliciete inhoud heeft verwijderd uit de gegevens die worden gebruikt om de DALL-E-tool voor het genereren van afbeeldingen te trainen, waardoor het vermogen van gebruikers om dit soort afbeeldingen te maken wordt beperkt. Het bedrijf filtert ook verzoeken en zegt dat het voorkomt dat gebruikers AI-afbeeldingen maken van beroemdheden en prominente politici. Midjourney, een ander model, blokkeert het gebruik van bepaalde trefwoorden en moedigt gebruikers aan om problematische afbeeldingen aan moderators te melden.
Ondertussen heeft startup Stability AI in november een update uitgerold die de mogelijkheid verwijdert om expliciete afbeeldingen te maken met behulp van de Stable Diffusion-beeldbouwer. Deze veranderingen kwamen naar aanleiding van berichten dat sommige gebruikers met behulp van technologie door beroemdheden geïnspireerde naaktfoto’s maakten.
Stability AI-woordvoerder Motez Bishara zei dat het filter een combinatie van trefwoorden en andere technieken zoals beeldherkenning gebruikt om naaktheid te detecteren en een wazig beeld retourneert. Maar het is mogelijk voor gebruikers om de software te manipuleren en te bouwen wat ze maar willen, aangezien het bedrijf zijn code vrijgeeft aan het publiek. Bishara zei dat de licentie van Stability AI “zich uitstrekt tot applicaties van derden die zijn gebouwd op Stable Diffusion” en “misbruik voor onwettige of immorele doeleinden” strikt verbiedt.
Sommige socialemediabedrijven hebben ook hun regels aangescherpt om hun platforms beter te beschermen tegen schadelijke inhoud.
TikTok zei vorige maand dat alle deepfakes of gemanipuleerde inhoud die realistische scènes laat zien, moet worden gelabeld om aan te geven dat ze nep zijn of op een of andere manier zijn gewijzigd, en dat deepfakes van privéfiguren en jongeren niet langer zijn toegestaan. Eerder verbood het bedrijf seksueel expliciete inhoud en deepfakes die kijkers misleiden over gebeurtenissen in de echte wereld en schade aanrichten.
Gamingplatform Twitch heeft onlangs ook zijn beleid met betrekking tot expliciete deepfake-afbeeldingen bijgewerkt nadat tijdens een livestream eind januari werd ontdekt dat een populaire streamer genaamd Atrioc een deepfake-pornowebsite in zijn browser had geopend. De site bevatte nepafbeeldingen van andere Twitch-streamers.
Twitch heeft eerder expliciete deepfakes verboden, maar nu wordt het bekijken van dergelijke inhoud – zelfs als deze bedoeld is om verontwaardiging te uiten – “verwijderd en onderworpen aan handhaving”, schreef het bedrijf in een blogpost. En opzettelijke promotie, creatie of delen van het materiaal is een reden voor een onmiddellijke ban.
Andere bedrijven hebben ook geprobeerd om deepfakes van hun platformen te weren, maar om ze te voorkomen, moet je zorgvuldig te werk gaan.
Apple en Google zeiden onlangs dat ze een app uit hun app-winkels hebben verwijderd die seksueel suggestieve deepfake-video’s van actrices vertoonde om het product op de markt te brengen. Onderzoek naar deepfake-porno is niet wijdverbreid, maar uit een rapport uit 2019 van het kunstmatige-intelligentiebedrijf DeepTrace Labs bleek dat het bijna volledig was gericht tegen vrouwen en dat westerse actrices het meest doelwit waren. , gevolgd door Zuid-Koreaanse K-popzangers.
Dezelfde app die door Google en Apple was verwijderd, had advertenties weergegeven op het platform van Meta, waaronder Facebook, Instagram en Messenger. Meta-woordvoerder Dani Lever zei in een verklaring dat het beleid van het bedrijf zowel door AI gegenereerde als niet-AI-inhoud voor volwassenen beperkt en dat het de pagina van l-applicatie heeft verbannen om op zijn platforms te adverteren.
In februari begon Meta, samen met sites voor volwassenen zoals OnlyFans en Pornhub, deel te nemen aan een online tool, genaamd Take It Down, waarmee tieners expliciete afbeeldingen en video’s van zichzelf op internet kunnen rapporteren. De rapportagesite werkt voor reguliere afbeeldingen en door AI gegenereerde inhoud, wat een groeiende zorg is geworden voor kinderveiligheidsgroepen.
“Als mensen onze senior leiders vragen wat zijn de rotsen die van de heuvel komen waar we ons zorgen over maken? De eerste is end-to-end encryptie en wat dat betekent voor de bescherming van kinderen. ‘AI en specifiek deepfakes’, zegt Gavin Portnoy, woordvoerder van het National Center for Missing and Exploited Children, dat de Take It Down-tool beheert.
“We hebben nog geen duidelijk antwoord kunnen formuleren”, zei Portnoy.
HOW TO GET FREE PSN CODES PSN GIFT CARD GENERATOR 2023 YOUTUBE
PSN CODES 2023 PSN CODE GENERATOR FREE PSN GIFT CARDS APP
FREE PSN CODES JANUARY 2023 50 PLAYSTATION GIFT CARDS
FREE PSN CODE GENERATOR 2020 WORKING EMBRAPA
FREE PSN CODES JANUARY 2023 50 PLAYSTATION GIFT CARDS
FREE PSN GIFT CARD GENERATOR 2022 NO HUMAN VERIFICATION IGN
EARN FREE PSN CODES IN 2023 IDLE EMPIRE
ZL 2 FREE PSN CODES PLAYSTATION STORE GIFT CARD
BUY PSN GIFT CARDS CHEAP PLAYSTATION GIFT CARD CODES ENEBA
PSN CARD US CHEAP PLAYSTATION GIFT CARD JAN 2023 OFFGAMERS
0 Comments