Pedofielen op het dark web wenden zich tot een AI-programma om inhoud over seksueel misbruik te genereren


Een internetwaakhond luidt de noodklok over de groeiende trend van zedendelinquenten die online samenwerken om open source kunstmatige intelligentie te gebruiken om materiaal over seksueel kindermisbruik te genereren.

“Er bestaat een technische gemeenschap binnen de daderwereld, met name op dark web-forums, waar ze deze technologie bespreken”, vertelde Dan Sexton, hoofd technologie bij de Internet Watch Foundation (IWF), vorige week aan The Guardian in een rapport. “Ze delen beelden, ze delen [AI] modellen. Ze delen handleidingen en tips.”

De organisatie van Sexton heeft ontdekt dat overtreders zich steeds meer tot open source AI-modellen wenden om illegaal materiaal over seksueel misbruik van kinderen (CSAM) te creëren en dit online te verspreiden. In tegenstelling tot gesloten AI-modellen zoals OpenAI’s Dall-E of Google’s Imagen, kan open source AI-technologie door gebruikers worden gedownload en aangepast, aldus het rapport. Sexton zei dat de mogelijkheid om dergelijke technologie te gebruiken zich heeft verspreid onder overtreders, die het dark web betreden om realistische beelden te maken en te verspreiden.

NIEUWE AI BIEDT ‘PERSOONLIJKE BESCHERMING’ TEGEN ONTVOERINGEN EN CRIMINELE BEDREIGINGEN

geanimeerde AI-hacker foto-illustratie

Een internetwaakhond luidt de noodklok over de groeiende trend van zedendelinquenten die online samenwerken om open source kunstmatige intelligentie te gebruiken om materiaal over seksueel kindermisbruik te genereren. (Fox Nieuws / Bestand)

“De inhoud die we hebben gezien, wordt volgens ons feitelijk gegenereerd met behulp van open source-software, die is gedownload en lokaal op de computers van mensen wordt uitgevoerd en vervolgens is aangepast. En dat is een veel moeilijker probleem om op te lossen”, aldus Sexton. “Er is geleerd wat materiaal over seksueel kindermisbruik is, en hoe je dat moet maken.”

Sexton zei dat de online discussies die plaatsvinden op het dark web afbeeldingen bevatten van beroemde kinderen en publiekelijk beschikbare afbeeldingen van kinderen. In sommige gevallen worden afbeeldingen van slachtoffers van kindermisbruik gebruikt om gloednieuwe inhoud te creëren.

“Al deze ideeën zijn zorgen, en we hebben er discussies over gezien”, zei Sexton.

fotoillustratie van zakenman die AI-chatbot gebruikt

Sexton zei dat de online discussies die plaatsvinden op het dark web afbeeldingen bevatten van beroemde kinderen en publiekelijk beschikbare afbeeldingen van kinderen. In sommige gevallen worden afbeeldingen van slachtoffers van kindermisbruik gebruikt om gloednieuwe inhoud te creëren.

WAT IS KUNSTMATIGE INTELLIGENTIE (AI)?

Christopher Alexander, de Chief Analytics Officer van Pioneer Development Group, vertelde Fox News Digital dat een van de nieuwe gevaren van deze technologie is dat deze kan worden gebruikt om meer mensen kennis te laten maken met CSAM. Aan de andere kant zou AI kunnen worden gebruikt om het internet te scannen op vermiste mensen, waarbij zelfs gebruik kan worden gemaakt van “leeftijdsverschillen en andere factoren die kunnen helpen bij het lokaliseren van verhandelde kinderen.”

“Generatieve AI is dus een probleem, AI en machinaal leren zijn een hulpmiddel om het te bestrijden, zelfs door alleen maar detectie uit te voeren”, zei Alexander.

“De extreme gevaren die door deze technologie worden gecreëerd, zullen enorme gevolgen hebben voor het welzijn van het internet. Waar deze bedrijven falen, moet het Congres agressief in actie komen en optreden om zowel kinderen als het internet als geheel te beschermen.”

Ondertussen vertelde Jonathan D. Askonas, een assistent-professor in de politiek en een fellow bij het Center for the Study of Statesmanship aan de Katholieke Universiteit van Amerika, aan Fox News Digital dat “wetgevers nu moeten handelen om wetten tegen de productie, distributie, en het bezit van op AI gebaseerde CSAM, en om mazen in de wet uit het vorige tijdperk te dichten.”

KLIK HIER VOOR MEER ONS NIEUWS

IWF, dat op internet zoekt naar CSAM en helpt bij het coördineren van de verwijdering ervan, zou overweldigd kunnen raken door tips om dergelijke inhoud van internet te verwijderen in het tijdperk van AI, zei Sexton, en merkte op dat de verspreiding van dergelijk materiaal al wijdverspreid was op internet .

“Seksueel misbruik van kinderen online is, zoals wij geloven, nu al een epidemie voor de volksgezondheid”, zegt Sexton volgens The Guardian. “Dus dit gaat het probleem niet beter maken. Het zal het mogelijk alleen maar erger maken.”

Ziven Havens, beleidsdirecteur bij het Bull Moose Project, vertelde Fox News Digital dat het aan het Congres is om actie te ondernemen om zowel kinderen als het internet te beschermen.

opname overdag van het Amerikaanse Capitool in Washington

Ziven Havens, beleidsdirecteur bij het Bull Moose Project, vertelde Fox News Digital dat het aan het Congres is om actie te ondernemen om zowel kinderen als het internet te beschermen. (Fox News-foto / Joshua Comins / Bestand)

KLIK HIER OM DE FOX NEWS-APP TE DOWNLOADEN

“Door gebruik te maken van reeds beschikbare beelden van echte slachtoffers van misbruik, verschilt AI CSAM heel weinig van die van niet door AI gemaakte CSAM. Het is evenzeer moreel corrupt als weerzinwekkend. De extreme gevaren die door deze technologie worden gecreëerd zullen enorme gevolgen hebben voor het welzijn van het internet”, aldus Havens. “Waar deze bedrijven falen, moet het Congres agressief in actie komen en optreden om zowel kinderen als het internet als geheel te beschermen.”



Source link