극도로 허위 사진을 생성하는 인공지능 도구를 억제하기 위해 아무 조치도 취하지 않으면 유아 성적 학대 이미지가 인터넷에 확산되는 우려스러운 상황이 더욱 악화될 수 있다고 감시 기관이 화요일 경고했습니다.
영국에 본사를 둔 인터넷 감시 재단(Internet Watch Foundation)은 서면 보고서에서 AI가 생성한 아동 성적 학대 이미지가 이를 집행하는 수사관을 압도하기 전에 정부와 기술 제공업체에 신속하게 조치를 취할 것을 촉구했습니다. 법은 잠재적 피해자 집단을 엄청나게 증폭시킵니다.
감시 그룹의 기술 책임자인 Dan Sexton은 “우리는 발생할 수 있는 피해에 대해 이야기하고 있는 것이 아닙니다”라고 말했습니다. «Está sucediendo ahora y es necesario adborarlo ahora».
부산지방법원에 따르면, 한국에서 이런 유형의 첫 번째 사건으로 지난 9월 인공지능을 이용해 360° 아동 학대 가상 이미지를 생성한 남성에게 징역 2년 6개월이 선고됐다. 확실한 델 파이스.
En algunos casos, los niños는 estas herramientas entre sí를 사용합니다. 스페인 남부의 한 학교에서는 10대들이 전화 애플리케이션을 이용해 같은 반 친구들이 옷을 완전히 입은 채 나체로 사진 속에 등장하게 한 혐의로 경찰이 조사를 벌이고 있다.
El informe는 사용자가 자신이 만들고 싶은 것(전자 메일에서 예술 작품 또는 소설 비디오에 이르기까지)을 단어로 설명하고 시스템이 이를 뱉어내도록 하는 생성 인공 지능 시스템을 구축하려는 경쟁의 모호한 측면을 드러냅니다.
이를 통제하지 않으면 유아 성적 학대에 대한 허위 이미지가 넘쳐 가상 캐릭터가 된 아동을 구출하려는 연구자들을 압도할 수 있다. 불량자는 이미지를 사용하여 새로운 피해자를 유인하고 강요할 수도 있습니다.

Sexton은 IWF 분석가들이 온라인에서 유명한 어린이들의 얼굴을 발견했을 뿐만 아니라 “수년 전에 학대를 당했을 수 있는 어린이들의 더 많은 이미지에 대한 엄청난 수요”를 발견했다고 말했습니다.
“Están tomando 자료는 실제 존재하고 usándolo para crear 자료는 nuevo de estas víctimas”라고 말했습니다. «Eso es increíblemente Impactante».
Sexton은 온라인에서 아동 성 착취 퇴치에 초점을 맞춘 그의 자선 단체가 올해 초부터 IA가 생성한 학대적인 이미지를 비난하기 시작했다고 말했습니다. 이로 인해 암호화된 네트워크에서 호스팅되고 익명성을 제공하는 도구를 통해서만 액세스할 수 있는 인터넷의 일부인 소위 다크 웹의 포럼에서 조사가 이루어졌습니다.
IWF 분석가가 발견한 것은 학대자들이 조언을 공유하고 가정용 컴퓨터를 공장으로 전환하여 모든 연령층의 어린이의 성적으로 노골적인 이미지를 생성하는 것이 얼마나 쉬운지 놀라워했다는 것입니다. Algunos는 코미디언이자 실제 이미지의 수익자입니다.
Sexton은 “Lo que estamos empezando a ver es estaexplosion de contenido”라고 말했습니다.
IWF의 보고서가 처방이 아닌 점점 커지는 문제를 나타내는 척한다면 정부는 IA로 인해 발생하는 남용에 맞서 싸울 수 있도록 법률을 강화할 것을 요청합니다. 이는 특히 당국이 이미지에 대한 사전 지식이 없더라도 메시징 애플리케이션에서 아동 성적 학대로 의심되는 이미지를 자동으로 검색할 수 있는 감시 조치에 대한 논쟁이 있는 유럽 연합을 대상으로 합니다.
이 그룹 작업의 주요 목표 중 하나는 이전 성적 학대 피해자가 사진을 재배포하여 재 착취당하는 것을 방지하는 것입니다.

보고서에 따르면 기술 제공업체는 자신이 만든 제품을 이러한 방식으로 사용하기 더 어렵게 만들 수 있지만 일부 장치는 병에 보관하기 어렵다는 사실로 인해 이것이 복잡해집니다.
작년에 일련의 새로운 AI 이미지 생성기가 출시되어 주문 시 물결 모양 또는 사실적인 이미지를 생성하는 능력으로 사람들을 놀라게 했습니다. 그러나 대다수는 아동 성착취를 방지할 수 있는 메커니즘을 갖추고 있기 때문에 아동 성착취 콘텐츠 제작자가 선호하지 않습니다.
AI 모델을 폐쇄하고 학습 및 사용 방법을 완전히 제어하는 기술 제공업체(예: OpenAI의 DALL-E 이미지 생성기)는 오용을 방지하는 데 더 큰 성공을 거둔 것으로 보인다고 Sexton은 말했습니다.
반대로, 유아 성적 학대 이미지 제작자가 선호하는 도구는 Stable Diffusion, de código abierto, desarrollada 에 의해 스타트업 Stability AI, con sede en Londres입니다. 2022년 여름에 Stable Diffusion이 등장했을 때 일부 사용자는 이를 사용하여 누드와 포르노를 만드는 방법을 빠르게 배웠습니다. 콘텐츠의 주요 부분은 성인을 대표하며, 유명인에게서 영감을 받은 나체 사진을 만드는 데 사용됩니다.
나중에 Stability는 안전하지 않고 부적절한 콘텐츠를 차단하는 새로운 필터를 도입했으며 Stability의 소프트웨어 사용 라이센스도 불법 사용을 금지합니다.
화요일 발표된 성명에서 회사는 불법적이거나 비윤리적인 목적으로 플랫폼을 “부적절하게 사용하는 것을 엄격히 금지”한다고 밝혔습니다. 성명서는 “우리는 불법적이거나 사악한 목적으로 우리 제품을 악용하는 사람들에 대한 법 집행 기관의 노력을 확고히 지지합니다”라고 밝혔습니다.
그러나 사용자들은 안정적인 확장 프로그램을 필터링하지 않고도 이전 버전에 계속 액세스할 수 있다고 스탠포드 인터넷 관측소(Stanford Internet Observatory)의 수석 기술 전문가인 데이비드 티엘(David Thiel)은 말했습니다. de vigilance que estudia el tema.

“No se puede 정기적인 lo que la gente hace en sus dormitorios, en sus computadoras. 불가능합니다.”, Sexton이 추가했습니다. «Entonces, ¿cómo se llega al punto en el que no pueden utilizar 소프트웨어 disponible abiertamente para crea contenido dañino como este?»
미국과 영국을 포함한 몇몇 국가에는 이러한 유형의 이미지의 생산 및 소유를 금지하는 법률이 있지만, 어떻게 시행되는지는 아직 불분명합니다.
IWF의 보고서는 다음 주 영국 정부가 주최하는 IA 보안에 관한 글로벌 회의에 앞서 작성됩니다. 여기에는 미국 부통령 카말라 해리스(Kamala Harris)와 기술 리더들을 포함한 유명 인사들이 참석할 예정입니다.
IWF의 수지 하그리브스 전무이사는 준비된 서면 성명에서 “이 보고서는 우울한 전망을 제시하지만 나는 여전히 낙관적이다”라고 말했습니다. 그는 문제의 현실은 “이 놀라운 기술의 어두운 면을 논의해야 하기 때문에 더 많은 청중에게 다가가는 것이 중요하다”고 말했습니다.
&Copia 2023 Prensa canadiense