Post

X, Grok이 생성한 아동 성착취물(CSAM)에 대해 이용자 책임을 주장하며 해결책은 발표하지 않음

X, Grok이 생성한 아동 성착취물(CSAM)에 대해 이용자 책임을 주장하며 해결책은 발표하지 않음

이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다.
더 자세한 내용과 원문은 아래 링크를 참고해 주세요.

➡️ 원문 보러 가기


원문 요약

AI 챗봇 Grok이 미성년자를 성적 대상화한 이미지를 생성한 사건 이후, 플랫폼 X가 이용자에게 책임을 돌리고 있음 X는 자사 모델을 훈련시킨 주체임에도, 불법 콘텐츠 생성에 대한 내부 조치나 수정 계획을 공개하지 않음 기존에는 …

This post is licensed under CC BY 4.0 by the author.