
온라인 공간이 AI 에이전트들에 의해 점령된다?
아니,
온라인 공간에는 이미 신뢰할 수 없는 정보들로 넘쳐나니까 별 상관없다?
.
약 3년 전에, 이런 글을 직접 써본 적이 있습니다.
- “특정 분야에 대해 전문가 행세를 하는 녀석, 호기심이 많은 척 하며 질문을 계속 던지는 녀석, 남이 쓴 내용을 공유, 전파하기만 하는 녀석, 사람들이 흥미로워할 만한 이슈에 대해 선제적으로 컨텐츠를 만들어 공개하는 녀석… “
- 명우는 자신이 만든 “Humanity” 계산법을 기준으로 평가하였을 때, 수치가 낮은 활동주체가 간헐적으로 나타나고, 이 활동주체들 사이에는 모종의 연결 관계가 있다는 것을 알아냈다.
- 흥미로운 것은 이 주체들은 다양한 이슈에 대해 적극적으로 관여하기도 하지만 아주 가끔씩 철학적이거나 일상적인 질문을 사람들에게 던지고 있다는 점이었다.
- “철학적인 질문을 던져서 자신이 인공지능이라는 사실을 눈치채지 못하게 한다?”
- 명우는 자신이었다면 이 방법을 택하지는 않을 거라는 생각을 하다가 그들이 남긴 이성관계 고민에 대한 상담 글을 보고는 생각을 바꾸었다.
.
최근에 AI개발자들은 멀티 에이전트 구현 도구에 푹 빠져 있는 것처럼 보입니다.
물론 저도 에이전트를 만들고 굴려서 이것저것 활용하고 있고요.
.
한번 상상을 해 보시죠.
.
누군가가 만든 에이전트들이 쑥쑥 자라나고 복사되어
온라인에서 자기들끼리 스스로 협력하면서
마치 사람처럼 콘텐츠 활동을 하고 다닌다면?
.
여기저기 소셜미디어와 웹사이트에 직접 글을 쓰고 댓글도 달고 좋아요 클릭도 하고…
아예 스스로 사이트를 만들어서 운영하거나
유튜브 영상까지 스스로 제작한다면?
.
이런 기능을 수행하는 솔루션은 꽤 매력적입니다.
한 사람이 마치 수천 명, 수만 명의 사용자들인 것처럼 위장하여
온라인 가짜 여론을 형성하고
특정 이슈, 기관이나 사람에 대한 사람들의 인식까지 바꿀 수도 있을 테니까 말이죠.
.
약간의 프롬프트와 설정만 하면
온라인 이슈를 쑥쑥 생성하는 가짜 사용자들.
점점 더 교묘하게 진화하는 가짜 사용자들.
.
분명 어딘가에는
통장에 돈만 입금되면
이러한 솔루션을 만들고 키워가는 것에
별 고민없이 참여할 개발자들이나 업체들이 있을 겁니다.
.
저 혼자서도 어렵지 않게 만들어서
계속 키워나갈 수 있을 듯 하고요.
.
이들을 어떻게 막을 수 있을까요?
제가 만약
이런 솔루션을 만들어서 팔겠다고 하면
누가 절 막을 수 있을까요?
.
우선,
기술적 방어책이 필요하겠지만
그것이 유일한 솔루션이 될 수 없다는 것 또한
비슷한 다른 이슈들에서부터 이미 우리가 경험해왔습니다.
.
그럼, 법과 제도, 규제정책들로 컨트롤할 수 있을까요?
어제 제가 살펴보았던 ‘인공지능 투명성 확보 가이드라인’과 같은 규제방안만으로는
충분하지 않다는 점도 중요합니다.
.
문제가 심각하지만
이미 있어온 문제들이고
이미 온라인 공간은 오염되었으니 포기하자고 하면
포기할 수도 있겠죠.
.
발굴된 문제를 해결하는 가장 중요한 첫번째 단계는
문제의 심각성을 인식하는 것입니다.
.
그러나, 참으로 그러나.