AI가 만든 '가짜 지옥도', 두바이 불타는 영상의 충격적 진실
AI가 그린 두바이의 불타는 풍경, 그 충격적인 실체
아랍에미리트(UAE) 두바이의 상징인 부르즈 칼리파가 화염에 휩싸이고, 바레인의 고층 건물마저 이란의 공격으로 무너지는 듯한 충격적인 영상이 SNS를 통해 확산되었습니다. 하지만 이 모든 장면은 인공지능(AI)이 만들어낸 '가짜'였습니다. 이러한 AI 생성 영상의 확산에 대해 누리꾼들은 '대중이 너무 쉽게 속는다', '우리 사회가 디스토피아로 가고 있다'며 우려를 표하고 있습니다. 이는 AI 기술이 현실과 구분하기 어려울 정도로 정교해지고 있음을 보여주는 단적인 예입니다.

SNS를 뒤덮은 AI 생성 전쟁 콘텐츠의 위험성
최근 SNS에서는 생성형 AI를 이용해 만들어진 전쟁 관련 사진과 영상이 기승을 부리고 있습니다. 중동의 유명 장소가 공격받거나 사람들이 폭탄을 피해 달아나는 모습 등이 사실처럼 유포되고 있습니다. AP통신은 이러한 영상에서 건물이 두 개로 겹쳐 보이는 등 AI의 '환각 현상(hallucination)'이 나타난다고 지적했습니다. 틱톡에서는 두바이 국제공항이 파손된 것처럼 보이는 AI 생성 영상이 수만 건의 조회수를 기록하기도 했습니다. 해당 영상은 '뉴스' 태그와 함께 마치 실제 사건처럼 설명되었으나, 많은 이들이 댓글로 진위 여부를 두고 논쟁을 벌였습니다.

AI 영상 생성 기술의 놀라운 발전과 그 이면
AI 영상 생성 기술은 눈부신 발전을 거듭하고 있습니다. 중국 바이트댄스는 유명 배우들이 등장하는 AI 영상 생성 모델 '시댄스 2.0'을 공개했으며, AI 에이전트 플랫폼 '젠스파크'는 텍스트 설명만으로 15분 안에 영상을 만들어낼 수 있습니다. 이러한 기술 발전은 긍정적인 활용 가능성도 있지만, 동시에 조작된 콘텐츠 제작에 악용될 수 있다는 우려를 낳고 있습니다. 특히 전쟁과 같은 민감한 이슈를 이용한 조작 영상은 수익 창출이나 여론 조작의 도구로 사용될 위험이 있습니다.

AI 시대, 정보 소비자의 현명한 자세
에반겔로스 카눌라스 암스테르담대 교수는 발전된 AI 기술이 질감, 얼굴, 조명 등의 세부 사항을 미묘하게 변경하여 원본보다 더 실감 나는 이미지를 만들고, 특정 사건에 대한 내러티브를 강화할 수 있다고 경고했습니다. 하니 파리드 캘리포니아대 교수는 '불과 몇 달 전의 AI 조작 식별 요령이 쓸모없어진 상황'이라며, SNS에서 정보를 접할 때 AI 조작 가능성을 항상 염두에 두어야 한다고 강조했습니다. 그는 언론 등 신뢰할 수 있는 매체를 통해 소식을 접하는 것이 중요하다고 조언했습니다.

AI 환각, 가짜 뉴스의 시대, 진실을 분별하는 눈이 필요합니다!
AI 기술의 발전으로 현실과 구분하기 어려운 가짜 영상이 SNS를 통해 빠르게 확산되고 있습니다. 두바이 불타는 영상과 같은 사례는 AI 생성 콘텐츠의 위험성을 보여주며, 정보 소비자의 각별한 주의를 요구합니다. 신뢰할 수 있는 언론 매체를 통해 정보를 얻고, AI 조작 가능성을 항상 염두에 두는 현명한 자세가 필요합니다.

AI 생성 콘텐츠, 무엇이 궁금하신가요?
Q.AI가 만든 영상과 실제 영상을 구분할 수 있는 방법이 있나요?
A.AI 기술이 빠르게 발전하면서 육안으로 구분하기 어려워지고 있습니다. 하지만 영상에서 건물이 겹쳐 보이거나 비현실적인 디테일이 있다면 AI 생성 가능성을 의심해 볼 수 있습니다. 전문가들은 신뢰할 수 있는 출처의 정보를 확인하는 것이 가장 중요하다고 조언합니다.
Q.AI 생성 콘텐츠가 사회에 미치는 부정적인 영향은 무엇인가요?
A.AI 생성 콘텐츠는 가짜 뉴스 확산, 여론 조작, 수익 창출을 위한 사기 등 다양한 부정적인 영향을 미칠 수 있습니다. 특히 전쟁이나 재난과 같은 민감한 이슈를 다룰 때 사회적 혼란을 야기할 위험이 있습니다.
Q.AI 영상 생성 기술은 앞으로 어떻게 발전할 것으로 예상되나요?
A.AI 영상 생성 기술은 더욱 정교해지고 사실적으로 발전할 것으로 예상됩니다. 텍스트 설명만으로도 고품질의 영상을 쉽게 만들 수 있게 되어, 콘텐츠 제작 방식에 큰 변화를 가져올 것입니다. 하지만 동시에 악용될 가능성에 대한 대비도 필요합니다.
