최근 AI 기술을 활용한 광고 영상이 급증하면서, 이를 실제 인물의 발언이나 전문가 조언으로 오인하는 사례도 늘고 있다.
특히 의사·변호사·전문가 또는 유명인을 닮은 인물이 등장해 특정 상품이나 투자, 건강기능식품을 추천하는 형식의 딥페이크 광고가 대표적이다.
나도 얼마 전 AI 아나운서를 활용한 광고를 보다가, '이게 실제 아나운서가 아니라고?' 하며 깜짝 놀란 적이 있었다.
실제로 식품의약품안전처가 AI로 생성한 가짜 의사를 내세우거나, 일반 식품을 유명 의약품인 것처럼 속여 광고한 판매업체 16곳을 수사한 결과, 적발 업체 중 12곳은 AI로 만든 전문가 영상으로 허위 광고를 해 84억 원어치를 판매했다고 한다.
이처럼 AI 합성 영상으로 인한 허위·과장 광고가 증가하면서 여러 가지 부작용들이 발생하고 있다.
AI로 생성된 이미지와 영상이 갈수록 정교해지는 만큼, 이용자 역시 AI 생성물을 구별하는 기본적인 방법을 알고 있으면 피해를 예방하는 데 도움이 된다.
기자가 직접 제작한 AI 생성 이미지.
이미지의 경우, 손이나 손가락 개수가 비정상적이거나 관절·손톱 방향이 어색한 사례가 많다.
또, 피부 표현이 지나치게 매끈해 모공이나 주름이 거의 보이지 않거나, 간판·문서 속 글자와 숫자가 깨져 의미 없는 조합으로 나타나기도 한다.
이 외에도 얼굴과 배경 사물의 빛과 그림자 방향이 서로 맞지 않거나, 안경·귀걸이 같은 액세서리가 귀를 관통하거나 공중에 떠 있는 형태로 표현되는 경우도 AI 생성 이미지에서 자주 발견된다.
영상에서는 입술 움직임과 음성이 미세하게 어긋나거나, 감정 변화 없이 일정한 톤과 억양이 반복되는 경우가 많다.
더불어 눈 깜빡임이 일정한 패턴으로 반복되거나, 고개와 몸이 거의 움직이지 않고 고정된 자세를 유지하는 점도 확인 포인트다.
조작 광고 사례. (출처=한국소비자원)
아울러 콘텐츠의 맥락과 출처를 확인하는 것도 중요하다.
운동선수가 온라인 도박을 유도하거나, 변호사가 투자 수익을 강조하는 등 직업적 맥락과 맞지 않는 발언은 의심해 볼 필요가 있다.
개인 연락처 제공, 메신저 추가, 외부 링크 클릭을 유도하는 경우에도 주의가 필요하며, 공식 언론사나 기관 누리집에 동일한 영상이 존재하는지 교차 확인하는 것이 도움이 된다.
AI 광고. (출처=공정거래위원회)
정부에서는 앞으로 이런 AI 생성물을 게시할 때, 해당 사진과 영상을 AI로 만들었다는 사실을 표시하도록 하고, 악의적인 허위, 조작 정보는 손해액의 최대 5배를 부과하는 징벌적 손해배상제를 도입한다고 한다.
기술이 빠르게 발전하는 만큼, 부작용을 최소화할 수 있는 제도가 생겨야 한다고 생각하던 차라 좋은 소식이 아닐까 싶다.
AI 기술이 만들어낸 결과물이 점점 실제와 구분하기 어려워지는 지금, 이용자 스스로 한 번 더 의심하고 확인하는 태도 역시 중요한 방어 수단이다.
기업과 정부, 이용자 등 모두가 각자의 자리에서 책임을 다할 때, AI 기술은 사회에 긍정적인 가치를 더하는 방향으로 발전할 수 있을 것이다.
☞ (정책뉴스) AI 가짜의사 광고 막는다… 징벌적 손해배상제 도입
☞ (숏폼) 혹시 보셨나요? SNS 가짜 의사 AI 광고, 속지마세요!
대한민국 정책기자단 박세아 new220723@naver.com