Home > 검색목록 > 기사상세보기
타이틀

[챗GPT 1년, 일상이 되다] (3) "AI의 거짓말 막아라" 글로벌 테크들 신기술 속속 선보여

    임경업 기자

    발행일 : 2023.11.29 / 종합 A5 면

    종이신문보기
    ▲ 종이신문보기

    인물의 혈류 변화로 가짜 식별… AI가 사진 인식 못하게 '포토 가드'

    글로벌 테크 기업과 인공지능(AI) 연구자들은 AI가 만들어낸 허위·가짜 콘텐츠를 탐지하거나 사전에 차단하는 기술 개발에 적극적으로 뛰어들고 있다. 지난해 챗GPT가 등장한 뒤 1년간 AI 서비스의 개발과 확산에 초점이 맞춰졌다면, 이제는 그 부작용을 해결할 수 있는 기술도 개발해야 한다는 것이다. 조대곤 KAIST 교수는 "AI가 생성한 허위 콘텐츠가 많아지면, 결국 AI 기술 자체에 대한 신뢰가 떨어질 수밖에 없다"면서 "컴퓨터 바이러스가 늘어나면서 사이버 보안 기술이 급성장한 것처럼, AI 산업도 가짜·허위 콘텐츠 차단 기술과 함께 발전하게 될 것"이라고 했다.

    인텔은 지난 7월 '가짜감별사(FakeCatcher)'라는 시스템을 공개했다. 이 소프트웨어는 영상 속 인물의 혈류 변화를 감지하는 기술을 이용해 영상의 진위 여부를 판단한다. 딥페이크(가짜)로 만들어진 사람 얼굴은 혈류 변화가 감지되지 않는 원리를 이용했다. MIT는 지난 7월 딥페이크 사진 제작을 차단하는 '포토 가드' 기술을 무료로 배포했다. AI로 특정인의 사진을 도용하거나 합성하는 것을 방지하는 기술로, 이미지에 일종의 노이즈(잡음) 신호를 넣는 원리다. 이 기술을 적용한 사진은 AI가 제대로 인식하지 못해 변형이나 위조가 불가능하다. 딥페이크 음란물이나 가짜 뉴스에 유명인이나 개인 얼굴이 도용되는 것을 막을 수 있는 것이다.

    포토샵으로 유명한 미국의 소프트웨어 업체 어도비는 콘텐츠 위조와 변조, 가짜 뉴스 제작과 전파를 막는 기구 'CAI (Content Authenticity Initiative·콘텐츠 자격 증명)'를 결성했다. 뉴욕타임스, AFP, 게티이미지 등 전 세계 375사가 회원으로 참여했다.

    국내 AI 스타트업 업스테이지는 KT와 협업을 통해 지난달 '오픈 코(Ko) LLM (대규모 언어 모델) 리더보드'라는 플랫폼을 열었다. 일종의 '한국형 챗GPT 성적 게시판'이라는 의미로, 한국어 생성형 AI를 테스트한 뒤 점수를 모두 공개한다. SKT·카카오·현대차·롯데 등 대기업 AI 모델과 여러 스타트업의 AI 모델 528개가 이 시험을 봤다. 시험의 핵심은 'AI가 거짓말을 하지 못하도록 만들었는가'이다. AI의 진실성을 테스트하는 문항이 다수 존재하고, 한국 역사·문화 이해도를 측정하는 문제도 있다.
    기고자 : 임경업 기자
    장르 : 연재
    본문자수 : 1149
    표/그림/사진 유무 : 없음
    웹편집 : 보기
    인쇄 라인 위로가기