지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

하필 '그녀' 엮이자 사태 꼬였다…잘나가는 오픈AI에 닥친 일 [팩플]

할리우드 배우 스칼릿 조핸슨의 목소리와 유사하다는 의혹에 휩싸인 오픈AI의 음성 인공지능(AI) 서비스 ‘GPT-4o(포오)’가 법적 책임 논란 한가운데에 섰다. 특히 샘 올트먼 오픈AI 최고경영자(CEO)가 GPT-4o를 소개하면서 조핸슨이 AI 목소리를 연기한 영화 ‘그녀’(her)를 언급한 게 문제의 소지가 될 수 있다는 지적이다.

할리우드 배우 스칼릿 조핸슨. 로이터=연합뉴스
무슨 일이야
미국 정보통신(IT) 전문 매체 더버지는 23일(현지시간) 지적 재산권 전문 변호사들을 인용해 “오픈AI가 의도하지 않았더라도 조핸슨의 음성과 매우 흡사한 챗GPT 음성을 만든 것에 대해 법적 책임을 질 수 있다”며 “특히 샘 올트먼이 영화 ‘그녀’(her)를 언급하며 둘 사이의 유사성을 언급한 게 상황을 더욱 악화시켰다”고 보도했다.

오픈AI는 최근 챗GPT의 5개 음성 서비스 중 하나인 스카이(Sky)가 조핸슨의 목소리를 도용한 것 아니냐는 논란에 휩싸이자 해당 목소리 사용을 중단했다. 조핸슨은 성명을 통해 ‘작년 9월 올트먼 CEO가 곧 출시될 GPT-4o의 음성을 담당해 달라고 제안했지만, 개인적인 이유로 제안을 거절했다’며 ‘공개된 영상을 들었을 때 내 목소리와 매우 유사해 충격과 분노를 느꼈다’고 밝혔다. 이에 오픈AI 측은 “다른 전문 배우의 목소리”라고 해명했고, GPT-4o의 실제 성우도 “조핸슨을 모방하지 않았고 그런 요구를 받지도 않았다”고 반박했다. 이런 해명에도 논란은 쉽게 가라앉지 않는 분위기다.

미 법조계 평가는
미국 법조계에서는 조핸슨이 개인 신상 정보를 허락 없이 사용할 수 없도록 보호하는 ‘퍼블리시티권’을 주장할 수 있다는 분석이 제기된다. 오픈AI의 본사가 있는 캘리포니아주는 살아있는 사람의 목소리를 동의 없이 상업적 활동에 사용하지 못하도록 보호하고 있다.



미국 로펌 헤인즈 분(Haynes Boone)의 지적재산권 전문 파트너 변호사인 푸어스 퍼텔 알버스는 더버지와의 인터뷰에서 “누군가의 이름·초상·목소리를 도용하면 퍼블리시티권을 침해하는 것”이라며 “오픈AI는 스카이의 목소리가 조핸슨처럼 들리도록 의도한 것은 아니라고 주장하지만, 그렇다고 (법적 책임에서) 회사를 보호할 수 있는 건 아니다”라고 말했다.

비슷한 판례도 있다. 1988년 미국 자동차업체 포드는 당시 인기 가수였던 베트 미들러(Bette Midler)에게 광고 출연을 거절당한 뒤 성대모사로 광고를 제작했다가 소송을 당해 패소했다. 조핸슨은 현재 오픈AI를 고소하지 않았지만 이번 일에 대응하기 위해 변호사를 선임한 상태다.

21일(현지시간) 마이크로소프트(MS) 빌드 행사에 나온 샘 올트먼 오픈AI 최고경영자(CEO). AFP=연합뉴스
오픈AI, 안전 의식에 빈틈?
오픈AI는 최근 AI의 안전과 통제를 담당하던 기술 개발팀 ‘수퍼얼라인먼트’(Super Alignment)팀을 해체했다. 일각에선 팀이 해체되고 주축 멤버들이 나가면서 오픈AI 안전 의식에 빈틈이 생긴 것이 아니냐는 지적이 나온다. 이번 ‘목소리 사태’도 그 일환이라는 것이다.

실제로 이 팀을 이끌던 일리야 수츠케버 전 오픈AI 최고과학책임자는 GPT-4o를 공개한 날 회사를 떠났다. 그는 이날 자신의 소셜미디어(SNS)에 “오픈AI가 안전하고 유익한 일반인공지능(AGI)을 구축할 것을 확신한다”고 밝혔다. 안전한 AI 개발의 중요성을 강조해 온 수츠케버는 지난해 올트먼 CEO 축출을 주도한 이사회 멤버이기도 했다. 이 팀의 공동 리더였던 얀 리이크는 18일 사임하며 “지난 수년간 AI 안전성은 잘나가는 제품보다 늘 뒷전으로 밀려났다”고 지적했다.

일리야 수츠케버 전 오픈AI 최고과학책임자. 연합뉴스
더 알아야 할 것
AI가 인간과 유사한 수준까지 발전하면서 여러 법적·사회적 문제를 포함한 안전성 우려는 커지고 있다. 지난 21일 진행된 ‘AI 서울 정상회의’에서 오픈AI를 비롯한 글로벌 AI 기업과 각국 정부는 AI 개발의 위험 기준치를 설정해 수위가 높다고 판단하면 스스로 서비스를 중단하기로 합의했다. AI 개발에 대한 신뢰성을 확보하기 위해서다.

앞서 AI 혁신을 이끌고 있는 오픈AI는 안전성 논란으로 내홍을 겪기도 했다. 지난해 올트먼 CEO는 일부 이사진과 AI 안전에 대한 견해 차로 퇴출 당했다가 우여곡절 끝에 복귀한 바 있다. 올트먼은 CEO로 복귀하면서 이사회의 허락 없이 새 모델을 출시하지 않기로 하는 등 안전 정책을 대폭 강화했지만, 안전성에 대한 논란과 우려는 계속해서 나오고 있다.



강광우(kang.kwangwoo@joongang.co.kr)

Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스