지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

구글·오픈AI·삼성 등 AI 안전서약…“공공안전 위협땐 서비스 중단”

22일 서울 성북구 한국과학기술연구원에서 ‘AI 서울 정상회의’ 장관 세션을 진행하고 있다. 이날 참석 기업들은 AI를 안전하게 개발하기 위한 ‘AI 안전 서약’에 합의했다. [연합뉴스]
인공지능(AI) 개발 경쟁을 벌이고 있는 빅테크가 AI의 위험 기준치를 설정해 수위가 높다고 판단하면 스스로 서비스를 중단하기로 했다.

글로벌 주요 기술 기업 16곳은 지난 21일부터 이틀간 진행된 ‘AI 서울 정상회의’에서 AI를 안전하게 개발하기 위한 ‘프런티어 AI 안전 서약’에 합의했다. 삼성전자·네이버·구글·오픈AI를 비롯해 중국의 지푸AI와 아랍에미리트(UAE) 기술혁신연구소가 참여했다. 영국 정부는 이에 대해 “북미·아시아·유럽·중동 기업이 AI 개발에 대한 안전 약속에 합의한 건 처음”이라고 밝혔다. 22일 서울 성북구 한국과학기술연구원(KIST)에서 열린 ‘AI 글로벌 포럼’에서는 국내외 14개 기업이 안전한 AI 사용을 위한 ‘서울 기업 서약’을 발표했다. 이들은 AI가 생성한 콘텐트를 워터마크로 구분할 수 있게 조치하고 국제 표준 개발을 위한 협력을 강화하기로 했다.

AI가 발전하는 만큼 안전에 대한 우려도 커지고 있다. 딥페이크를 통한 가짜뉴스 확산이 대표적이다. 최근엔 오픈AI가 공개한 ‘GPT-4o’(포오)가 할리우드 배우 스칼릿 조핸슨의 목소리와 비슷하다는 논란에 휩싸여 해당 목소리 사용을 중단하기도 했다.

이 때문에 이번 정상회의에선 AI의 신뢰성을 높이기 위해 안전장치를 마련해야 한다는 주장이 많이 제기됐다. AI 모델 안전 연구소인 METR의 베스 반스 소장은 “AI 개발이 공공 안전에 용납할 수 없을 정도로 위험해질 수 있는 ‘레드 라인’에 대한 국제적 합의를 끌어내는 것이 매우 중요하다”고 말했다.



프런티어 AI 안전 서약엔 ‘기업의 AI 모델이 합의된 위험 기준치를 초과할 염려가 있을 땐 시스템을 수정하거나 기준치 이내로 위험을 완화하기 위한 노력해야 한다’는 내용이 담겼다. 위험 수위가 높다고 판단되면 기업은 스스로 서비스 배포를 중단하기로 했다. 이 밖에도 기업 내·외부에 레드팀(취약점을 발견해 공격하는 팀)을 구성해 AI 모델에 대한 위협을 평가하고, AI 안전에 대한 접근 방식을 투명하게 공유하기로 약속했다.

기업 개별적인 AI 안전도 강화한다. 이해진 네이버 글로벌투자책임자(GIO)는 21일 열린 정상 세션에서 “AI 안전 실행 프레임워크인 ‘NAVER AI 안전 프레임워크’를 다음 달 공개할 예정”이라고 밝혔다. 이재용 삼성전자 회장도 “글로벌 사회와 적극적으로 협력해 안전하고 포용적이며 지속가능한 AI 기술을 개발하는 데 최선의 노력을 다할 것”이라고 말했다.

이날 열린 장관 세션에서는 AI 안전 확보를 위한 글로벌 협력 방안이 담긴 ‘서울 장관 성명’을 채택했다.





강광우(kang.kwangwoo@joongang.co.kr)

Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스