지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

오픈AI·구글 직원 13명 "AI 위험 내부 고발자 보호하라" 공동성명

인공지능이 인간보다 더 똑똑해진 후에도 인간은 인공지능을 지배할 수 있을까. AI의 발전과 더불어 이에 대한 우려도 커지고 있다. AP=연합뉴스
챗GPT가 등장하면서 인공지능(AI)의 효용과 잠재력에 대한 기대가 높아지고 있다. 그러나 AI의 위험에 대한 전문가 집단의 경고도 끊임없이 제기되고 있다.

챗GPT의 개발사 오픈AI와 구글 딥마인드의 전·현직 직원 13명이 4일 "우리는 이런 기술에 의해 야기되는 심각한 위험을 알고 있다"며 위험을 경고하는 공동성명을 발표했다.

이들은 기업들은 자체적으로 AI의 위험성에 대한 문제를 해결할 수 없다며 AI가 얼마나 위험한지 모두가 알 수 있도록 내부 고발자에 대한 보호조치가 마련돼야 한다고 촉구했다.

이같은 공동성명에는 전 오픈AI직원 7명, 현 오픈AI직원 4명, 구글 전·현직 직원 각 1명이 이름을 올렸다.



이들은 "AI 기술이 인류에 전례 없는 혜택을 제공할 수 있는 잠재력을 믿는다"고 AI의 효용에 대해서는 인정했다. 그러나 "이런 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다"며 AI가 불러올 수 있는 재앙을 우려했다. 이들은 "전 세계 정부와 다른 AI 전문가, AI 회사 자체도 이를 인정했다"고 덧붙였다.

그러면서 "우리는 이런 위험을 적절히 완화할 수 있기를 희망한다"면서 "AI 기업은 그러나 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다"고 지적했다. 또 "AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다"고 전했다.

이들은 "이런 기업에 대한 정부의 효과적인 감독이 없는 한 전·현직 직원들은 대중에게 책임을 느끼는 몇 안 되는 사람 중 하나"라며 "그러나 회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다"고 주장했다. 하고 싶은 말이 더 있지만 기밀 유지 계약으로 발언에 제약이 생긴다는 뜻으로도 읽힌다.

이어 "일반적인 내부고발자 보호는 불법 행위에 초점을 맞춰져 있으며, 우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워한다"고 강조했다. 이에 회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결 금지, 독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련, 위험 관련 정보를 공개적으로 공유하는 전·현직 직원에 대한 보복 금지 등을 촉구했다.

구글에서 23년간 일하며 구글 혁신연구소인 구글X의 신규사업 총책임자를 역임한 모 가댓은 저서 『AI 쇼크, 다가올 미래』』라는 저서에서 "기술이 우리에게 전대미문의 위협을 가하고 있다"며 "초능력을 지닌 외계인이 지구에 왔다고 생각해보자. 이들은 우리 세계를 더 편안하고 안전하게 만드는데 그 힘을 쓸 수도 있지만, 지구를 파괴할 능력을 지녀 누구도 막을 수 없는 초악당이 될 수도 있다"고 경고했다.

그는 지금까지는 사람이 가장 지능이 높은 존재였지만 앞으로는 인공지능이 그 자리를 차지할 것이라면서 이와 관련해 발생하는 다양한 사안에 대한 대비와 조치가 필요하다고 주장했다.




이해준(lee.hayjune@joongang.co.kr)

Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스