지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

AI 위험성 “핵무기에 비견”…과학자·경영자 350여명 경고

“인류 절멸 위험성 낮춰야”
공개 토론 필요성 강조

급속도로 발전하는 AI의 위험성에 대해 IT기업 경영자와 과학자 350여명이 경고의 목소리를 냈다.
 
월스트리트저널(WSJ)은 30일 “비영리단체 ‘AI안전센터’(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했다”고 보도했다.
 
CAIS는 성명에서 “AI로 인한 인류 절멸의 위험성을 낮추는 것을 글로벌 차원에서 우선순위로 삼아야 한다”고 촉구했으며, AI의 위험성을 핵무기와 신종 전염병에 비견했다.
 
또 성명은 “AI 기술 위험성에 대해 훨씬 다양한 분야에서 해결책이 논의돼야 한다”며 공개적인 토론의 필요성을 강조했다.  
 


이 성명에는 챗GPT의 창시자 샘 올트먼 오픈AI CEO와 미라 무라티 CTO가 서명했으며, 케빈 스콧 마이크로소프트(MS) CTO와 구글의 AI 분야 책임자인 릴라 이브라힘, 메리언 로저스도 이름을 올리는 등 각 분야 전문가들이 동참했다.
 
앞서 올트먼 오픈AI CEO의 경우 AI의 잠재적 위험을 통제하고 부작용을 막기 위해 국제원자력기구(IAEA) 같은 국제기구가 필요하다는 방안을 제시했다.
 
이달 초에는 백악관이 오픈AI와 구글 등 핵심 기업을 초청해 카멀라 해리스 부통령 주관으로 대책 회의를 열었고, 이어 열린 상하원 청문회에서는 AI의 위험을 완화하기 위해 정부 차원의 규제와 개입, 국제 표준 마련이 필요하다는 주장이 제기됐다.
 
한편 CAIS는 서명에 동참할 전문가들을 추가 모집하고 있다.  

윤지혜 기자

Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스