[팩플] “AI 안전해야 지속가능”…스스로 속도조절 나선 AI 기업
생성 인공지능(AI)에 대한 글로벌 규제 논의가 속도를 내는 가운데 개발 기업이 스스로 브레이크를 걸고 있다. 생성AI가 촉발할 수 있는 위협을 안정적으로 관리할 수 있어야 AI 사업이 지속 가능하다는 판단에서다.
무슨일이야
왜 중요해
글로벌은 어때
AI 기술 개발을 주도하는 글로벌 빅테크들도 AI 안전성을 주요 이슈로 보고 있다. 구글은 2018년부터 AI 기술을 윤리적으로 검토하고 편향성 등을 점검하는 ‘거버넌스 팀’을 구성했다. ‘책임감 있는 AI를 위한 보고서’도 매년 제작해 공유하고 있다. 블룸버그에 따르면 오픈AI도 지난달 18일 AI 모델을 안전하게 개발하고 배포하기 위한 접근 방식을 다룬 ‘준비 프레임워크(Preparedness Framework)’를 발표했다. AI로 인해 발생할 수 있는 위험을 모니터링하고, 아직 출시되지 않은 모델의 위험성을 평가하는 역할을 한다. 준비팀은 AI 능력이 위험수준에 도달했다고 판단하면 회사에 경고한다.
AI 안전성 관련 국제적인 협력도 강화되는 추세다. 경쟁이 치열하고, 기술의 파급력이 크기 때문에 어느 한 기업만 안전성을 준수한다고 AI 위협을 줄일 수 있는 게 아니라서다. 미국과 한국 등 28개국과 유럽연합(EU)은 지난해 11월 영국에서 ‘제1차 AI 안전 정상회의’를 열고 AI가 초래하는 위험을 막자는 ‘블레츨리 선언’을 채택했다. 강제성은 없지만 AI 안전성을 위한 협력이 필요하다는 내용을 담은 첫 합의문이다.
기업 차원 협력도 강화하고 있다. 구글은 마이크로소프트, 메타, 아마존, 애플 등과 함께 ‘AI 파트너십(Partnership on AI)’을 운영하고 있다. 구글 측은 “어느 한 기업만으로 AI 기술 발전을 올바른 방향으로 인도할 수 없다고 생각한다”며 해당 파트너십의 중요성을 강조했다.
권유진(kwen.yujin@joongang.co.kr)
with the Korea JoongAng Daily
To write comments, please log in to one of the accounts.
Standards Board Policy (0/250자)