지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

[인공지능 개척시대] 인공지능에 공정성 점수를 매긴다면

AI 학습데이터는 정확성이 생명
한쪽으로 치우치면 신뢰 떨어져

AI는 이제 갓 태어난 아기 비슷
자유롭게 크도록 숨통 틔워줘야

나는 공정한 사람인가? 아마도 누구나 자신이 공정하다고 여길 것이다. 나도 마찬가지다. 질문을 바꿔보자. 내가 얼마나 공정한지 점수를 매길 수 있을까? 답하기 어렵다. 당장 공정성을 점수로 매길 수 있는 것인지부터 의문이 든다. 공정성에 점수를 매기기 어려운 까닭은 아마도 사람마다 공정성을 정하는 기준이 다르기 때문일 것이다. 똑같은 행동을 두고도 사람마다 평가가 갈린다. 그런데도 한 가지 척도를 들이대 누가 얼마나 공정한지 수치화하기란 불가능한 일처럼 여겨진다.
 
그러면 인공지능은 어떠한가. 어떤 인공지능이 공정한지 판단할 수 있을까. 그 인공지능이 얼마나 공정한지 점수를 매길 수 있을까. 현학적 질문처럼 들릴 수도 있지만, 사실 실무상으로도 무척 중요한 문제다. 예컨대 금융기관이 신용도를 평가하는 인공지능을 도입하려면 그 인공지능이 공정한지 평가할 방법이 있어야 한다. 더욱이 인공지능의 공정성이 점차 개선되고 있는지 확인하려면 수치화할 필요도 있다. 하지만 공정성과 같이 모호한 개념에 점수를 매기는 일은 만만치 않다.
 
비록 어떤 개념이 지나치게 추상적이거나 주관적이라서 측정하기 어렵더라도 비슷하게라도 추정해야 하는 경우는 많다. 어떤 사람이 얼마나 행복한지는 재기 어렵지만, 행복을 연구하는 심리학자는 여러 기준을 이용해 점수를 매긴다. 국내의 한 경제학자는 기회 불평등의 척도를 재기 위해 ‘개천용’ 지수를 만들기도 했다. 이 지수는 우리 사회에서 ‘개천에서 용이 나오는’ 것이 얼마나 어려운지 측정한다.
 
마찬가지로 인공지능 연구자들은 인공지능이 얼마나 공정한지 측정하는 지표를 열심히 개발해 왔고, 이미 활용되고 있기도 하다. 한 가지 방법은 인공지능의 정확성이 사람마다 차이가 있는지 확인하는 것이다. 예컨대 회사 출입구에 얼굴인식 인공지능이 설치되어 출입을 관리한다고 생각해 보자. 직원이 안경을 꼈는지, 아니면 머리카락이 얼마나 긴지에 따라 정확도에 차이가 있다면 이는 불공정한 것이다. 정확도가 낮은 직원들은 더 자주 불편함을 겪게 될 것이기 때문이다. 이렇듯 인공지능이 여러 집단에 대해 정확도 차이가 있는지를 기준으로 해 공정성 점수를 매길 수 있다.
 


하지만 딱히 정답이 없는 경우에는 그러한 방법을 쓰기 어렵다. 챗봇 같은 대화 인공지능의 경우가 특히 그렇다. 여러 인간 평가자들을 뽑아 인공지능과 다양한 대화를 나누고 점수를 매기도록 할 수도 있지만, 그러면 비용이나 시간이 많이 들고, 객관화하기 어렵다는 문제도 있다. 그래서 대화 인공지능의 공정성은 평가하기 쉽지 않다.
 
사실 인공지능에 공정성 점수를 매기는 문제에 있어 가장 큰 어려움은 우리 세상이 완벽하지 못하다는 점이다. 인공지능은 학습 데이터로부터 배운다. 그런데 그 학습 데이터에는 이미 불공정하고, 불평등하며, 부정의한 세상이 반영되어 있다. 불공정한 학습 데이터로 배운 인공지능이 공정할 것을 기대하는 것은 나무에 올라 물고기를 찾는 격이다.
 
그래서 두 가지 상반된 주장이 나온다. 어떤 이들은 우리가 사는 세상은 공정하지 못하더라도 인공지능에는 마치 세상이 아름다운 것처럼 가르쳐야 한다고 주장한다. 그래야 인공지능이 공정한 판단을 내릴 수 있다고 한다. 반대로 인공지능에는 우리가 사는 세상 그대로를 가르쳐야 한다고 주장하는 이들도 있다. 실제 세계와는 다른 내용을 학습시키면 오히려 인공지능의 정확성이 떨어지기 때문이다. 두 주장 모두 일리가 있다. 인공지능 학습 데이터가 편향되어서는 안 되겠지만, 편향을 고치기 위해 인공지능의 정확성을 크게 훼손해서도 안 된다. 그 중간에서 적절한 균형점을 찾아야 하는 문제다.
 
인공지능에 공정성을 가르치는 문제는 아이를 키우는 부모들이 흔히 겪는 고민과 비슷하다. 부모는 아이에게 세상의 추악한 모습을 감추고 싶어 하지만, 다른 한편으로는 불편한 진실을 그대로 보여주는 것이 필요하기도 하다.
 
우리 사회는 지금 인공지능이라는 갓 태어난 아이를 다 함께 키우고 있는 셈이다. 아이가 잘못되지나 않을까 걱정하는 마음이 적지 않다. 하지만 이제 막 자라나고 있는 인공지능에 지나치게 엄격한 공정성 잣대를 들이대는 것만이 유일한 방법은 아니다. 인공지능이 있는 그대로의 세상을 배우고 익힐 수 있도록 숨통을 틔워 줄 필요도 있다. 인공지능이 공정하게 자랄 수 있도록 애써야겠지만, 너그러운 마음으로 지켜보는 태도도 함께 필요하다.

김병필 / KAIST 기술경영학부 교수

Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스