AI시대, 삐딱한 생각 가진 인공지능이 나온다면...

이수영 기자 / 기사승인 : 2019-06-26 01:35:21
  • 카카오톡 보내기
  • -
  • +
  • 인쇄
구글 "AI시대, 공정한 머신러닝 모델 필수"
25일 구글코리아는 서울 강남파이낸스센터에서 AI 혁신과 머신러닝의 공정성을 주제로 '구글 AI 포럼'을 열었다.(사진=이수영 기자)
25일 구글코리아는 서울 강남파이낸스센터에서 AI 혁신과 머신러닝의 공정성을 주제로 '구글 AI 포럼'을 열었다.(사진=이수영 기자)

[아시아타임즈=이수영 기자] 사회적으로 인공지능(AI)에 대한 영향력이 확대되면서 AI 개발에 있어 공정성이 무엇보다 중요해진 가운데, 구글이 공정하고 포괄적인 AI 머신러닝 모델 구축에 힘쓰고 있어 주목된다.


25일 구글코리아는 서울 강남파이낸스센터에서 AI 혁신과 머신러닝의 공정성을 주제로 '구글 AI 포럼'을 열었다.


일상에 깊이 스며든 AI는 선호하는 뉴스나 노래를 추천해주는 등 편리함을 제공하는 4차산업혁명의 핵심 기술 중 하나다. AI는 포함하지 않는 산업이 없을 정도로 사용자들의 가까이에서 영향을 주고 있다. 이러한 AI가 한 쪽에 치우친 정보만을 전달한다면 어떨까. 사용자는 자신도 모르는 사이 AI가 만들어낸 편견을 받아들이고 있을 지도 모른다.


AI가 가진 편견은 머신러닝 알고리즘이 편항된 데이터를 학습한 영향이 크다. AI가 중립성을 지키지 않을 경우 사회차별적 문제가 더욱 심화할 가능성 있어 짚고 넘어가야 할 문제로 지목된다.


구글은 이날 포럼에서 머신러닝 알고리즘이 편향성을 띄게 된 이유에 대해 짚었다.


이날 발표를 맡은 베키 화이트 구글 인공지능 리서치 프로그램 매니저는 "머신러닝은 실존하는 데이터를 바탕으로 학습·분석하기 때문에 현실에서 불공정한 편향성을 확대 재생산할 수 있는 위험이 있다"고 설명했다.


예를 들어 머신러닝 알고리즘이 편향된 데이터를 학습하면, 일자리 매칭 시스템이 CEO면접에 남성 지원자를 더 선호하거나, 번역 시스템이 간호사나 베이비시터 같은 단어를 번역할 때 여성형 대명사로 분류하는 등 일이 발생할 수 있다는 것이다.


또 구글은 같은 알고리즘을 비슷한 다른 분야에 적용할 경우에도 문제가 발생한다고 분석했다. 예컨대 미국 성인을 기준으로 훈련된 음성인식 시스템은 훈련과 동일한 상황에서 공정할 수 있지만, 이 시스템을 10대들에게 적용하면 이들이 사용하는 신조어나 속어를 인식하지 못할 수 있다는 지적이다.


구글은 불공정한 편견을 만들거나 강화하지 않는다는 원칙을 갖고, 머신러닝 알고리즘의 편향성을 줄이기 위해 노력하고 있다는 입장이다. 그 일환으로 구글 번역 웹사이트는 성중립적인 단어의 번역문을 여성형과 남성형 두 가지로 제공하게 됐다.


베키 매니저는 "구글은 AI 기술개발에 있어 책임감을 가지고 인종·성별·소득·종교 등 편향성을 강화해서는 안된다는 원칙을 두고 있다"며 "그 노력의 일환으로 구글 번역이 있는데, 최근 구글 번역은 성적 편향성을 줄이는 데 상당한 성과를 냈다"고 말했다.


이어 "구글 번역은 성중립적인 단어에 대한 번역을 했을 때 과거와 달리 성중립적인 단어를 여성형과 남성형 두가지로 번역해 결과물을 보여주도록 발전했다"고 밝혔다.


구글은 향후 성별에 따른 번역 제공 기능을 더 많은 언어로 확대하고, 안드로이드와 iOS 앱 등 다른 구글 번역 플랫폼에도 해당 기능을 출시한다는 계획이다.


베키 매니저는 "공정성을 위해 원칙적으로 다양한 시각을 반영하는 머신러닝 알고리즘 시스템을 개발하는 게 목표"라며 "기술 및 활용 방식을 향상시키기 위해 구글이 연구한 내용을 지속적으로 공유할 예정"이라고 말했다.


[저작권자ⓒ 아시아타임즈. 무단전재-재배포 금지]

이수영 기자
뉴스댓글 >

오늘의 이슈

주요기사

+

청년의 꿈

300*250woohangshow2018