인공지능에 도덕을 입히다, 네이버·카카오, AI윤리기준 강화

네이버와 카카오가 AI 윤리기준 강화에 팔을 걷어 붙였다.
네이버와 카카오가 AI 윤리기준 강화에 팔을 걷어 붙였다.

[아웃소싱타임스 이윤희 기자] 네이버와 카카오 등 국내 대표 IT 기업이 인공지능(AI) 윤리기준 강화에 힘 쏟는다. AI와 관련한 상품 및 서비스 개발이 활발하게 진행됨에 따라 차후 윤리적·도덕적 논란을 야기하지 않도록 개발단계부터 그 기준을 강화하겠다는 방침이다.

네이버는 서울대 AI 정책 이니셔티브와 '인공지능 윤리 : 원칙을 넘어 실천으로 – 현장에서 논하는 AI 윤리' 웨비나를 공동 개최하는 자리에서 '네이버 AI 윤리 준칙'을 발표했다.

'네이버 AI 윤리 준칙'은 네이버의 전 직원이 AI개발과 이용 시 지켜야하는 원칙이다. 기업과 학계가 협업해 AI 윤리 준칙을 세운 첫 사례기도 하다.

준칙 내용에는 ▲사람을 위한 AI 개발 ▲다양성의 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스 설계 ▲프라이버시 보호와 정보 보안 등 5가지 조항을 담았다.

네이버는 이번에 마련한 AI 윤리 준칙이 실천으로 이어질 수 있도록 단계적 실험을 거쳐 구체적인 실천 방안을 제시할 계획이다.
 
카카오 또한 AI 윤리 준수에 박차를 가하고 있다. 카카오는 전 직원을 대상으로 한 인공지능 알고리즘 윤리 교육을 진행했으며, 개발 단계에서부터 알고리즘 윤리를 실천하겠다는 뜻을 전했다.

카카오는 AI 알고리즘 윤리 과정을 신설해 3월 2일까지 전직원을 대상으로 교육을 진행하고, ESG경영을 실천하는 기업으로서 '기업으 디지털 책임 구현'에 앞장서겠다는 방침이다.

이처럼 기업들이 AI 윤리 교육에 만전을 기하는 것은 AI가 야기하는 사회적 차별과 편견 문제 등에 있다. AI 기술은 개발자와 관리자에 의해 학습된 데이터를 기반으로 이뤄지는 시스템이다. 따라서 개발자 및 관리자의 성향, 윤리의식, 가치관 등이 시스템 전반에 영향을 미치게 된다.

편향된 데이터가 학습된 인공지능 기술은 '객관적'이고 '논리적'일 것이라는 신뢰와는 상반되는 결과를 낳을 수 있는 셈이다. 실제로 해외에서는 특정 인종이나 성적 지향성을 차별하는 데이터가 학습된 인공지능 서비스가 논란을 낳기도 했다.

인공지능 윤리와 관련한 문제 해결은 향후 인공지능 산업 성장에 중요 요소로 여겨지고 있다. 그러나 이를 실질적으로 법제화 하기는 어렵다는게 정부 입장이다.

이에대해 최기영 과학기술저보통신부 장관은 "윤리적인 부분은 법제화가 어려울 것 같다"며 "인공지능 윤리 문제는 교육 등 다른 방법으로 해결을 모색해야한다"고 의견을 전한 바 있다.

한편, 지난해 12월 출시된 AI챗봇 '이루다'는 20대 여성으로 설정된 인공지능 기술에 대한 심각한 성적 대상화가 논란이 되며, 서비스 3주만에 운영이 중단되기도 했다.