[미디어스=윤수현 기자] # 지난달 인공지능(AI) 챗봇 서비스 ‘이루다’가 소수자 혐오 발언을 학습해 논란이 불거졌다. 이루다는 이용자와의 채팅을 통해 지식과 대화 능력을 학습하는 딥러닝 알고리즘 구조로 이뤄져 있다. 문제가 불거지자 개발사는 이루다 서비스를 잠정 중단했다.

# 국립국어원이 200억의 예산을 투자해 만든 AI 학습자료 ‘모두의 말뭉치’에 혐오 차별 표현이 포함된 것으로 나타났다. 이용자들이 의도적으로 혐오 차별 표현을 입력했고, 말뭉치가 이를 필터링하지 못한 것이다. 말뭉치에는 “에이즈는 OO(성소수자)이 걸리는 거 아닌가”, “마누라 ××하고 죽인다고 해줄게” 등의 문장이 들어가 있었다.

AI 챗봇 서비스 이루다의 혐오 차별 표현

최근 AI 윤리 문제가 화두에 오르고 있다. 이용자 패턴에 따라 스스로 학습하는 딥러닝 알고리즘이 대중화되면서 선한 의지로 만들어진 AI가 비윤리적인 모습을 보이는 경우가 발생하고 있는 것이다. 이와 관련해 “최근 불거진 AI 논란의 핵심은 기술이 아닌 윤리의 문제”라며 알고리즘 윤리 가이드라인 제정, 관련 교육 강화 등이 요구되고 있다.

2일 과학기술정보통신부와 정보통신정책연구원(KISDI)은 <사람중심의 인공지능 구현을 위한 정책 세미나>를 개최했다. 문정욱 KISDI 센터장은 정부가 AI에 대한 규범을 설정해야 한다고 밝혔다. 문 센터장은 “AI 윤리 문제에 대한 책임을 구체적으로 정해야 한다”며 “현업에서 참고할 수 있는 구체적 규범이 나와야 한다”고 말했다.

실제 해외는 국가, 기업 차원에서 AI 관련 가이드라인을 마련하고 있다. 유럽연합은 지난해 7월 AI 투명성, 비차별성, 공정성, 책임성, 안정성 등을 규정한 평가목록을 발표했다. 유럽연합은 기업들의 참여를 유도하기 위해 AI 영향평가 실시를 권고하고 있다. 영향평가는 AI가 사람들을 부정적으로 차별할 가능성이 있는지, 아동의 권리를 존중하는지, 표현의 자유를 존중하는지 등을 조사하는 것을 골자로 한다.

마이크로소프트는 지난해 3월 AI 공정성 체크리스트를 만들었다. 마이크로소프트는 AI가 공정성 관련 피해를 줄 수 있는지 자체적으로 검토하고 문제가 발생할 시 개발중단까지 고려하고 있다.

반면 한국의 AI 윤리규범은 걸음마 단계다. 방송통신위원회는 지난해 11월 '이용자 중심의 지능정보사회를 위한 원칙'이라는 선언적 규정을 발표했다. 방통위는 이루다 사태가 발생하자 AI 윤리규범을 구체화하겠다고 밝혔다. 방통위는 AI 교육, 이용자 보호, 컨설팅 방안을 수립할 계획이다. 과기정통부는 지난해 12월 '국가 인공지능 윤리기준' 초안을 만들어 의견을 받고 있다.

문 센터장은 “AI의 윤리 확산을 위해선 기업, 학계, 정부, 시민단체의 협력이 중요하다”며 “개발자와 서비스 제공자는 타원의 권리를 침해하지 않는 선에서 정당한 이익을 추구하고, 정부는 협력적 거버넌스 체계를 구축해야 한다”고 강조했다.

AI (사진=연합뉴스)

변순웅 서울교대 교수는 학교에서 AI 윤리교육을 실시해야 한다고 했다. 한국의 AI 교육은 직업교육 및 체험 수준에 그치고 있다. 변 교수는 “이루다 사태는 AI 윤리교육의 필요성을 역설적으로 보여주는 사건이었다”며 “개발자 윤리와 사용자 윤리가 동시에 구축되어야 한다. 한국의 상황에 맞는 AI 윤리교육이 필요한 때”라고 설명했다.

이현규 정보통신기획평가원 PM은 사업자의 자율규제가 필요하다고 했다. 기업이 딥러닝의 성장 방향을 예측할 수 없기 때문에 스스로 개발자 교육 및 관리를 실시해야 한다는 것이다. 이 PM은 “AI의 기술적 완성도가 높지 않은 상황에서 가이드라인이 만들어지면 연구 단계에서 위축효과가 나올 수 있다”며 “개발자도 딥러닝이 어떤 방향으로 나아갈지 알지 못하는 상황에서 가장 중요한 것은 투명성 확보다. 이는 기업들이 스스로 내부적 교육을 실시해 바로잡을 수 있다”고 밝혔다.

이 PM은 “삼성이나 네이버 같은 IT 대기업에서 자율규제를 적극 도입해야 한다”며 “중소기업의 경우 자율규제를 실시할 여건이 마련되어 있지 않을 수 있다. 이 경우 정부가 윤리기준·신뢰성 기반조성 도구를 만들어 기업에 제공해야 한다”고 말했다.

신민수 한양대 교수는 정부가 구체적이고 실효성 있는 AI 가이드라인을 만들어야 한다고 권고했다. 신 교수는 “민간기업에서 과연 AI 윤리원칙을 자율적으로 적용할까”라며 “민간기업은 기술적인 부분에 의존할 수밖에 없다. 외부의 평가를 불편해하기 때문”이라고 했다. 신 교수는 “가이드라인의 실효성을 담보하기 위해선 적용 범위가 명확히 정해져야 한다”고 밝혔다.

기업들은 AI 규범을 인정하면서도 강제성을 띤 가이드라인 제정에는 반대했다. 김대원 카카오 이사는 “공공적 차원에서의 AI 윤리규범을 논의할 때는 징벌적 차원에서의 고민을 하면 안 된다”며 “기업이 어떤 식으로 나아가야 하는지 인센티브를 제공하는 방법으로 접근해야 한다. 인센티브가 있어야 기업이 자발적으로 참여할 것”이라고 했다. 김 이사는 “AI 생태계에서 기업뿐 아니라 사용자에게도 문제가 있을 수 있다”며 “사용자가 문제를 일으키는 경우도 많다. 가이드라인에서 이용자 관련 내용도 강조되어야 한다”고 밝혔다.

강용성 와이즈넛 대표는 “AI 가이드라인이 나오는 건 바람직한 현상”이라면서 “다만 제도적 합의를 어떻게 만들어가는지가 중요하다. 가이드라인이 AI 기술력 성장 속도를 떨어뜨리는 기재가 되지 않기 위해 노력해야 한다”고 말했다.

사람중심의 인공지능 구현을 위한 정책 세미나 (사진=과학기술정보통신부 유튜브 갈무리)

이번 <사람중심의 인공지능 구현을 위한 정책 세미나>는 과기정통부와 KISDI 주최로 2일 열렸다. 발제자는 문정욱 KISDI 센터장, 변순용 서울교대 교수, 이현규 정보통신기획평가원 PM이다. 토론자는 고학수 서울대 교수, 강용성 와이즈넛 대표, 김대원 카카오 이사, 김효은 한밭대 교수, 박우철 네이버 변호사, 신민수 한양대 교수, 이수영 KAIST 교수, 김경만 과기정통부 과장 등이다.

저작권자 © 미디어스 무단전재 및 재배포 금지