[미디어스=김홍열 칼럼] “암을 1분 안에 진단합니다.” LG AI연구원이 최근 공개한 ‘엑사원 패스(EXAONE Path) 2.0’은 암세포 조직 이미지를 고정밀로 분석해 유전자 변이 여부까지 예측하는 차세대 의료 인공지능이다. 기존에 2주 이상 걸리던 유전체 검사가 이미지 분석만으로 단축되고, 표적 치료제 추천까지 가능하다. 기술적 수준만 보자면 이미 ‘판단’을 인간 대신 수행할 수 있는 단계에 진입한 것으로 보인다. 하지만 치료 여부를 결정하는 최종 판단은 여전히 인간 의사에게 맡겨진다. 이는 단순히 기술의 미완성 때문만이 아니다. 판단 결과에 따른 사회적 책임과 법적 귀속의 문제가 걸려 있기 때문이다. 

이미지 출처=Pixabay.com
이미지 출처=Pixabay.com

기술은 인간의 결정을 빠르고 정확하게 보조하지만, 그 판단이 실패했을 때 책임을 대신 지지는 않는다. 대표적인 사례가 IBM의 의료 AI ‘왓슨 포 온콜로지(Watson for Oncology)’다. 여러 국가의 병원에서 도입됐지만, 일부 환자에게는 잘못된 처방을 권고했고, 논란이 일었다. 결국 도입을 중단하거나 축소하는 병원이 속출했고, IBM은 공식적으로 이 사업에서 철수했다. 당시 IBM은 “의사의 최종 판단을 보조하는 시스템일 뿐”이라며 책임을 부인했고, 현장의 의료진은 “AI의 권고를 신뢰했을 뿐”이라고 해명했다. 인간과 기술 사이에 책임의 공백이 발생할 때, 그 피해는 환자 개인이 감당하게 된다.  

의료 분야는 그나마 사정이 나은 편이다. 기술과 환자 사이에 ‘의사’라는 제도가 존재해, 개인은 어느 정도 책임으로부터 자유로울 수 있다. 그러나 자율주행차처럼 인간과 기술 사이에 완충 역할을 할 제도가 없는 영역은 상황이 다르다. 2018년 미국 애리조나에서 우버 자율주행차가 보행자를 치어 사망하게 한 사건이 상징적이다. 차량은 자율주행 모드였고, 인간 운전자는 비상 상황에 대비해 탑승하고 있었지만, 당시 스마트폰을 보고 있었다. 우버는 형사 책임을 피했고, 운전자만이 기소됐다. 기술이 운전을 수행했지만, 법과 제도는 ‘기능을 선택한 사람’에게 책임을 물었다. 자율주행 기능을 켰다는 행위 자체가 법적 책임의 근거가 된 것이다.

이미지 출처=Pixabay.com
이미지 출처=Pixabay.com

자율주행이 보편화된다는 것은 곧 인간의 책임이 사실상 무한히 확장될 수 있음을 의미한다. 이 영역에서는 의사처럼 판단을 분담해 줄 사회적 완충장치가 없다. 사고가 발생했을 때, 그것이 기술 결함인지 운전자의 판단 착오인지, 아니면 불가피한 외부 요인 때문인지를 따져보겠지만, 정작 탑승자는 이미 사망했거나 회복할 수 없는 상태일 수 있다. 결국 기술을 믿고 선택한 개인이 그 결과까지 감내하게 된다. 자율주행차가 상용화될수록 개인이 짊어져야 할 무게는 더 커질 수밖에 없다. 기술이 운전하지만, 결과는 인간이 온전히 떠안게 된다. 기술이 정교해질수록 인간의 책임 또한 그만큼 커진다.

근대 이후 비약적으로 발전한 과학기술은 사회 진보에 결정적 공헌을 하기도 했지만, 그만큼 치명적인 폐해를 가져오기도 했다. 지구 온난화로 인한 자연재해, 핵 방사능 유출, 생화학 무기 등에 의한 참상은 인간 이성에 대한 믿음을 뿌리째 흔들었다. 글로벌 연대를 통해 문제 해결을 위한 노력이 진행되는 이유가 여기에 있다. 상황이 더 악화되는 것을 막기 위해서다. 아직은 연대의 강도가 낮긴 하지만, 그래도 남아 있는 인류애적 가치가 어느 정도 제도적 보완책을 수립할 것이라는 희망이 있다. 이러한 믿음은 AI 시대에도 여전히 그 효력을 발휘하고 있다. 유럽 연합에서 인공지능 시스템의 개발, 배포 및 사용을 규제하기 위해 EU AI법을 제정한 것이 그 한 사례다. 

AI (인공지능) (PG) (이미지=연합뉴스)
AI (인공지능) (PG) (이미지=연합뉴스)

하지만 AI 기술은 기존의 과학기술과는 또 다른 과제를 던지고 있다. AI는 단순히 인간의 노동을 대체하는 존재가 아니라, 인간의 판단 능력을 시험하는 거울이 되고 있다. 건강 앱이 권고하는 식단을 따를 것인지, 자율주행 기능을 활성화할 것인지, 알고리즘이 추천한 뉴스를 믿고 공유할 것인지는 이제 모두 개인의 선택이다. 과거에는 전문가나 제도가 판단을 대신했지만, 지금은 그 판단의 책임이 점점 개인에게 이관되고 있다. 자유가 커질수록 책임도 커진다는 원리는 AI 시대에 더욱 분명하게 적용된다. AI로부터 무언가를 얻고자 한다면, 그에 상응하는 책임도 스스로 감당해야 한다.

기술의 발전은 인간에게 새로운 자유를 주는 동시에, 그 자유를 어떻게 사용할지에 대한 윤리적 성찰과 책임을 요구하고 있다. 인간은 더 이상 기술의 수동적 소비자가 아니라, 그 선택과 결과를 스스로 감당해야 하는 능동적 주체가 되어야 한다. 기술이 발전할수록 사회는 제도를 정비하고 법적·윤리적 기준을 세워야 하며, 개인은 기술에 대한 맹목적 신뢰를 넘어서 성숙한 판단과 책임 의식을 가져야 한다. 결국 AI 시대에 '인간다움'이란 기술이 제공하는 선택지 앞에서 주체적으로 사고하고 책임지는 태도에서 출발한다. 자율주행차 탑승 여부의 일차적 판단은 기술적 완성도지만, 최종 판단은 개인의 자율적 결정이다. 

☞ 네이버 뉴스스탠드에서 ‘미디어스’를 만나보세요~ 구독하기 클릭!

저작권자 © 미디어스 무단전재 및 재배포 금지

관련기사