최종편집 : 2021-01-26 09:34 (화)
알고리즘에도 '불평등'이 담겨있다
상태바
알고리즘에도 '불평등'이 담겨있다
  • 이성주 기자
  • 승인 2020.11.30 14:34
  • 댓글 0
이 기사를 공유합니다

의료 임상 진단 알고리즘에서 인종 간 불평등 드러나
유사한 사례가 다른 알고리즘에서도 발견
ⓒPhoto by Irwan iwe on Unsplash
ⓒPhoto by Irwan iwe on Unsplash

[프롤로그=이성주] '인공지능(AI, Artificial Intelligence)'은 컴퓨터 학문에서 오랫동안 유니콘처럼 다뤄져 왔다. 여기서 말하는 ‘유니콘’은 거대한 신생기업을 의미하는 것이 아니다. 오랜 시간 동안 될 듯 되지 않을 듯한 분야로 취급받던 인공지능이 다시금 화제를 모은 것은 지난 2016년 구글의 알파고(AlphaGo)와 이세돌 9단의 대결부터다. 

구글 딥마인드가 개발한 인공지능 바둑 프로그램인 알파고는 “체스와 다르게 바둑에서는 인공지능이 인간을 이기는 것은 불가능하다”라는 일각의 주장을 산산조각내며 화려하게 등장했다. 이후 행보에서도 내로라하는 프로들을 모두 격파하면서 1승이라도 거둔 이세돌 9단이 얼마나 대단한 기사인지 돋보이게 할 정도였다.

◇ 의료 인공지능 'IBM 왓슨'의 실패

국내에서는 이후 인공지능 열풍이 불었다. 정확하게는 기존에 진행 중이던 인공지능 관련 연구에 관심이 집중됐다. 대표적인 것이 병원들의 'IBM 왓슨' 도입이다. 2016년 12월에 가천대 길병원에서 최초 도입한 이후 2017년 부산대병원이 도입하였고, 이후 여러 병원에서 앞다퉈 왓슨을 도입했다. 각 병원은 왓슨이 의사처럼 병을 알아서 진단하진 못 하더라도 의사의 진단에 도움을 줄 것이라고 기대를 모았다.

결과는 어땠을까. 왓슨을 도입했던 병원들은 계약이 종료되자 재계약을 하지 않고 포기했다. 거액을 투자해서 도입했지만, 국내 의료 실정과 맞지 않아서 실효성이 없는 것으로 드러났다. 특히 의견 일치율이 떨어지는 것이 문제였다. 이러한 결과는 다른 나라에서도 마찬가지였다. 

애초 IBM에서 밝혔던 왓슨과 의료진 간의 의견 일치율은 실로 놀라운 수준이었다. 메모리얼 슬로언 케터링 암센터에서 진행된 연구에서는 주요 암에서 의견 일치율이 90%를 넘었었다. 하지만 이런 결과는 다른 나라에서는 나타나지 않고 있다.

그 원인은 통계에 기반하여 알고리즘을 통해 결과를 도출하는 인공지능 왓슨은 주요 결과를 수집하는 것은 가능해도 실제 복잡한 임상을 파악하고 이해하는 것이 어렵기 때문으로 보인다.

◇ 불평등이 담긴 알고리즘

지난 10월 WIRED에 흥미로운 내용의 기사가 실렸다. 환자의 질환 중증도를 진단하는 데 사용되는 알고리즘에 인종 간 불평등이 존재한다는 내용이었다.

새로운 연구 결과에서 신장 질환의 중등도 진단에 사용되는 알고리즘에서 흑인 환자의 심각성을 백인 환자에 비해 과소평가하는 것이 나타났다. 문제는 이러한 것이 빙산의 일각일 것이라는 점이었다.

미국에서는 국내와 다르게 의료보험 체계가 복잡하다. 그래서 의료보험을 제대로 지원받는 것이 어려운 이들이 많다. 소득 격차에 따른 의료의 질이 달라지는 일도 비일비재하다. 이러한 점으로 인해 백인보다 흑인의 경우에 만성 질환자가 많고, 받는 의료의 질도 떨어지는 현상이 있다. 이러한 점이 알고리즘을 계산하는 수학적인 처리에도 반영된다는 것이 이번에 나타난 가장 심각한 문제이다.

인종을 고려한 알고리즘이 우리가 눈치채지 못하는 사이 많다는 사실이 더 큰 우려를 낳고 있다. 이번 연구 결과로 인종 간 불평등이 반영된 알고리즘은 수많은 임상 진단 알고리즘 중 하나이다. 즉, 다른 많은 임상 진단 알고리즘에도 이러한 불평등이 담겨 있을 가능성이 매우 높다.

전문가들은 이러한 불평등을 담고 있는 알고리즘의 문제는 단순히 직접적인 피해를 보고 있는 인종만의 문제가 아니라고 지적한다. 캘리포니아 대학 샌프란시스코 캠퍼스(UC San Francisco) 교수이자 신장학자인 버네사 그럽스(Vanessa Grubbs)는 “(단순히)흑인만이 영향을 받는 것이 아닙니다”라고 설명했다. 이어서 인종을 고려한 계산식을 이용하면 의사는 모든 환자를 인종으로 분류하게 되어 환자에게 필요한 적합한 의료 판단에 집중할 수 없다고 꼬집으며, “인종을 기준으로 하는 의료 알고리즘은 모든 사람에게 해로운 것입니다”라고 전했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사