민주주의자라면 AI를 토론에서 떼어놓자
이번 학기 교양 수업의 주제는 AI와 토론이었다. AI가 토론의 퍼실리테이션(facilitation, 진행을 촉진하고 돕는 역할)을 맡아 '좋은 토론'을 구현하는 것이 최종 과제였다. 많은 조들이 주어진 과제를 따라 훌륭한 결과물을 만들었다고 생각한다. 어떤 조는 이성적인 토론을 만들기 위해 AI가 주장에서 감정을 소거하는 방식을 채택했다. 또 어떤 조는 갈등을 드러냄과 동시에 타협안을 내놓기 위해, 의견이 가장 먼 사람들끼리 매칭시키는 AI를 만들었다.
우리 조는 '좋은 토론'을 서로 의견을 좁힐 수 있는 토론으로 설정하고, 타협안을 내놓는 AI를 설정했다. 나는 이 토론이 좋은 토론이라고 생각하지 않았다. 세상에는 의견을 도저히 좁힐 수 없는 문제가 있기 때문이다. 조원들에게 미안하게도 더 좋은 생각이 나지 않아 그대로 진행하긴 했지만, 다른 생각이 났다면 그 아이디어로 밀고 갔을 것 같다.
솔직히 말하면, 다른 조의 결과물도 긍정적으로 생각하지는 않았다. 이 AI는 이래서 안 되고, 저 AI는 이래서 안 되고... 정신을 차려보니 나는 모든 AI를 반대하고 있었고, 이것이 반대를 위한 반대가 아닌지 고민하기 시작했다. 그냥 평범하게 AI가 싫은 것이 아닐까? 무조건적으로 AI를 반대하고 있는 게 아닐까? 그런데 생각해보면 나는 애초부터 토론의 AI 개입에 대해 부정적이었던 것 같다. 의사 결정을 위한 토론은 합의된 규칙에 의해 진행되어야 하고, 거기에 기계가 개입해서는 안 된다고 생각했다.
그렇지만 별 수 없다. 나는 더 나은 결과를 내놓는 토론이 무조건 좋은 토론이라고 생각하지 않는다. 대신 '민주적인' 토론이 좋은 토론이라고 생각한다. 어떤 것이 내가 생각하는 '민주적' 토론인지는 뒤에서 다루겠다.
제시된 AI들을 보면 크게 두 가지 유형이 있다. 하나는 AI가 토론의 구성원 혹은 의장이 되어 토론을 주재하는 형태이다. 다른 하나는 AI를 이용한 시스템을 구축하는 형태이다. 두 사례는 명확히 구분하기 힘들 수 있지만 이번에는 나누어서 다루어본다.
AI는 토론의 구성원이 될 수 있는가. 그렇지 않다고 생각한다. 첫 번째로, 발언권과 의장 권한은 책임과 연관되어 있기 때문이다. AI가 의장을 수행하려면 자신의 발언에 대해 정치사회적 책임을 져야 하고, 필요하면 비판을 받거나 교체될 수 있어야 한다. 그러나 AI의 발언에 문제가 생기면 그 책임은 개발자나 운영자가 지게 되고, AI 자신이 그 대상이 될 수 없다.
두 번째로, AI가 어떠한 행동을 하는 순간 그것은 일종의 '기준'이 되어버린다. AI가 하는 행동은 일반적으로 이성적이고 옳은 것으로 여겨지고, 에러가 발생해도 예외적 시스템 오류로 여겨지게 된다. 따라서 AI가 AI로 여겨진다면, 그 자체로 토론 구성원들 사이의 수평적 관계를 깨뜨리게 된다.
그렇다면 AI를 사용한 시스템은 어떨까. 이것 또한 부당하다고 생각한다. 오랜 시간 구성원들의 논쟁을 거쳐 만들어진 시스템이 아니기 때문이다. 국회법 같은 경우 무수한 갈등을 통해 압축되어 만들어진 정치적 산물이나, AI를 활용한 시스템의 경우 효율적이라고 판단되는 규칙을 일괄 적용하기 때문이다. AI 시스템을 의결 과정에 적용하는 것은 구성원이 제도 형성 과정에 참여할 권리를 박탈한다.
여기까지 읽었다면 반박할 지점이 정말 많이 생각날 것이다. 의장이나 구성원으로 선출되어놓고 책임을 지지 않는 사람들도 많다. 인간 전문가의 발언도 일종의 기준으로 적용될 수 있다.
하지만 내가 전체적으로 하고 싶은 말은, AI가 개입하는 순간 회의체의 정치적 책임이 흐려진다는 것이다. 당연히 사람들은 불완전하고 책임도 지지 않고 주관적이고 서툴다. 제도를 만들어가는 과정 자체도 AI만큼 '당장 합리적이'지 못할지도 모른다. 그렇지만 회의체의 선택이 틀렸을 때, 그 책임은 구성원 모두가 질 의무가 있다. 심지어 전문가가 틀렸을 때도 전문가와 그를 교차검증하지 않은 사람들이 지탄을 받는다.
그러나, AI가 개입하는 순간 정치적 책임은 기술의 설계 혹은 운영으로 옮겨간다. 회의체의 선택이 틀렸을 때 그들의 문제인지, AI의 문제인지 정확히 말할 수 없게 된다. 만일 AI를 이용한 토론이 잘못된 결과를 불러왔다면, 그것은 데이터의 문제일까, 운영자의 문제일까, 시스템 에러일까. 그저 LLM의 운이 안 좋았던 걸까, 혹은 AI를 너무 믿은 사람의 잘못일까.
민주주의라는 말은 사람에 따라 정의가 다를 수 있다고 생각한다. 사전적인 정의를 가져오면, '국민이 권력을 가지고 그 권력을 스스로 행사하는' '제도'이자 '정치사상'이다. 어찌 보면 상태라고도 할 수 있겠다. 구성원이 권력을 가진 상태, 그리고 그 권력을 스스로 행사하는 상태.
하지만 난 그걸 넘어, 구성원 모두가 선택에 대한 책임을 지는 상태가 민주주의의 핵심 조건이라고 생각한다. 선택의 주체가 분명히 구성원에게 있으며, 그에 대한 책임도 회의체가 지는 상태가 이상적인 민주주의라고 주장해본다. AI가 결정권이나 토론 구조에 개입한다면 결과에 관해 AI의 탓을 할 구성원이 단 한 명도 없어야 하며, 그것은 현실적으로 불가능하다.
따라서 나는 AI를 토론 중재 혹은 구조에 개입시켜서는 안 된다고 생각한다. 이미 잘 쓰고 있는 회의록 작성용 AI나 발언 시간 관리 같은 건 논외다. 결정권, 토론 구조, 토론 규칙, 중재에 AI가 개입하는 순간 결론의 책임 소지는 흐려진다. 쉽게 생각해서, LLM이 틀린 정보를 알려줘서 과제 점수가 까였다면 나는 내가 아닌 LLM을 탓할 것 같다. 마찬가지로, AI가 개입한 토론에서 틀린 결론이 나왔다면, 아무리 외부의 비판이 거세도 구성원들은 모두 AI를 탓하지 않을까.