※ 아래는 2023년 3월 2일, 코트(KOTE) 포트락 강연의 후반부를 정리한 글입니다.
1.
앞에서는 언어 생성 인공지능 ChatGPT하고 번역 인공지능 DeepL, 이렇게 언어 인공지능 두 개를 실제 이것저것 해보면서 알아보았습니다. 그럼 여기까지 살피고 나서, 이제 이런 기술에서 출발하는 몇 가지 질문을 보도록 하겠습니다. 사실 하나하나가 우리가 좀 따져봐야 할 내용들인 것 같아요.
우선, 언어가 도대체 뭐냐? 요약이라는 게 뭐냐? 이런 물음에서 시작해 보겠습니다. ChatGPT는 답변은 물론 요약도 잘해줍니다. 한 5천 단어 정도의 신문 기사를 넣었더니 10줄 정도로 요약해 주더라고요. 근데 도대체 요약한다는 게 무슨 뜻일까요? ChatGPT를 살펴보니까, 키워드에 해당하는 것들을 그냥 얼버무려서 우리한테 전달해주더라고요. 따라서 그 키워드 안에 들어있는 ‘내용’에 대해서는 우리에게 알려준 바가 별로 없는 것 같아요.
말하자면 이런 겁니다. 오늘 제가 말씀드린 강의 내용 1시간 분량을 텍스트로 넣어주고 요약하라고 시키면, ‘연사(Speaker)는 ChatGPT 같은 언어 생성 인공지능과 DeepL 같은 언어 번역 인공지능에 대해 흥미로운 이야기를 했다’, 이렇게 끝내요. 이 요약을 들은 사람이 얻어들을 수 있는 정보라는 게 별로 없는 거죠. 이런 경우가 굉장히 많더라고요.
따라서 인공지능이 해주는 요약이라는 건 이를테면 우리가 전체 글을 읽어야 할지 말아야 할지를 대충 걸러주는 역할, 마치 논문 맨 앞에 있는 초록(Abstract) 정도 역할을 하는구나, 따라서 이 문서 또는 이 글에서 우리가 얻어갈 수 있는 게 있는지 없는지를 점검하는 정도 수준으로 ChatGPT가 작업하는구나, 하고 생각할 수 있습니다. 인공지능의 요약 작업이란 그런 수준에서 받아들여야 한다고 생각합니다.
2.
다음에, 이해(Understanding)라는 게 뭐냐? 이건 되게 어려운 주제입니다. 우리가 어떤 언어적인 내용을 이해한다는 게 무슨 뜻일까요? 굉장히 철학적인 질문입니다. 도대체 기계가 이해한다는 게, 인간의 언어를 이해한다는 게 무슨 말일까요?
이런 질문과도 연결됩니다. 과연 ChatGPT가 내용을 이해한 걸까요? 이해하고 답변한 걸까요? DeepL은 이해하고 번역한 걸까요? 우리가 물어볼 수 있습니다. 책 한 권 분량의 주제입니다. 그런데 보통 강의에서는 ‘책 한 권 분량의 주제’라고 말하고 강의를 마칩니다. 그냥 넘어가는 거예요. 근데 저는 철학을 하니까 그냥 넘어가면 안 되겠죠. 도대체 여기서 진행되는 일이 무엇일까요?
기계가 이해하느냐, 라는 문제를 보죠. 1950년에 인공지능을 개념적으로 발명한 앨런 튜링(Alan Turing)이 비슷한 질문을 던졌어요. 기계가 생각할 수 있을까? 이 질문에 대해 우리가 ‘생각’이나 ‘이해’ 같은 말을 사전을 찾아서 답할 수도 있습니다. 네이버 국어사전을 한번 보겠습니다. 사전을 찾아보면 이런 식으로 나옵니다.
- 사리를 분별하여 해석함.
- 깨달아 앎. 또는 잘 알아서 받아들임.
- 남의 사정을 잘 헤아려 너그러이 받아들임.
- [철학] 문화를 마음의 표현이라는 각도에서 그 뜻을 파악함. 딜타이의 용어이다.
이게 사전에 나와 있는 정의입니다. ‘이해’의 의미가 이해되나요? 이걸 통해 우리가 이해라는 말을 이해하지는 못합니다.
앨런 튜링은 그래서 사람들에게 물어봐서 제일 많은 답이 나온 걸 그 말의 뜻으로 이해하자고 생각하기도 했습니다. 가령 갤럽 여론조사, 그러니까 다수결로 뜻과 의미를 정하자는 거죠. 그런데 그건 좀 어리석은 짓이죠. 왜냐하면 다수결이 항상 맞는 게 아니기 때문입니다.
그래서 튜링은 이렇게 제안합니다. 튜링이 ‘이미테이션 게임’이라고 부른 겁니다. 커튼을 치고 저 편에 누군가가 있는데 타자기로 친 쪽지로 질문과 답을 주고받는 거예요. 오늘날로 말하면 채팅입니다. 우리가 반대편에 있는 어떤 존재와 5분 정도 캐물어 가며 대화하고 나서… 여기서 캐묻는다는 점이 중요합니다. 튜링은 ‘심문한다(interrogate)’라는 표현을 쓰거든요.
심문이라는 건 검사가 혐의자에게 캐묻는 행위, 아니면 법정에서 증인한테 판사나 검사나 변호사가 묻는 것과 같은 일이예요. 이런 식으로 5분 정도 심층 대화를 나눈 후에 저쪽이 인간인 것 같다, 한 70% 확률로 그렇게 생각된다, 이렇게 되면 그냥 인간으로 칠 수밖에 없다는 겁니다. 이미테이션은 ‘인간을 흉내 낸다’는 뜻입니다. 나중에 튜링이 죽고 나서 그걸 ‘튜링 검사(Turing test)’라고 불렀습니다.
이제 이렇게 물어볼 수 있어요. 그렇다면 ChatGPT가 의미를 이해한 거냐? 왜냐하면 아까 본 것처럼 우리가 ChatGPT에게 질문했어요. 철학 공부를 어떻게 시작하면 좋을까? 근데 답변을 읽고 나면 ChatGPT가 내 말을 잘 알아듣고 심지어 어떤 혜안을 갖고서 그걸 나한테 알려주는구나, 라는 마치 사람과 대화하는 것 같은 느낌을 줘요. 물론 아닐 때도 있다는 걸 확인했습니다만, 그런 느낌을 줄 때가 더 많다면, 한 70%는 그렇다고 한다면, ChatGPT가 이해했다고 쳐줄 수 있다는 거죠.
이게 튜링의 아이디어였고, 굉장히 오랫동안 지금까지도 논란거리입니다. 그래서 ChatGPT가 튜링 테스트를 통과했느냐 아니냐를 놓고 철학자, 언어학자, 컴퓨터 공학학자가 따지고 있는 중이지요. 사실 철학에 관한 질문을 하면 어지간한 사람은, 여기 인사동에서 길가는 분을 붙잡고 물어보면, 대개는 그런 거 답을 못해요. 그런 거치고, ChatGPT가 훨씬 더 인간에 가까운 게 아니냐 얘기할 수도 있다는 거죠.
3.
존 설(John Searle)이라는 미국의 철학자가 있습니다. 이 사람은 ChatGPT가 튜링 검사를 통과해서 그럴듯하게 얘기하더라도 그건 이해한 게 아니라고 주장합니다. 그러면서 중국어 방(Chinese room)이라는 사고 실험을 합니다. 중국어 방에 대해 ChatGPT 한테 물어보겠습니다.
존 설의 중국어 방 실험을 설명해줘.
통신 문제 때문인지 답변이 느리네요. 그럼 제가 설명드리죠. 어떤 방이 있고, 안에는 미국인이 있어요. 영어밖에 모르는 이 사람이 바깥에 있는 중국인과 대화를 나누는 상황을 가정한 거예요. 바깥에 있는 사람과 중국어로 타자된 한자로 필담을 나누는 거죠.
중국어 문장을 집어넣어 주면 그 안에 있는 미국인은 영어로 된 매뉴얼을 보고 사전 찾을 때처럼 이 글자는 몇 페이지 어디 어디에 나와 있고 거기에 대해서는 이러이러하게 답변하라고 써 있어서, 그에 맞게 출력해서 밖으로 내보냅니다. 대화가 이루어지는 상황인 거죠. 밖에 있는 사람은 저 안에 있는 사람이 중국어를 이해한다고 생각하게 되겠지요.
바로 그런 거대한 중국어 방이 ChatGPT 인 거예요. 뭔가 이해하는 것처럼 우리와 대화를 주고받잖아요. 그러니까 ChatGPT는 편의상 튜링 검사를 통과했다고 쳐줄 수 있는 지점이 있습니다. 가끔 엉뚱한 얘기도 하지만 꽤 잘 얘기하니까요. 만일 그렇다면 ChatGPT 가 중국어를 이해한 걸까요? 존 설은 ChatGPT는 중국어를 이해한 게 아니라고 얘기합니다. 왜냐하면 방 안에 있는 미국인은 규칙대로 그냥 처리했을 뿐이니까요.
영어로 Syntax, 우리말로 ‘통사론’ 혹은 ‘구문론’이라고 합니다. 문법대로 그냥 처리했을 뿐이라는 거예요. 이처럼 설과 튜링의 대결은 지금도 팽팽하다고 볼 수 있습니다. 설은 ChatGPT는 기계일 뿐이고, 문법대로 즉 프로그램대로 처리하는 것일 뿐 이해한 건 아니라는 겁니다.
4.
근데 저는 6년쯤 전에 쓴 『인공지능의 시대, 인간을 다시 묻다』에서도 주장했던 것처럼, 튜링이 더 현실적인 게 아닌가 합니다. 왜 그러냐?
가령 이것도 또 하나의 사고 실험인데요, 지금 이 방에서 우리는 모두 한국어로 말하고 있어요. 그런데 사실 3분의 1은 나노 로봇입니다. 아주 정교하게 만들었고, 인공지능이 탑재되어 있어요. 다른 3분의 1은 사실 높은 지능이 있는 외계인인데 인간처럼 분장했어요. 영화 속 트랜스포머 있죠? 나머지 3분의 1만 한국 사람입니다. 우리가 자유롭게 섞여서 대화하고 있을 때, 이 상황에서 과연 인간과 로봇과 외계인을 구분할 수 있을까요? 구분할 수 없죠. 절대로 구별하지 못합니다.
그러니까 튜링처럼 대화를 나눠서 식별하는 접근 말고는 다른 접근 경로가 없습니다. 튜링의 검사, 이미테이션 게임, 얼마나 흉내를 잘 내는지를 판별하는 게임이 유일한 접근 방법이라고 할 수밖에 없다는 겁니다. 그렇게 치면 ChatGPT는 튜링에 의하면 언어를 이해하고 인간처럼 생각하는 존재라고 답할 수밖에 없는 거죠.
이 지점에서 한 단계 더 들어가 볼 수 있습니다. 뭐냐 하면, 우리가 ‘생각’이나 ‘이해’ 같은 문제를 다룰 때 어려운 지점이 있어요. ‘나’에 대해서는 생각하고 있다는 걸 거의 확신합니다. 나는 생각하고 있고, 어떤 내용을 이해하고 있거나, ‘적어도 50%는 이해하고 있다’고 자각하고 있어요. 그걸 의식하고 있습니다.
근데 남에 대해, 나 말고 다른 외부 존재에 대해서는 확인할 길이 없습니다. 이게 중요해요. 나는 1인칭적 존재인데 타인은 3인칭적인 존재예요. 따라서 저 사람의 머릿속으로 들어가지 않는 한 그 사람이 이해하는지 혹은 생각하는지 알 수가 없습니다. 확인할 길이 1도 없어요.
사실 이렇게 얘기하는 사람도 있어요. 누구의 머리를 뜯어보면 사람처럼 뇌가 있고 따라서 생각한다고 확인할 수 있다는 거예요. 사실은 그것조차도 정교한 나노 로봇이거나 외계인일 수 있습니다. 사실은 여기 계신 이번 코트 포트락 축제의 운영위원장 이지성 감독님이 외계인이었어요. 그래서 ‘부라보콘’ 같은 훌륭한 광고를 만들 수 있었던 거예요. 이건 지구인이 할 수 있는 그런 창작의 산물이 아니니까요. 하지만 외계인인지 인간인지 확인할 수 없습니다. 객관적으로 검증할 수 없어요.
그래서 의미를 이해했느냐 혹은 생각하고 있냐, 라는 주제는 항상 논쟁거리가 될 수밖에 없습니다. ChatGPT의 등장, 혹은 DeepL이나 구글 번역 아니면 파파고의 등장은 이런 질문을, 즉 인간이 뭐냐, 도대체 인간이 생각하고 이해한다는 게 뭐냐를 계속 묻게끔 하는 철학적인 문제 상황을 불러옵니다.
5.
이제 한 단계 더 파고들어 보겠습니다. 이런 번역 인공지능이나 언어 생성 인공지능에서 확인할 수 있는 건, 좀 더 세부적인 내용으로 한 걸음 더 들어가면 오역이나 잘못된 정보가 확인된다는 것을 한 번 더 주목할 필요가 있습니다.
예를 들면 아까 지적한 것처럼 제가 철학을 전공했기 때문에 소크라테스가 글을 쓰지 않았다는 걸 압니다. 전문 분야마다 해당 전문 지식과 전문가가 있고, 그 지식에 비추어서 어떤 내용이 실제로 그런지 분별하고 판별하고 평가할 수 있는 지점이 있기 마련입니다.
ChatGPT를 둘러싸고 흥미로운 점은, 자기가 잘 아는 분야에 대해서는 얘가 완전 바보라고 얘기하고 잘 모르는 분야에 대해서는 이거 엄청나다고 말하는 경우가 많더라고요. 그런 것들을 보면, 자기 전문 분야의 지식(domain knowledge), 자기가 기왕에 습득한 전문 지식이 언어 생성이나 언어 번역과 관련해서 평가의 중요한 잣대 역할을 한다는 것이 확인되는 면이 있습니다. 다시 말하면 ‘평균적인’ 수준의 문장을 번역하거나 정보를 생성하는 일에는 별 문제를 제기하지 않지만, 평균에서 벗어나 있는 ‘변칙(abnormal, anomaly)’에 대해서는 ChatGPT가 잘 모른다고 지적하게 되는 겁니다.
변칙이라는 건 오랜 학습과 경험 속에서 얻게 된 ‘평균에서 먼 지식’입니다. 인간한테 변칙이라는 건 도대체 무엇일까요? 인간 사고의 중심에 있는 어떤 평균적이고 보편적인 것 말고, 예외적이고 뭔가 난데없고 그리고 수적으로 보면 너무 사례가 드문, 그렇게 ‘보통과 평균’ 바깥에 존재하는, 경계 바깥쪽에 존재하는 것, 그래서 기존의 것을 넘어서는 인간 활동과 관련되는 것이 아닐까요?
그러니까 가령 어떤 중심이 있고, 중심이라는 건 중요하다는 뜻이 아니고 평균적으로 빈도가 많은 곳인데요, 점점 중심에서 바깥으로 갈수록 예외가 되고 뭔가 특이한 게 되고 변칙이 되는데, 그 정체는 바로 인간이 평균적으로 습득해 놓은 지식과 지혜, 즉 우리의 유산(legacy)을 넘어선 어떤 지점들입니다. 넘어섰다는 건 두 가지 의미를 가질 수 있습니다.
첫 번째는 엉뚱하고 삐딱하다는 뜻일 수 있고, 두 번째는 기존에 없던 뭔가로 한 단계 도약했다는 뜻일 수 있습니다. 후자를 창조적 혹은 창의적이라고 합니다. 영어로 creative죠. 중심은 ‘고인 물’입니다. 그러니까 옛날에 누군가가 했던 것들이 안정적으로 자리 잡고 있는 상태입니다. 현재 안에 있는 과거형이에요. 인간이 그걸 넘어서서 뭔가 다르고 더 재밌는 것을 추구해 찾아내고 만들어내는 활동을 하고 있다는 게 ‘의미 이해’나 ‘생각’의 본질을 고려할 때 중요하게 생각해야 할 지점이라고 봅니다. 현재 안의 미래라고 할까요?
철학자 니체(Friedrich Nietzsche)는 인간을 규정할 때 가장 중요한 특징으로 ‘자기 자신을 넘어서는 존재’라는 점을 지적합니다. 이게 ‘초인(Übermensch)’의 의미와 관련됩니다. 인간이되 자기를 넘어서는 존재로서의 인간, 영어로 하면 overcome oneself가 인간의 본질이라는 겁니다. 그러니까 인간은 고인 물, 아까 말씀드린 중간 지대, 평균 지대에 멈춰 있지 않고 바깥쪽으로 가서 뭔가 새로운 걸 보태는, 그러니까 유산에 뭔가 창조적인 내용물들을 보태는, 계속 그렇게 보태 갑니다. 그런 활동이 인간의 본질이라고 니체는 규정한 겁니다. 이게 왜 중요할까요?
인간의 사고 활동, 생각 활동이라는 게 일이라고 한다면, 남들이 하지 않았던, 보통은 인간이 하고 있지 않은 활동을 하는 게 결국 생각과 이해 같은 말들의 진정한 의미 아닐까요? 과학과 예술과 철학과 그 밖에 온갖 종류의 발명과 창조 작업이 일어나는 그 지점이 유산의 바깥 쪽이고 이와 관련된 활동이 생각과 이해인 것이지, 안쪽, 즉 유산에 머무는 것들이 생각과 이해의 본질은 아니지 않겠냐, 하는 생각을 해보게 됩니다. 결국 인간이 무엇인지 묻게 되는 거죠.
평균적인 것들은 우리가 되풀이하는 일종의 반복이죠. 그게 아니라 평균을 넘어 평균이 아닌 영역을 자꾸 찾아서 끌고 들어와 사람들에게 소개하는 그런 부류의 활동을 인간의 생각과 이해 같은 활동의 진정한 의미라고 주장해볼 수 있지 않을까요? 이런 생각을 해보게 됩니다.
6.
기묘한 상황입니다. 그러니까 인간이 만든 최고의 발명품 중 하나인 인공지능을 통해 인간이 무엇인지 한 번 더 발견하는 상황이 아닌가 합니다. 언어를 단순히 정보를 주고받는 수단으로 생각하지 말자는 거죠. 최소한 기계 번역이나 ChatGPT 같은 언어 생성 인공지능은 언어를 확정적인 의미로 보고, 서로 전달되는 정보 형태로 존재한다고 여기지만, 사실은 그 이상이 아닐까요?
기계는 언어를 정보 교환의 수준에서 다루지만, 이 지점을 넘어 뭔가 더 창조적인 활동에 수반하는 것으로서 걸러져서 흔적을 남기는 것이 언어의 더 본질적인 측면이 아닐까요? 따라서 본래적인 언어는 기계 수준 언어의 바깥쪽에 있다고까지 생각해 볼 수 있습니다.
한 마디 더 콘서트면 같은 장소라면, 그런 것들이 사실은 인간이 집단 존재(collective beings)로서 살아가는 본질이 드러나는 지점이라고 할 수도 있습니다. 그러니까 우리가 단지 어떤 정보를 얻는 것, 가령 오늘 코트에서 포트락 축제가 열린다는 정도의 정보를 주고받는 거는 함께 살아가는 존재로서의 인간 또는 인류 전체를 한 묶음으로 묶을 수 있는 측면의 아주 일부에 불과하다는 것입니다. 서로 새로운 걸 찾아서 그걸 인간의 공동 저장소(pool)에다가 계속 넣어주는 존재라는 점이 중요합니다.
또는 뭐랄까, 인간에게는 서로의 삶을 강요하는, ‘너 이렇게 해야 해’라고 계속 요청하는, 언어와 비언어를 합해서 뭔가 행동을 요구하는 면모가 있는데, 의미를 서로 주고받는 수준을 넘어 작동하는 측면도 중요합니다(사실 비언어의 대표적인 게 예술이죠). 그래서 그런 점들까지도 활성화되는 지점까지 생각해봐야 하는 게 아닌가 합니다.
7,
그래서 마지막으로 도대체 뭘 학습해야 할지도 많이 질문하게 돼요. 어떤 사람들은 이 질문을 회사에서 필요로 하는 능력과 연관 지으면서 유치한 질문이라고 얘기하기도 해요. 그런데 인공지능이라는, 새로우면서도 인간보다 많은 부분에서 뛰어난 활동을 할 수 있는 기계가 등장한 이상 그걸 활용해서 더 인간다운 삶을 살고 또는 더 나은 삶을 살 수 있기 위해 어떤 능력을 길러야 하느냐고 물으면서 접근한다면 단순히 업무 능력을 키워서 회사에서 일 잘하겠다는 수준의 질문으로 떨어지지는 않을 것 같아요.
여기서 놈 촘스키(Noam Chomsky)라는 미국의 언어학자를 잠깐 언급하겠습니다. ChatGPT는 작년 2022년 11월 30일에 출시됐어요. 미국에서 한 달 반 정도 논의된 시점인 1월 중순에 촘스키가 인터뷰를 합니다. 거기서 가장 먼저 제기된 질문인데요, 학생들이 ChatGPT 이용해서 보고서 써내는 문제를 제일 중요한 이슈로 다뤘습니다.
촘스키는 ChatGPT를 “첨단 기술 표절(High-Tech plagiarism)”이라고 단언했어요. 첨단 기술을 활용해서 하는 표절이라는 거죠. 이 말의 요점이 뭘까요? 인공지능을 통해 보고서를 대충 생성해서 제출하고 일종의 표절과 커닝 같은 짓을 하는 상황이 개탄스럽다는 거였습니다. 전에는 카피 킬러 같은 표절 잡아내는 프로그램들이 있었는데, ChatGPT가 만든 건 적발하기 힘들다, 우리 교수들이 좀 많이 곤란하다는 취지의 말이었습니다. (나머지 내용은 더 정리해서 나중에 페이스북 같은 데 공개하겠습니다. 아직 한국에서는 공유가 안 된 것 같아요.)
작년 겨울방학 직전에 ChatGPT가 나왔기 때문에 슬슬 소문이 확산하면서 올해 1월, 2월 이렇게 지나면서 한국의 교수들도 비슷한 사안을 고민하게 됐습니다. 그러자 보고서 쓸 때 ChatGPT를 허용할 거냐 말 거냐, 학생들이 숙제하고 공부할 때 ChatGPT를 금지할 거냐 말 거냐, 인터넷 끊고 시험을 치르거나 보고서를 교실에 모여서 쓰게 하거나, 등등 여러 가지 얘기가 나왔고, 최근에는 그거 어쩔 수 없다, 막을 수 없으니까 활용하되 활용했다는 걸 명기해라, 이런 얘기까지 나오고 있습니다. 오늘 3월 2일이니까 다 개학했죠. 대부분 학교가 ChatGPT를 문제로 보는데, 사실 촘스키가 제기한 ‘하이테크 표절’이라는 논점에서 벗어나지 않은 것 같아요.
저는 이게 굉장히 불만입니다. 학생들이 ChatGPT를 이용해서 에세이를 쓰고 보고서를 낸다는 게 도대체 무슨 의미일까요? 고등교육에서 에세이 과제를 낸다는 게 도대체 무슨 의미일까요? 이런 것들을 교육 전반의 차원에서 검토하지 않고 있어요. 표절 문제를 최우선으로 걱정하고 있다는 게 한심하게 보입니다. 대학은 개인의 여러 역량을 키워주고 훈련시켜주는 곳이고, 대학을 졸업하고 사회에 나가서 그 능력을 발휘해서, 도구의 도움을 받으며 자기 혼자 뭔가를 처리해야 하는데, 학술 영역이건 비즈니스 분야이건 간에 ‘혼자 뭘 하려고 할 때’ 활용할 수 있는 능력을 길러주는 게 핵심 아닐까요?
그런데 이 문제를 고민하지 않고, 표절해서 또는 남의 답안지를 베껴서 좋은 학점을 받게 되는 게 큰 문제라는 식으로 논점을 좁게 가져가니까 제가 불만을 느끼는 겁니다. 물론 윤리도 중요합니다. 하지만 더 큰 쟁점이 있습니다. 이 지점에서 진짜로 물어봐야 하는 건 결국 대학에서 배워야 하는 능력이라는 게 무엇이냐 아닐까요? 교수들이 이 능력을 키워주는 문제에 대해 별 고민이 없고 대안도 없다면, 도대체 대학의 존재의 의미는 무엇이고, 나아가 교육의 의미는 무엇인지 물어봐야 하지 않을까요?
지금 시점에 교육 제도 전반을 다시 물어야 합니다. 교육과 학습의 본질을 물어야 합니다. 그런데 이런 얘기들은 거의 논의가 안 되고 있는 것 같습니다. 아마도 그런 논의를 하는 사람들이 주로 대학 교수인데 자기들도 답이 없고, 또 그런 문제 자꾸 제기하면 생계에 위협이 될 것 같은 느낌이 들기도 하고, 해서가 아닐까 추정합니다.
에세이를 쓴다는 게 무슨 의미일까요? 글쓰기의 핵심이 무엇일까요? 글쓰기의 전 과정에서 무슨 일이 일어나는 걸까요? 필요한 정보를 수집하고, 요약하고 정리하고, 거기에 자기 생각을 보태고 빚어내서 자기 글로 결과물을 만드는 이 전반적인 과정의 의미가 무엇일까요? 그리고 그 과정 속에서 훈련되는 일의 핵심이 무엇일까요? 체득이라는 게 뭘까요? 이 지점을 건들지 않으면 안 됩니다. 단지 그럴싸한 결과물을 내는 게 중요한 건 아닙니다.
근데 교수들은 단지 이걸 평가하는 일, 그러니까 사람이 정말 순수하게 노력해서 쓴 글과 인공지능이 만들어준 글을 구별하지 못할까 봐 겁나는 거 아닐까요? 레포트를 제출하라는 숙제의 본질이 그런 걸까요? 자기 전문 분야라는 게 분명히 있고, 대학 교수는 특히 더 그러한데, 전문 분야에서 아주 세밀한 뉘앙스를 찾아내는 능력을 갖추고 있어야 되는데, 인공지능은 분명 계속 실수하니까 그런 실수를 찾아내야 하는데 그 일에 교수들이 자신감이 없는 게 아닐까요? 뭘 가르쳐야 하는지 자기도 모르겠다는 것 아닐까요?
글쓰기라는 걸 단순히 어떤 내용을 담은 보고서 작성 수준으로 이해할 게 아니라, 생각의 훈련, 즉 자기 생각을 벼리고 잘 키우는 훈련이라고, 그래서 아까 말씀드렸던 인류 유산의 외곽 지대에 있는 문제들에 자꾸 도전할 수 있게 해주는 정신의 근력과 체력을 길러주는 그런 종류의 활동이라고 봐야 하지 않을까요? 인간의 생각과 사고의 본질이 그런 것들에 자꾸 도전하고 넘어가는 거라고 치면, 그 부분을 훈련하는 게 교육의 본질이어야 하지 않을까요?
현대의 교육은 그걸 못하고 있고, 동시에 인공지능이 등장하면서 그동안 못해왔다는 게 들통나서 두려워진 상황이 되어버린 게 아닐까요? 해당 분야의 전문가만이 알아챌 수 있는 뉘앙스나 새롭고 더 좋은 점을 분별하는 ‘감식안’을 키우는 게 중요한 것 아닐까요?
예술적 안목도 비슷한 뜻일 테고, 비평 감각(critical sense)이란 말도 마찬가지일 겁니다. 이런 걸 길러주는 게 교육의 핵심이어야 하지 않을까요? 웹진X의 동료 편집 위원 민경진 PSB 대표의 말을 빌리면 이렇습니다.
‘건축은 건물을 짓는 거고, 감리는 제대로 지었는지를 확인하는 겁니다. 그런데 인공지능은 건축가지 감리사가 아닙니다. 우리에게 필요한 건 감리사입니다.’
인공지능이 만들었건 인간이 만들었건 간에, 아니면 과거에 만든 것이건 다른 지역에서 온 것이건 간에, 생산물을 변별하고 분별하고 감식하는 예술가적 혜안 같은 능력을 기르는 일이 교육에서 목표로 삼아야 할 지향점이 아닐까 합니다.
8. 마무리하며
마지막으로 영국의 정치인 윈스턴 처칠(Winston Churchill)이 한 말을 소개하겠습니다. 이 양반이 20세기 초반에 영국건축협회를 상대로 연설한 게 인상적입니다(1924년). 처칠은 이런 말을 했습니다.
우리는 건물을 짓는다. 그다음에는 건물이 우리를 짓는다.
We shape our buildings and then they shape us.
처칠이 잘 얘기했고, 그다음엔 마셜 매클루언(Marshall McLuhan), 그 후에 들뢰즈(Gilles Deleuze)가 잘 파악했듯ㅇ 인간과 기술은 결국 서로가 서로를 계속 형성하는 방식으로 공진화(共進化)하는 관계를 맺는 과정 속에 있습니다.
기왕 이렇게 인공지능 세상에 들어온 이상, 인공지능 기술이 인간을 어떻게 좀 더 향상시키게 할 수 있을지 모색해야 합니다. 결국 인간이 잘하고 있고 잘할 수 있고 잘 해왔던 측면을 강화하는 형태로 가는 게 교육이어야 하고, 그게 하나의 돌파구일 수 있지 않을까 생각하게 됩니다. 자기를 넘어서는 그런 활동 말입니다.