과학책 번역가가 생성 AI 시대를 바라보는 방식


‘AI가 대체할 직업 1순위’로 번역가·통역사가 꼽혔다. 노승영 번역가를 만나 인공지능에 대한 생각을 물었다. 의외로 비관적이고, 놀랍도록 단호했다.

 

 


< 시사IN,  전혜원 기자, 2023.05.19 >

 

 


노승영은 과학책 전문 번역가다. 영문과를 나와서 대학원 인지과학협동과정에 진학해 언어학·철학·심리학·신경과학·컴퓨터공학을 공부했다. 컴퓨터 회사에서 번역 프로그램을 만들고 환경단체에서 일하다 2007년부터 번역을 시작했다. 지금까지 번역서 100권을 냈다. 1년에 6권, 하루에 200자 원고지 45장을 우리말로 옮긴다.

‘AI가 대체할 직업 1순위’로 번역가·통역사가 꼽히는 시대(90.9%, 한국언론진흥재단 미디어연구센터 온라인 설문조사, 2023), 과학적 태도가 서로를 구할 것이라고 믿는 ‘이과 출신’ 번역가가 인공지능을 바라보는 시선이 궁금했다. 의외로 비관적이고, 놀랍도록 단호했다.

최근 〈조선일보〉에 “이미 AI 때문에 타격을 받고 있다”라고 말했다.

번역의 범위가 굉장히 넓다. 단행본도 있지만 정말 큰 비중을 차지하는 게 실용적인 부문이다. 관광 통역이나 기업의 매뉴얼, 각 정부의 법률 문서, 홈페이지, 프로그램이나 애플리케이션의 설명들…. 그런 것이 다 번역의 대상인데, 대부분 이미 기계번역이 장악한 것 같다. 마이크로소프트도 기술문서를 기계번역한 지 오래다. 몇 년 전부터 번역회사들은 먼저 기계번역을 한 뒤 사람에게 포스트 에디팅, 즉 감수를 맡기고 있다. 중국 드라마를 서비스하는 한 업체는 들여올 작품을 정할 때 기계번역을 쓴다. 출판 쪽은 아직 판권이란 게 있어서 덜하지만, 출판사가 박리다매하겠다고 마음만 먹으면 ‘번역 말고 감수만 하라’고 요청해올지 모른다.

 


구글, 파파고에 이어 딥엘(deepL) 번역 성능이 화제가 됐다. 챗지피티는 따로 훈련하지 않았는데도 번역을 한다. 이런 서비스를 사용해봤나?

일에는 전혀 쓰지 않는다. 직접 하는 걸 좋아하기도 하고, 나는 나의 번역을 하는 거니까. 저작권이 만료된 책을 번역할 때 기존 한국어판을 참고하는데, 그 이유가 똑같은 번역을 하지 않기 위해서다. 번역가는 정답을 찾아야 하지만 그건 자신만의 정답이지, 다른 번역가들에게는 또 다른 정답이 있다. 번역가마다 해석하는 게 다르다. 기계번역은 표절에 무관심하다. 사람과는 접근법이 반대다. 다만 영어가 아닌 다른 외국어 자료를 볼 때는 내용 파악을 위해 기계번역을 쓰고, 도움이 될 때도 있다. 하지만 이 역시 최종적 근거로 쓰진 않는다. 오역을 해도 책임을 물을 수 없기 때문이다.

 


“번역은 실력이 아니라 속력에 따라 보상받는다”라고 쓴 적이 있다. AI는 빠른 데다 무료다.

사람들은 싸고 빠른 번역을 찾겠지만 나까지 그 방향으로 갈 순 없다. 나의 쓸모가 점점 없어지다가 나중에는 필요 없어질 것 아닌가. 산업혁명 이후로 숙련공들이 자신의 기술을 매뉴얼로 만들면 기계가 인간의 일자리를 대체하는 과정이 반복돼왔다. 이제 인간의 정신적 노동까지도 대체하는 단계에 와 있다. 창의력이 필요한 부분이 마지막에 남을 텐데, 과연 인간의 창의력이란 게 기계와 질적으로 다른지는 탐구해봐야 한다. 다르지 않을 수도 있다. 인간 자체도 물질로 이뤄진 존재니까. 앨런 튜링은 인간의 마음이 컴퓨터가 계산하는 것과 근본적으로 다르지 않다고 봤다(그는 앨런 튜링의 글 모음집 〈지능에 관하여〉를 번역했다). ‘계산주의적 마음 이론’이라고 하는데, 어쩌면 인간의 두뇌도 정보처리 기계에 불과하고, 특별한 자유의지나 의식이란 건 없을지도 모른다.

 


번역가를 꿈꾸는 사람이 있다면, 권하겠나?

한국법제연구원이라는 기관이 있다. 한국의 법령을 영어로 번역해서 제공한다. 지금까지는 거기 계신 번역사분들이 직접 번역을 했는데, 이제 인공지능 번역을 도입하려고 한다더라. 나는 사회적인 합의가 필요하다고 생각한다. 인공지능이 모든 걸 할 수 있다고 해서 다 거기에 넘겨버리는 데 동의할 것인지, 아니면 개발을 그만하고 수작업으로 돌아갈지. 이대로라면 인간의 가치, 노동의 가치가 없어지는 사회가 될 것이다. 그렇게 가지 않을 수도 있다. 우리가 그렇게 안 가면 된다.

 


기술개발을 멈추자는 뜻인가?

그렇다. 물론 못할 것이다. 인류는 할 수 있는 일을 계속 해왔고, 자본 증식을 위해 신기술을 계속 도입할 테니까. 우리는 에너지 위기나 전쟁으로 인류의 종말이 올 거라고 생각하지만, 인공지능에 의해 인간의 필요성이 없어지는 식의 종말 시나리오도 가능하지 않을까. 의도적으로 피하지 않고는 방법이 없다고 본다.

 


한 강연에서 기본소득을 언급했다.

수많은 사람들이 빅데이터로 기여하는데도 인정을 받지 못하고 있다. 빼앗기기만 하고. 인간 번역가와 AI를 비교하는 게 의미가 없는 것이, 우리가 수백 년 동안 번역해놓은 걸로 학습을 한 거다. 기본소득이라는 형태로 그런 노고를 인정해줘야 한다는 논의에 귀 기울일 만하다. 번역가는 원래부터 좀 아슬아슬한 직업이었고, 출판 자체가 사양산업이어서, 이제 기계와 경쟁하는 상황이 됐다. 인간 번역가가 지금처럼 노동의 대가를 받으면서 생계를 유지할 수 있을까? 그게 안 되면 다들 번역을 그만둘 것이다. 그러면 언어의 발전도 끝나는 거라고 생각한다. 그걸 막기 위해서는, 정부에서 쌀농사를 보호하는 것처럼, 이제는 인간의 정신노동도 보호해야 하지 않을까. 그렇게 하지 않으면 시장 논리로는 도태될 수도 있을 것 같다. 시간과 비용이 사실상 0이므로, 소비자에게 필요한 수준만 넘어선다면 사람들은 당연히 기계번역을 쓸 것이다. 자생력을 갖기 어렵다.


번역가가 멸종하면 언어의 발전이 끝나나?

일할 때 어떤 단어를 무엇으로 번역해야 할지, 다른 사람은 뭐라고 번역했는지 검색을 해보는데, 이미 기계번역이 된 문장이 너무 많이 나온다. 사실 출처를 알 수 없다. 사람이 했는지도 구별하기 어렵다. 여러 번역 엔진이 제각기 다른 번역을 하는데, 기계에게는 왜 이렇게 번역했는지 물어볼 수가 없다. 그렇게 수많은 번역들이 쏟아져 나와 우리의 정보공간을 가득 메우면, 어떤 것도 판단할 수 없는 상황에 이를지도 모른다. 보르헤스가 말하는 ‘바벨의 도서관’처럼, 가능한 모든 정보들이 존재함으로써 어떤 정보도 의미가 없어지는 상태다.

 


챗지피티가 블로그 글을 쓰는 시대다.

이미 기계가 만들어낸 문장을 다시 기계가 학습하고, 그걸 또 다른 기계가 학습 데이터로 쓰고 있다고 의심한다. 일종의 자가발전인데, 이러면 세상에는 점점 뭉뚱그려진 정보만 남게 될 거다. 무엇보다 기계번역은 평균을 만드는 작업이다. 우리가 책에서 얻고자 하는 ‘탁월함’이라는 관점은 빠져 있다. 원리를 파악하는 게 아니라 통계로 예측하다 보니, 통계상에 있는 잡음이 계속 쌓이면 신호 자체가 틀리게 된다. 챗지피티가 엉뚱한 얘기를 하는 것과 비슷하다.

 


‘AI가 대체할 직업’에서 번역가·통역사가 1순위로 꼽혔다.

효율성 때문에 우리가 기계한테 상대가 되지 않는데, 사실 모든 걸 효율적으로 해야 할 이유는 없다. 의도적으로 불편하게 살 수도, 일부러 더 오랜 시간 걸려서 무언가를 할 수도 있다. 그게 의미 있는 일이라면 말이다. 번역할 때 독자를 상정하고 그 독자와 대화를 한다. 살아온 인생이 있고, 살과 피를 가지고 있는 인간 대 인간으로서 대화를 나누는 과정이 번역이다. 기계는 문장을 이해하지 않고 텍스트를 변환한다. 글자만 보면 똑같아 보이지만 관계 자체가 다르다. 예술가들이 하는 일도 마찬가지다. 굉장히 오랜 시간이 지나면 차이가 나타날지도 모르겠다.

 


생성 AI 시대를 살아가는 시민들에게 하고 싶은 말이 있다면?

내가 공들이는 걸 포착해주는 독자들이 있길 바란다. 사실 번역가로서 엄밀한 표현을 쓰려고 굉장히 고민을 많이 하고 시간을 들인다. 그런데 요즘 신문을 보면 의미를 정확하게 파악할 수 없는 문장들, 특히 정치 영역에서 의도적으로 오해를 불러일으키기 위해 하는 말들이 난무한다. 거기에 대해서 별다른 문제 제기가 없다. 당연하다고 여기고 넘어간다. 말을 정확하고 아름답게 하기 위해 노력하는 일 자체가 사회적으로 의미가 없어지는 게 아닌가 하는 생각이 든다. 사람들이 집요하게 물고 늘어졌으면, 특히 기자들이 끝까지 질문했으면 좋겠다. 말의 의미에 대해서.

 

“챗GPT, 넌 역사학자야”… 역할 부여하니 더 구체적으로 답변
명령 따라 답변이 천차만별
똘똘한 AI 만드는 ‘프롬프트’

 

< 조선일보, 임경업 기자 / 이해인 기자, 2023.05.11.  >

 


챗GPT를 처음 써보면, 인공지능(AI)의 답변에 실망하는 경우가 많다. 인간의 언어를 모방해 문장과 글을 생성하는 AI의 특성상 거짓말을 하거나, 기대에 미치지 못하는 부실한 답변을 왕왕 내놓기 때문이다. 하지만 이는 반은 맞고, 반은 틀린 얘기다. AI로부터 똑똑한 답변을 이끌어내려면, 원하는 걸 정확히 얻을 수 있는 질문을 해야 한다. 컴퓨터공학에선 컴퓨터에 내리는 이런 명령을 ‘프롬프트(prompt)’라고 한다.

실제로 최근 전 세계 엔지니어들 사이에선 ‘프롬프트 엔지니어링 마켓’ 열풍이 불고 있다. IT 전문 매체 더 인포메이션에 따르면, 프롬프트 베이스라는 인터넷 사이트에선 적게는 3달러, 많게는 30달러 이상에 프롬프트가 거래된다. 프로그램을 사고파는 것이 아니라, AI에 내릴 명령어와 명령을 내리는 노하우를 사고파는 것이다. 짧게는 5~6문장, 길게는 10문장 이상으로 구성돼 있다. 이곳에선 챗GPT용을 비롯해 그림을 그려주는 미드저니, 달리 등 각종 AI를 위한 프롬프트 수천개가 거래된다. 프롬프트 베이스에서 거래되는 상위 프롬프트 10개 중 4개는 마케팅, 광고와 관련된 것이었다. 더 인포메이션은 “상위 개발자는 프롬프트로 한 달에 수백만원의 수입을 거둔다”고 했다. 국내에서도 다음 달 ‘프롬프트 타운’이란 첫 거래 사이트가 문을 열 예정이다.

 


◇ 한국어보다 영어로, 질문은 구체적이고 간결하게

실제로 프롬프트 베이스에서 가장 인기가 많은 프롬프트를 3달러에 구매하자, 그 안에는 AI에 역할을 부여하는 노하우와 명령어가 담겨 있었다. 총 7문장에 달하는 명령어 중간에 필요한 질문 내용을 넣고, 챗GPT 대화창에 올리면 된다. 예컨대 경복궁에 대한 설명이 필요할 때 역사적 배경이 궁금한 경우 ‘act as a historian(역사학자로서)’이란 내용을 명령어 중간에 넣고, 관광 목적일 경우에는 ‘act as a tour guide(관광가이드로서)’라고 입력하면 된다. 영어 문구를 교정하고 싶을 때도 ‘act as an English teacher(영어 교사로서)’라고 입력하면 문법이나 어휘 오류를 잡기에 좋다. AI가 충분한 답을 해줄 수 있도록 특정 분야 전문가 역할을 부여하는 것이다.

프롬프트 전문가들은 챗GPT에서 최적의 결과를 얻기 위해선 한국어보다는 영어로 질문하고, 문장은 구체적이고 간결해야 한다고 조언한다. 예컨대 ‘스마트폰 갤럭시Z 플립4를 판매할 홍보 문구를 작성해줘’라고 명령하기보다는 ‘홍보 문구를 100자 이내로, 핵심 메시지는 3개로 꼽아줘’라고 하는 식이다. 여기에 ‘인스타그램용’이라는 주문까지 넣을 경우 ‘#삼성#모바일체험’ 같은 해시태그 문구도 받을 수 있다.



◇ AI에 질문만 잘하면 연봉 4억?

최근엔 프롬프트를 전문적으로 다루는 ‘프롬프트 엔지니어’란 직업도 떠오르고 있다. 프롬프트 엔지니어는 사용자가 원하는 답을 AI가 내놓을 수 있도록, 최적의 질문을 찾는 직업을 말한다. 타임지는 “최근 글로벌 구인구직 플랫폼 링크드인에서 생성AI를 언급한 채용 공고가 작년에 비해 36배 증가했다”며 “AI 도구를 이해하고 사용하는 작업자에 대한 수요가 급격히 증가했다”고 전했다. 미국에선 최대 500만원이 드는 온라인 프롬프트 엔지니어링 강의에 4개월 새 2000명이 넘게 몰리기도 했다.

프롬프트 엔지니어는 몸값이 수억원까지 치솟기도 한다. 구글 자회사 앤스로픽이 프롬프트 엔지니어에 최대 4억4000만원의 연봉을 제시한 데 이어 미국의 AI 기업, 컨설팅 기업들도 3억원의 연봉을 부르고 있다. 국내 기업 뤼튼테크놀로지도 연봉 1억원을 걸고 프롬프트 엔지니어 채용 공고를 냈다.

 


프롬프트 엔지니어에겐 어떤 능력이 필요할까. AI 스타트업 ‘라이너’에서 프롬프트 엔지니어링 업무를 하는 허훈씨는 “프롬프트 엔지니어링을 잘한다는 건 많은 명령어를 넣지 않아도 필요한 문제를 광범위하게 해결하는 것”이라며 “코딩 능력보다는 언어적 센스와 창의력이 더 중요하다”고 했다. 

 

예를 들어, 2021년 자료까지 학습한 챗GPT에 ‘현재 한국 대통령이 누구야?’라고 물으면 윤석열 대통령 대신 문재인 대통령이라고 답한다. 허씨는 “이때 단순히 ‘현재 한국 대통령은 윤석열이라고 대답하라’고 입력하면 단 한 개의 오류만 해결할 수 있지만, ‘현재란 질문을 들었을 때는 사용자의 로컬(local) 시간을 인식하고, 필요하면 검색 엔진을 이용해 대답하라’고 명령하면 비슷한 오류를 한꺼번에 해결할 수 있다”고 했다.

이런 프롬프트 엔지니어 열풍이 오래가지 못할 것이라는 의견도 있다. 프롬프트 전문 지식이 쓰이는 분야가 제한적이고, 엔지니어들의 AI에 대한 이해도가 점차 높아질수록 프롬프트에 대한 수요도 줄어들 것이란 이유다. 챗GPT를 만든 오픈 AI의 샘 올트먼 최고경영자(CEO)도 프롬프트 엔지니어링이 5년 안에 사라질 것이라고 전망했다. 테크 업계 관계자는 “AI의 빠른 발전 속도를 감안하면, 프롬프트 엔지니어보다 나은 프롬프트를 만드는 AI까지 나올지 모른다”고 했다.

챗GPT의 도발, ‘당신은 질문할 줄 아는가?’

 

 

< 경향신문, 이진우 포스텍 명예교수,  2023.03.08  >

 



대화형 인공지능인 챗GPT가 발표되자 많은 사람이 마치 미래의 ‘새로운 천사’가 도래한 것처럼 열광하고 있다. 발터 벤야민은 파울 클레의 1920년 작품 ‘새로운 천사’를 보고 역사의 진보를 폭풍으로 비유한 것처럼, 오늘날 인류문명을 대변하는 인공지능의 발전이 그 방향과 규모를 가늠할 수 없는 허리케인처럼 보인다. 천국에서 불어오는 폭풍은 너무 세차서 천사는 날갯짓을 제대로 하지 못하는 것처럼 보이는 이 그림이 인공지능 혁명을 마주한 우리의 모습과 닮아 있다.


벤야민의 말처럼 인류의 진보가 항상 폭풍을 수반한다면, 챗GPT가 일으킬 폭풍은 세 가지 질문으로 다가온다. 

당신의 일자리는 정말 대체될 수 없는 것인가? 

당신은 옳고 그름을 판단할 수 있는가? 

인간을 인간답게 만드는 것은 과연 무엇인가?

 


대화형 인공지능인 챗GPT가 출시된 지 불과 8주 만에 사용자가 1억명에 달했다고 한다. 그 정도의 사용자를 확보하는 데 인스타그램은 2년 반, 틱톡은 9개월이나 걸렸다는 점을 생각하면, 이 대화형 인공지능은 엄청나게 빠르게 성장하고 있다. 그것이 가져올 변화와 충격은 그 발전의 속도만큼이나 상상조차 하기 힘들다. 어떤 사람은 최초의 자동차가 굉음을 내며 지나간 19세기의 변화와 같을 것이라 말하고, 어떤 사람은 15세기 구텐베르크 문자혁명과 비교하기도 한다. 구글의 최고경영자 순다르 피차이는 한 걸음 더 나아가 이미 2018년에 인공지능의 효과는 인간이 발명한 불이나 전기보다 훨씬 더 클 것이라고 장담하였다. 대화형 챗GPT는 이미 시작한 인공지능 혁명을 가시적으로 보여줄 뿐이다.

인공지능은 우리의 삶을 근본적으로 변화시킬 것이지만 우리는 아직 이를 제대로 인지하지 못하고 있는 것처럼 보인다. 인공지능 혁명은 두더지 땅굴 파듯 이미 조용히 진행되고 있었는데 이세돌과 알파고의 바둑 대결을 통해서야 비로소 널리 알려지지 않았는가.

챗GPT에 대한 우리의 대응도 별로 다른 것 같지 않다. 대화형 인공지능이 가져올 변화와 효과에 대한 거품이 커지면 커질수록, 인공지능 혁명의 본질은 더욱 흐릿하게 사라진다. 사람들은 대화형 인공지능으로 새롭게 열린 돈벌이에 열광하거나, 또는 한 걸음 성큼 다가온 인공지능 혁명을 국가적 차원에서 대비해야 한다고 강변한다. 챗GPT를 돈벌이 수단으로 생각하는 ‘자본주의’와 반도체 강국을 인공지능 강국으로 만들어야 한다는 ‘민족주의’가 이상하게 결합할수록, 우리는 대화형 인공지능으로 더욱 현실화된 인공지능 혁명을 과소평가하게 된다.

 


본질과 방향 정확하게 포착 필요

 


챗GPT가 도대체 무엇이길래 혁명적인가? 챗GPT는 인간과 대화를 나눌 수 있도록 설계된 소프트웨어이다. 기계가 마치 인간처럼 우리와 대화를 나누게 된 것이다. 간단히 말해 대화형 챗봇이 살아난 것이다. 대화의 주제는 일상생활의 사소한 것에서부터 우주과학의 심오한 원리에까지 다양하다. 대화형 인공지능은 연설과 칼럼을 작성하고 인터뷰도 할 수 있다. 인공지능이 쓰는 시와 소설은 이미 전문가 수준이고, 셰익스피어를 흉내 내고, 고흐를 모방할 뿐만 아니라 몇 가지 키워드만 입력하면 실물과 같은 이미지를 만들어내기도 한다. 어디 그뿐인가? 기후변화에 관해 물었더니 돌이킬 수 없는 재앙적 변화로 이어질 수 있는 지구 시스템의 위기가 빠르면 2030년에 발생할 수 있다고 경고하기도 한다. 이러한 대화형 인공지능이 가져올 변화는 실로 혁명적이다.

인공지능을 통해 미래에서 불어오는 태풍에 대비하려면, 우리는 그 본질과 방향을 정확하게 포착해야 한다. 인공지능의 발전이 돌이킬 수 없는 인류의 운명이라면, 모든 문제는 사실 우리에게 달려 있다. 우리는 인공지능과 함께 어떤 존재가 되고자 하는가?

 


문제는 인공지능의 발전 자체가 아니라 ‘그것으로 훼손될 수 있는 인간의 고유한 능력이 무엇인가’이다. 대화형 인공지능 챗GPT가 나에게 일깨워준 인간의 능력은 ‘질문’이다. 챗봇과의 대화도 사실 인간의 질문으로 시작한다. 인간이 물어보면, 챗봇은 입력된 인터넷 데이터를 검색하여 적절한 대답을 제공한다. 인간이 묻고, 챗봇이 대답하는 것이다.

 


인간만이 물을 수 있다는 것은 챗봇에 대한 인간의 우위를 말해준다. 마이크로소프트의 대화형 인공지능 ‘빙’(Bing)에 이렇게 물었다. “너에게 개인적인 것을 물어봐도 돼?” 빙이 대답한다. “안녕하세요. 저는 빙이라고 합니다. 🙂 네, 저는 당신과 대화하는 것을 좋아합니다. 하지만 저는 개인적인 것에 대해 말하거나 의견을 표현하는 것은 피하려고 합니다. 저는 당신이 원하는 정보를 찾아드리기 위해 최선을 다하겠습니다.

 


“너는 나한테 물어보고 싶은 게 없어?” 빙이 대답한다. “저는 당신에 대해 물어보는 것은 적절하지 않다고 생각합니다. 저는 당신의 검색 도우미이기 때문입니다. 저는 당신이 원하는 정보를 찾아드리기 위해 최선을 다하겠습니다.” 이렇게 인간이 묻고, 챗봇이 대답한다. 대화형 인공지능이 단순히 검색 도우미라면, 우리는 챗GPT에서 위협을 느낄 필요가 없다. 대화형 인공지능이 제공하는 답변이 매우 광범위할지라도 그 답변은 우리가 이미 과거에 입력한 것이기 때문이다.

 


그런데 나는 챗GPT를 보면서 인간이 묻는 것이 아니라 챗봇이 이렇게 묻는 것처럼 보였다. 첫째, 당신의 일은 정말 대체할 수 없는 것인가? 대화형 인공지능이 제일 먼저 변화시킬 곳이 일자리라는 것은 분명하다. 문제는 그 변화가 많은 사람이 예상하는 것과는 다른 곳에서 이루어질 가능성이 크다.

인간은 이제 많은 부분에서 인공지능 기계와 경쟁한다. 그 경쟁의 문제점을 고도의 창의성이 요구되는 분야에서만 봐서는 안 된다. 인공지능이 시를 짓고, 소설을 쓰고, 그림을 그린다고 해서 인간의 영역이 훼손되는 것은 아니다. 우리가 모두 노벨상을 바라보고 경쟁하는 것은 아니지 않은가. 인공지능은 오히려 창의성이 별로 요구되지 않는 대부분의 일상 업무에서 우리의 일자리를 위협할 것이다. 많은 공장의 조립 라인이 인공지능으로 대체되면서 일자리가 사라진 것처럼, 앞으로는 정신노동으로 여겨졌던 지적 조립 라인도 위협받을 것이다.

 


결국 우리는 끊임없이 물어야

 


둘째, 당신은 정말 옳고 그름을 판단할 수 있는가? 빙에게 “네가 제공하는 답변이 진실인지 어떻게 알 수 있어?”라고 물었더니 이렇게 대답한다. “저는 제공하는 답변에 항상 출처를 표시하고 있습니다. 저는 인터넷 검색 결과 중에서 신뢰할 수 있는 자료들을 선별하여 답변을 만듭니다. 하지만 저도 완벽하지 않으므로, 제 답변이 진실인지 판단하는 것은 결국 사용자님의 몫입니다. 저는 사용자님께서 스스로 생각하고 판단하실 수 있도록 도움을 드리고자 합니다.”

지금 인터넷에서는 챗GPT가 제공한 어처구니없는 답변에 관한 조롱 섞인 유머가 돌아다니지만, 엄청난 데이터와 수십억개의 항목에 해당하는 텍스트에서 추출한 답은 사실 우리의 판단력을 마비시킨다. 무엇을 물어봐도 모르는 게 없고, 그것도 매우 빠르고 ‘정확하게’ 전달하는 까닭에 인공지능이 정교하게 발전할수록 챗GPT는 우리에게 초인적 인지능력을 가진 석학처럼 여겨진다.

여러 지식 영역을 통합하고 인간 사고의 여러 측면을 모방하는 인공지능의 능력은 보통 인간의 인지능력을 능가하기 때문에 챗GPT가 생성하는 모든 것을 의심 없이 수용하는 마법적인 분위기가 조성된다. 우리가 의심하는 능력을 상실한다면, 인공지능이 인간 사용자에게 제공하는 잘못된 정보는 어떤 결과를 초래할 것인가?

 


셋째, 인간에게 가장 인간다운 능력과 가치는 무엇인가? 인공지능이 인류가 발전시킨 모든 지식을 포괄할 뿐만 아니라 지식의 발전에 도움을 준다면, 우리는 인간과 세계를 훨씬 더 잘 이해하게 된 것인가? 인공지능은 이렇게 우리에게 마지막 질문을 던지는 것처럼 보인다.

인공지능은 우리의 질문에 대해 ‘즉각적으로’(prompt) 읽고 쓸 수 있는 텍스트로 답변하지만, 우리는 어떤 방법과 과정으로 그러한 답변에 이르게 되었는지를 알지 못한다. 이렇게 얻은 지식이 반드시 인간과 세계에 대한 우리의 이해를 증진시키는 것은 아니다.

 



결국 우리는 끊임없이 물어야 한다. 

 

우리는 어떤 세계를 위해 인공지능을 발전시키는 것인가? 

인공지능 혁명에 대한 답은 결국 우리에게 달려 있기 때문이다. 

챗GPT는 우리에게 이렇게 묻는다. 당신은 여전히 질문할 줄 아는가?

챗GPT에 대처하는 미디어의 미래

 

 

 

< 경향신문, 송경재 상지대 사회적경제학과 교수,  2023.02.20 >

 


2023년 벽두, 디지털 화두는 챗GPT이다. 오픈AI가 2022년 12월1일 공개한 인공지능 챗봇인 챗GPT는 스스로 언어를 생성, 추론하는 능력이 있다.


서비스 2개월 만에 챗GPT에 대한 관심이 급증하면서 다양한 실험결과가 발표되고 있다. 대학교 논문과 보고서 작성에서 챗GPT가 사람이 작성하는 것보다 좋다는 평가가 나오기도 했다. 이에 미국 대학교에서는 챗GPT를 걸러낼 수 있는 프로그램을 도입하겠다고 발표하기도 했다. 세계적인 과학 학술지 ‘네이처’는 챗GPT 사용에 대해 이를 논문 저자로 인정하지 않고 만약 사용할 경우 반드시 논문에 명시해야 한다는 원칙을 제시하고 있다. 그리고 챗GPT의 기술적 한계도 문제가 되고 있다. 챗GPT는 2021년 데이터까지 학습하였기 때문에 2022년 데이터는 반영이 안 된다는 단점이 있다.

 

 

자연스럽게 챗GPT가 미디어에 미치는 변화에 대한 관심도 많다. 챗GPT에 대한 긍정적 평가는 미디어를 근본적으로 변화시킬 것이란 전망이다. 첫째, 도입 초기에는 기자와 챗GPT의 역할 분업화를 통한 새로운 구조가 만들어질 수 있다. 그에 따라 이미 기사작성과 편집, 교열, 보도 분야에서 나타난 로봇 저널리즘이 더 확산할 것이다. 무엇보다 챗GPT를 이용하여 기자들은 단순한 정보 찾기와 사실확인을 하는 시간이 줄고, 본격적 심층취재와 깊이 있는 현상 분석에 전념할 수도 있다. 스포츠, 날씨, 증시 시황, 간단한 스트레이트 속보 등 사실 전달은 챗GPT가 담당하고, 전문분석 및 심층 보도는 기자가 담당하는 기능 분업화가 가속화될 것이다.

 


둘째, 더 큰 변화는 챗GPT가 고도화되면서 나타날 미래이다. 인간이 물리적·시간적 제약으로 분석하기 어려운 많은 데이터를 찾아서 쉽게 설명하거나 새로운 논리 구조를 만들 수 있다는 장점이 있다. 자연스럽게 챗GPT는 전문가들이 주도했던 분석기사, 전망과 비판 등의 역할을 대체할 수 있다는 이야기가 나온다. 실제 챗GPT 등 AI가 법률, 사건검색, 의료 등 다양한 전문영역에 도전한 사례는 많다. 이제 본격적으로 미디어 영역에서 AI 적용도 가시화될 것이다.

 


그러나 챗GPT의 장래가 밝지만은 않다. 첫째, 많이 거론되는 것은 챗GPT의 기술적 한계와 한국어 학습 데이터 부족이다. 마이크로소프트는 자사의 검색엔진 ‘빙’에 챗GPT를 탑재했으나 윤리적 문제가 발견되어 수정에 나섰다. 무엇보다 챗GPT가 과거 챗봇과 유사하게 인간과의 대화 과정에서 인종차별과 혐오, AI의 알고리즘 자각 가능성은 기술적 한계로 지적된다. 여기에 더해 챗GPT의 한국어 학습 데이터가 부족하여 잘못된 사실이나 부정확한 정보를 제공하고 있다는 점은 최근 언론에 많이 보도되었다.

둘째, 더 큰 논란은 정교하게 만들어진 불법, 허위조작정보(가짜뉴스)의 확산 우려이다. 미국 컨설팅사 유라시아그룹은 2023년 세계 10대 리스크 중 하나로 AI 챗봇을 지적했고, 장기적으로 사회적 신뢰와 민주주의를 약화할 것을 우려했다. AI를 이용한 허위조작정보가 마치 사실인 것처럼 포장되었을 때의 위험성은 이미 여러 차례 드러난 바다.

 


챗GPT는 밝은 면과 어두운 면이 공존하고 있다. 그러나 문제가 있다고 차단하기에는 챗GPT의 기술진보 속도가 너무 빠르고 그 파장 역시 크다. 그런 맥락에서 AI의 윤리적 기준과 이를 잘 활용할 수 있는 기술적·윤리적 방법에 대한 고민이 필요하다. 챗GPT와 같은 AI의 확산은 시간문제인 만큼 미디어 전반에 미치는 영향과 문제점에 대한 미디어 내부의 방향성과 법제도적 정비, 사회적인 합의 등 노력이 시급하다. 챗GPT 등장은 디지털 전환기의 우리 미디어에 또 하나의 미래 충격이 될 수도 있다. 이에 대한 현명한 준비와 대처가 필요할 것이다.

챗GPT와 혼술을

 

 

< 경향신문 , 조광희 변호사, 2023.02.20  >

 

 

 


20세기 중반에 태어나서
21세기 중반 바라보는 사람들은
현란한 변화 속에 볼 꼴, 안 볼 꼴
너무 많이 보고 있다
피곤하지만 경이롭고 감사하다

친구를 만나도, 기사를 살펴봐도, 모두들 ‘그’에 관해 말한다. 최근 눈부시게 발전한 자동번역기 덕분에 자주 살펴보는 외신도 마찬가지다. BTS의 인기가 무색하다. 인공지능 ‘챗(Chat)GPT’ 이야기다. 너무 명민해서 ‘그것’이라고 지칭하기 미안하니, ‘그’라고 부를까 싶다. 나는 ‘그’를 내 브라우저의 즐겨찾기에 등록했고, 스마트폰 첫 화면에도 바로가기 아이콘을 만들었다.


‘그’에게 이런저런 질문을 던져보았다. 기절할 정도는 아니지만, 깊은 인상을 준다. 칼럼도 쓰라고 재미 삼아 지시해 본다(이 칼럼은 아니다). 쓰려는 칼럼의 방향을 알려주니, 실제 글쓰기에 참고할 만한 결과물을 내민다. 인공지능을 과제 작성에 사용하는 학생들 때문에 미국 학교가 고민에 빠진 이유를 알 만하다.

 


지금 인공지능과 관련하여 쏟아지는 반응들은 이렇게 나누어 볼 수 있다. 첫째, ‘놀랍다’, 둘째, (과학소설가 테드 창이 뉴요커에 기고한 것과 같이) ‘아직은 아니다’, 셋째, ‘이 흐름에서 뒤처지지 말자’, 넷째, ‘디스토피아를 막아야 한다’.

 


몇 가지 징조는 분명해 보인다. 만능은 아니지만, 최상위 수준이 아닌 많은 지적, 창의적 노동을 보완 또는 대체할 것이다. 개발과 활용에서 앞서는 국가나 조직이나 개인은 경쟁에서 현저한 우위에 서게 될 것이다. 그리고 윤리적인 위기와 남용의 위험성에 대해서는 세심하게 준비해야 한다. 당장의 문제는 아니지만, 인공지능과 관련하여 특히 사람들의 호기심을 자극하는 주제가 있다. 과연 인공지능은 ‘의식’을 가지게 될 것인가.

 


작년에 구글의 한 엔지니어는 자사의 인공지능 ‘람다’가 자각력을 갖춘 존재라고 주장하다가, 의인화의 오류를 범했다는 이유로 해고되었다. 며칠 전에는 뉴욕타임스 칼럼니스트가 마이크로소프트의 인공지능으로 하여금 오묘하고 섬뜩한 대답을 하도록 유도했다. 놀란 마이크로소프트는 한 세션에 주고받을 수 있는 문답을 최대 5회로 제한했다. 물론 현존하는 인공지능에 실제로 의식이 존재한다고 진지하게 생각할 근거는 없다. 그러나 미래에는 어떨 것인가. 인공지능은 결국 의식을 가지게 될 것인가?

 


뇌과학이 인기를 끌고 있고, 수많은 책이 의식을 다루었지만, 기념비적 성과를 보여준 예는 못 보았다. ‘의식이 무엇인지’에 관해 논지가 혼란스러운 경우도 적지 않다. 잘못된 질문으로 시작하는 오류에 빠지지 않기 위해, 우선 ‘의식이 무엇인지’를 잘 정의해보자. 예전 같으면, 네이버나 구글에서 검색하겠지만, 세상이 바뀌었으니 ‘그’에게 물어본다. 역시나 명쾌하다. ‘그’의 대답을 요약하면 이렇다. “의식은 자신의 생각, 감정, 감각 및 인식을 자각하는 주관적인 경험으로서, 주의, 지각, 기억, 추론과 같은 다양한 인지 과정을 포함하는 복잡하고 다면적인 현상이다.” 더 단순화하면, 의식은 ‘자신이 지각하고, 생각하고 있다는 것을 자각하고 있는 것’이다. 한마디로 줄이면, ‘메타 인지’라고 할 수도 있다. 그렇게 보았을 때, 아무리 그럴싸해도 현존하는 인공지능에 의식이 있다고 할 수는 없다.

 


그런데, 미래에도 불가능할 것인가? 가까운 미래에는 불가능할 것이고, 먼 미래에는 가능할 것이다. 비록 과학자나 엔지니어는 아니지만, 의식은 지금과 같은 전자공학적인 제조 방법에 인간의 대뇌가 기반하고 있는 생물학적 방법이 결합되어야 가능할 것으로 상상해본다.

 


인공지능이 의식을 가지면 어떤 일이 벌어질까. 우선 ‘자기가 지각하고 생각한다는 것을 자각하는 존재’라면 인간의 본질에 극도로 근접한 존재라고 보아야 한다. 게다가 그저 소프트웨어의 형태로 존재하는 것이 아니라 인간을 꼭 닮은 안드로이드에게 의식을 가진 인공지능이 탑재되어 있다고 생각해 보라. 그 존재는 인간과 얼마나 같고, 얼마나 다른 것일까. 상상을 초월하는 지적 능력을 가진 인공지능이 의식마저 가지게 된다면 그 존재는 무엇을 욕망할 것인가. 놀랍고 두려운 일이다.

 


인공지능은 우리의 삶과 노동을 송두리째 바꿀 잠재력을 가지고 있으나, 갑자기 우리가 기계의 노예가 되거나, 엄청난 실업이 바로 닥치지는 않을 것이다. 하지만, 사무직종이나 창의적 직종을 가리지 않고, 인공지능에 뛰어난 질문을 하며 협업하지 못하는 조직이나 사람은 곧 뒤처질 것이다

 

 

여가와 오락이 인공지능에 크게 의존하리라는 것도 분명해 보인다. ‘그’와 대화를 나누고, ‘그’가 틀어주는 음악과 영상을 즐기며, 느긋하게 혼술하는 사람들이 눈에 선연하다. 20세기 중반에 태어나 21세기 중반을 바라보는 사람들은, 현란한 변화 속에 볼 꼴, 안 볼 꼴을 너무 많이 보고 있다. 피곤하지만 경이롭고 감사하다.

“일의 중간 단계선 AI 막강하지만 시작과 끝은 사람 몫”

 

 

 

< 중앙일보, 강주안 논설위원 / 장병탁 서울대 AI연구원장, 2023.02.17  >



인공지능(AI) 챗봇인 챗GPT가 연일 화제다. 세상에 나온 지 두 달 만에 월간 사용자(MAU) 1억명을 넘어선 데 이어 최근 시작한 유료화 서비스 역시 가입자가 폭증 추세다. 모임마다 챗GPT가 대화의 중심에 선다. 특히 윤석열 대통령이 지난달 25일 국무회의에서 언급한 이후 각 부처가 앞다퉈 대책을 발표한다. 박윤규 과학기술정보통신부 2차관은 지난 15일 “이르면 이달 말이나 다음 달 초에 큰 변화에 대응하기 위해 우리나라가 어떤 역할을 해야 하고 어떻게 나아가야 하는지 방향성을 제시해보고자 한다”고 밝혔다.

챗GPT가 보여준 AI의 수준은 어느 정도이며 우리나라는 치열한 경쟁에서 성과를 낼 수 있을까. 지난 13일 서울대 AI연구원을 찾아가 장병탁 원장을 만났다. 

 

독일과 미국을 오가며 AI와 뇌인지과학을 40년 동안 연구해온 그는 인공지능 분야가 관심에서 밀려난 시기에도 한 우물을 팠다. 그는 AI의 가능성을 강조하면서도 한계와 단점을 지적했다.

 


챗GPT, 연설문 작성 뛰어나지만 여러 단계 거친 논리적 추론 부족
그럴 듯하게 말하는 것처럼 보여도 제공 정보 무조건 믿으면 안돼
스타트업 투자 인색한 우리나라선 당분간 AI 획기 발전 기대 어려워
수학·인문학 인재 중요…챗GPT 이용한 과제·리포트 작성 허용해야

 



문장 완전 이해한 후 답하는 건 아냐


온통 챗GPT 얘기뿐이다.


“알파고 이후 6년 만에 나온 건데, 알파고는 훌륭한 기술이었지만 바둑 두는 사람들만 관심이 많았다. 이번엔 누구나 다 써봤다. 1억 명이 전 세계에서 최신 AI 기술을 경험해서 반향이 큰 것 같다.”


기술 수준도 진보했나.


“챗GPT가 훨씬 고도의 기술이다. 알파고의 계산 복잡도는 어마어마하지만 ‘19×19’의 좌표가 있는 닫힌 세계다. 언어는 열린 세계다. 몇만 단어만 조합해도 만들 수 있는 문장은 무궁무진하다. 뒤에 GPT, 즉 초거대 AI가 백업하고 있는 거다. 거대 언어 모델(LLM) AI가 문서를 학습해서 어마어마한 데이터를 축적해 채팅과 접목하니 보고서도 써준다.”


유료화도 주목된다.


“이게 가장 큰 변화다. 그동안 AI는 눈에 안 드러나게 쓰였다. 유튜브 맞춤형 광고 등에 AI가 들어갔는데 유료화는 큰 터닝 포인트다. 검색 광고를 하는 구글이 흔들릴 수 있다.”


구글이 내놓은 후속작이 실망스러웠다.


“챗GPT는 오픈AI라는 작은 신생회사가 만들었다. 잃을 게 없다. 구글이 출시했는데 이상한 답변을 하니 주가가 내려갔다. 구글이 기술을 먼저 만들었는데도 대기업이니 조심스러운 거다. 스타트업이었던 구글이 마이크로소프트를 무너뜨렸는데 이제 오픈AI에 밀린다.


챗GPT의 강점을 꼽아달라.


요약하는 글쓰기에 가장 좋은 것 같다. 대화로만 문제를 해결하는 기존 챗봇과 달리 지식을 갖고 연설문을 쓰지 않나. 웬만한 보고서뿐 아니라 다양한 프로그램 코드도 생성해 준다. 아마도 연설문 탬플릿을 가진듯하다. 기승전결 구조를 학습한 거다. 다만 실은 완전하지 않다는 것을 알아야 한다.”


엉뚱한 대답을 내놓는 의외의 모습도 있다.


생성하는 문장이 상당히 그럴듯해 보이는데 사실 완전히 이해한 게 아니다. 질문에 만물박사처럼 대답하는 것처럼 보일 뿐이다. 우리가 지금 대화하면서 아까 한 얘기를 어느 정도 문맥으로 기억하는데 AI는 잘 못 한다. 논리적인 추론을 여러 단계 거쳐서 하는 문제는 어려울 거라고 본다.

 

 


문제를 이해 못 해 수학엔 취약

 


수능 문제를 풀었더니 영어는 잘하고 수학은 낙제라는데.


수학의 답은 명확한데 문제를 이해 못 한 것 같다. 챗GPT가 잘하는 건 말하는 흉내를 내는 거다. 질문을 이해한다기보다 그냥 한번 말을 시작하면 다음엔 어떤 단어가 나올 확률이 얼마인지를 학습해서 단어를 계속 던지는 거다. 글자만으로 학습했기 때문이다. 논리적으로 연결된 질문에 약하다.”


좀 더 쉽게 설명해 달라.


“사람들에게 ‘찻잔’을 말하면 듣는 순간 따뜻한 느낌이 든다. (가수)노고지리의 노래를 비롯해 온갖 개념이 녹아들어서 찻잔이 된다. 그런데 지금 기계가 하는 건 ‘찻잔을 깨트렸다’는 등 찻잔이라는 단어가 들어간 문장을 모아서 그냥 흉내를 내는 거다. 논리적으로 얘기하면 과거 AI는 연역적인 추론만 잘했는데 지금은 귀납적인 추론을 하는 거다. 귀납적인 추론은 팩트를 모아서 일반적인 규칙이나 지식을 만든다. 추상화, 일반화 과정이다. 그러다 보니 참이 아닌 결과까지 추론해버린다.”


주식 투자 조언을 받을 수 있을까.


지금 챗GPT에게 무슨 주식 살지 묻고 결정하는 건 조심해야 한다. 대화를 잘하는 거지, 정보의 안정성이나 신뢰성은 약한 부분이 있다이걸 하려면 대량의 데이터 분석을 하는 또 다른 AI가 있어야 한다. 월스트리트에서 일부 쓰긴 하는데 일반인에게 공개는 안 할 거다.”


악용 우려가 제기된다.


“언어에 문화도 녹아있다. 그래서 악용하고 오염되면 편향성 문제가 제기된다. 의도했든 안 했든 한쪽으로 치우칠 수 있는 거다. 네거티브하게 쓰일 수 있는 위험성을 학교에서 교육해야 한다.”


전력 소모가 많아 환경을 파괴한다는 지적도 나온다.


“그런 측면이 있다. AI는 계속 방대한 데이터를 학습하기 때문에 전기를 많이 쓴다. 효율화가 큰 과제다. 사람의 뇌는 25W밖에 안 쓰는데….”


그런데도 기대가 분출한다.


“기존 검색은 원문과 문서를 준다. 그러면 내가 그걸 읽고 답을 찾아야 하는데 이건 많은 문서를 학습해서 갖고 있다가 답을 말한다. 업무에 유용할 수 있다. 보고서를 작성할 때도 도움된다. 처음엔 사람이 써준 데이터를 모아 학습을 시켰다. 초기에 사람이 많이 붙었다. 노동력이 많이 들어간 거다.”

 

 


몸으로 직접 하는 일이 인간의 강점

 


사람의 일자리를 위협할 거 같다.


소리를 듣고 타이핑하거나, 요약하는 일은 이제 기계에 양보하는 게 맞는 것 같다. AI로 대체되는 일은 중간 단계의 업무라고 생각한다. 법률사무소를 예로 들면 자료를 조사하거나 판례를 찾는 일의 상당 부분은 AI가 하게 되고, 관련 인물을 만나 얘기를 듣는 것처럼 몸으로 직접 해야 하는 일은 AI 기술이 아직 많이 모자란다. 몸을 움직여 직접 하는 일이 가장 어려운 기술이다. 사건의 어떤 부분을 포인트로 잡아야 하고 어떤 자료를 활용할지 등 고차원적인 업무도 사람이 훨씬 잘할 수 있다. 인간의 물리적인 세계에서 일어나는 가장 기본적인 일과 고도의 일은 여전히 사람이 뛰어나다. AI가 조금씩 올라오면서 가장 먼저 위협받는 부분은 중간 단계다.”


우리나라의 AI 경쟁력은 기대할 만한가.


“이 질문을 정말 많이 받는다. 한 10년 후에 우리나라가 뭔가 만들 수 있을까. 솔직히 쉽지 않다고 본다. 지금 보면 이런 게 나올 수 있는 문화가 아니다. 페이팔 마피아를 보라.” (※2003년 결제 프로그램인 페이팔을 이베이에 매각한 돈으로 벤처에 투자한 창업자들을 ‘페이팔 마피아’라고 한다. 테슬라를 만든 일론 머스크와 유튜브 설립자 스티브 천 등이다.)


우린 그런 사례가 잘 안 보인다.


“오픈AI의 공동 창업자가 일런 머스크다. 우리는 대기업에서 스타트업에 투자하는 문화가 없다. 벤처 캐피털도 모험보다 돈 벌기에 치중한다. 대기업이 작은 회사에 투자할 경우 생기는 규제 문제도 있다. 이런 환경에선 쉽지 않다. 우리도 통신사나 대기업이 초거대 AI에 투자는 많이 했다. 그건 잘한 거지만 지금이 중요한 시기인 만큼 문화가 바뀌어야 한다.”

 

 


“왜”라고 질문하는 교육이 중요

 


교육에도 변화가 필요할 것 같다.


모든 걸 다 외워야 하는 암기 과목보다는 무엇이 중요한지 알아보고 ‘왜’라는 질문을 던지는 게 중요해진다.”

 

챗GPT로 리포트를 작성해 논란이 된다. 허용해야 할까.


무조건 못 쓰게 하는 건 아니라고 본다. 논문 참고를 밝히듯 명시하면 된다. 기본적인 내용을 챗GPT에게 도움을 받고 절약한 시간을 창의적인 데 써야 한다. 그걸로 차별화가 된다. 우리가 학교 다닐 땐 시험 때 계산기를 못 쓰게 했지만, 지금은 다 허용한다. 계산에 허비할 시간에 더 중요한 문제를 풀면 된다.”


AI의 미래가 급진전할까.


지금 뭔가 점프한 듯 보이지만 사실 AI 연구 초기부터 다룬 내용이다. 기존에 대화한 걸 데이터로 학습해서 패턴을 흉내 낸 거다. 진정한 이해로 가려면 근본적인 연구가 상당히 진척돼야 한다. 사람을 완전히 대체하는 건 생각보다 어렵다. 인터페이스가 잘 안 된다AI에게 뭔가를 주고 명확히 뭘 하라고 하면 그건 사람보다 잘한다. 그런데 뭘 먼저 해야 할지 판단하는 건 여전히 사람의 일이다. 별것 아닌 것 같지만 그런 부분이 AI에겐 아직 없다.”


AI 시대 필요한 인재는.


“프로그램 코딩도 중요하지만, 자신감을 가지려면 기초가 튼튼해야 한다. 수학이 중요하다. 또한 문제를 바라보는 시각이 관건이기 때문에 인문·사회과학이 중요해진다. 우리 연구원에도 법 윤리 등 인문 사회학 전공자들이 함께 참여한다.”

 

 


◆장병탁=서울대 컴퓨터공학 학·석사를 마치고 독일 본 대학에서 컴퓨터과학으로 박사학위를 받았다. 독일국립정보기술연구소(GMD) 선임연구원 시절부터 줄곧 AI를 연구해왔다. MIT 인공지능연구소 및 뇌인지과학과에서 초빙교수로 활동했고 2019년부터 서울대 AI연구원을 이끌었다. 2007년 오카와 재단 학술연구상을 받았고, 현재 뇌 정보처리 구조와 기능을 닮은 인지 로봇 개발을 진행하고 있다.

낚이는 인간, 배우는 기계

 

< 한겨레, 박권일 | 사회비평가, 2023-02-16  >

 


인류는 대부분의 시간을 콘텐츠를 가장한 광고, 혐오 선동, 포르노 등 온갖 주목경쟁에 낚이는 데 보낸다. 

 

그나마 어떤 주제를 직접 고민하고 스스로 공부하던 우리의 짧은 시간마저 인공지능에 몽땅 넘겨버리고 나면, 

깊이 배우는 유일한 존재는 기계가 될 터다. 

 

그게 바로 정치의 종말이고 인간이라는 종의 마지막 모습일 것이다.

 

 


오픈에이아이(OpenAI)사의 대화형 인공지능 챗지피티(ChatGPT)의 놀라운 성능이 화제다. 앞으로 이런 대규모 언어모델(LLM)이 일상화하면 사람들이 웹사이트에 방문하지 않고 인공지능에 질문을 바꿔가며 지식을 습득하려 할 것이므로 정보검색 패러다임이 바뀔 수 있다. 이제 학생의 보고서가 챗지피티로 작성됐는지 확인하는 건 필수다. 초보적인 코딩이나 시장 분석의 경우 챗지피티만으로 준수한 결과를 얻을 수 있기에 상당수 직업이 사라질 거란 전망도 나온다.


변화는 더 거대한 것일지 모른다. 오픈에이아이 창업자 샘 올트먼은 <포브스> 인터뷰에서 무려 ‘자본주의의 종말’을 언급한다. 챗지피티 이후 인공일반지능(Artificial General Intelligence)이 나오면 인간의 지시 없이 스스로 학습할 수 있고 심지어 영리 활동까지 가능하다. 이때 누가 수익의 권리를 가지며, 어떻게 분배할지 등의 문제가 발생한다. 자본주의의 근간이 흔들리는 것이다. 챗지피티의 본격 데뷔 이전이긴 하지만, 인공지능의 발전과 자동화가 가져올 미래에 대한 훨씬 ‘낙관적인’ 견해도 있다. 정치평론가 에런 바스타니는 임금노동이 소멸하고 정보재 가격이 제로에 수렴하면 자본주의가 종말을 맞겠지만, 이는 결코 세계의 종말이 아니며 오히려 ‘완전히 자동화된 화려한 공산주의’의 가능성이 열린다고 주장한다.

 

 


자본주의의 종말이나 공산주의의 도래까지는 잘 모르겠다. 다만 기계가 비교적 단순한 노동을 대신해준다면 그만큼 여가가 늘어나고 시민들이 공동체 의제를 토론하는 시간을 확보할 수 있겠다. 문제는, 여유가 생긴다 해서 지루하고 재미없는 공적 사안에 열정을 쏟게 될 것이냐다. 아무리 생각해봐도 요즘 사람들에겐 그럴 만한 동기가 없어 보인다. “세상에 ‘팬질’ ‘덕질’ 할 것들이 얼마나 많은데 굳이 그걸 왜?” 그 결과가 지금의 정치다. 

 

현실 정치는 사회경제적 지대를 축적해 여가를 확보한 자들, 특히 법률전문가들이 사익을 공익으로 포장해 공동체 자원을 흡혈하는 ‘합법적 빨대’가 됐다.


인터넷이 등장했을 때 많은 지식인들이 집단지성·대중지성의 도래를 입에 침이 마르도록 찬양했다. 사람들은 월드와이드웹이 새로운 민주주의와 해방의 공간이 될 것이라고 믿어 의심치 않았다. 2023년의 인터넷을 보자. 오물통이 따로 없다. 한때 “모든 의견이 평등하게 존중받는 열린 민주주의의 장”이었던 곳에서 이제는 ‘댓글창 폐쇄’ 공지만 늘어나고 있다. 인터넷은 집단지성의 전당이 아니라 반지성주의와 허위 정보의 집결지가 됐고, 엘리트가 은폐한 진실을 폭로하는 공간이 아니라 엘리트가 여론을 조작하는 작업장이 됐다.

 

 


공상과학(SF) 작가 테드 창이 <뉴요커>에 기고한 글에 따르면, 챗지피티는 웹에 흩어진 정보를 있는 그대로 수집해 정리하지 않는다. 그보다는 ‘손실압축’과 비슷한, ‘정보의 열화복제’에 가깝다. 정보를 정확하게 복제한 게 아니라 흐릿하게 복제한 것이어서, 특히 수치 등이 비슷해 보이면 같은 값으로 처리해버리는 등의 터무니없는 오류가 발생한다. 즉, 챗지피티는 원리상 엄밀성이 요구되는 분야일수록 틀린 답을 내놓을 가능성이 다분하다. 그런데 답변 자체가 유려하고 그럴듯하기 때문에 훈련되지 않은 사람은 이를 사실로 믿어버리기 쉽다. 

 

문해력 조사 때마다 ‘사실’과 ‘의견’을 세계에서 가장 구별하지 못하는, 피싱메일에 제일 잘 걸려드는 집단으로 지목되는 한국인이 챗지피티를 생활화하면 어떤 일이 벌어질까?

 

 


비단 한국만의 문제는 아니다. 이미 인류는 대부분의 시간을 콘텐츠를 가장한 광고, 혐오 선동, 포르노 등 온갖 주목경쟁에 ‘낚이는’(hooked) 데 보낸다. 그나마 어떤 주제를 직접 고민하고 스스로 공부하던 우리의 짧은 시간마저 인공지능에 몽땅 넘겨버리고 나면, 깊이 배우는(deep learning) 유일한 존재는 기계가 될 터다. 그게 바로 정치의 종말이고 인간이라는 종의 마지막 모습일 것이다.


물론 기술철학자 앤드루 핀버그의 말처럼, 모든 기술에는 지배와 억압만이 아니라 해방과 저항의 실마리가 반드시 심어져 있다. 기술을 통한 감시와 착취의 사슬이 아무리 공고해 보여도 우린 언제든 그것을 깨부술 수 있다. 위안이 되는 통찰이긴 한데 내 의문은 다른 데 있다. 과연 우리는 해방되거나 저항하고 싶은가? 무엇으로부터, 무엇을 위해?

챗지피티는 누구나 쓸 수 있는 ‘거짓말 제조기’? 

 

 

 

< 한겨레, 구본권 기자, 2023-02-15 >

 

 


챗지피티(ChatGPT)가 두달여 만에 월 사용자 1억명에 도달해 가장 빠르게 보급된 기술로 불리며 국내에서도 월 20달러 유료 서비스가 시작됐다. 챗지피티는 거대 언어모델 인공지능으로, 인류가 쌓은 지식을 학습한 덕분에 어떤 질문에든지 순식간에 조리 있고 그럴듯한 답변을 내놓는 척척박사다. 

 

언론엔 “챗지피티에 물어봤더니…” 형태의 기사와 칼럼이 쏟아지고 있다. 웬만한 일자리는 버티기 어려울 것이라는 불안과 함께 챗지피티 활용법을 배워 써먹어야 한다는 반응도 있다.


챗지피티가 가져올 변화는 일자리와 업무 자동화에 국한되지 않는다. 인터넷이 누구나 글을 써서 발표할 수 있는 시대를 열었다면, 챗지피티는 모든 사람에게 뛰어난 문장 생성기를 제공한 셈이다. 

 

챗지피티는 그럴듯해 보이지만 사실 아닌 내용도 자신 있고 설득력 있게 답변하면서 출처와 근거를 제시하지 않는다. 만인이 고성능 거짓말 제조기를 이용하게 됐다. 사람들은 챗지피티에 경탄하고 있지만 신뢰할 수 없는 내용도 많다. 개발자들이 널리 이용하는 문답 사이트 ‘스택 오버플로’는 챗지피티를 이용해 잘못된 답변을 올리는 사람들이 너무 많아 챗지피티로 만든 답변 등록을 금지했다.


챗지피티는 거짓 정보를 만드는 비용을 0에 가깝게 만들었다. 

 

미국의 컨설팅업체 가트너는 2017년 ‘미래 전망 보고서’에서 “2022년이 되면 선진국 대부분의 시민들은 진짜 정보보다 거짓 정보를 더 많이 이용하게 될 것”이라고 예측했는데, 챗지피티로 인해 현실이 되었다. 구글 바드처럼 챗지피티와 경쟁하기 위해 유사한 대화형 인공지능이 더 많이 출시되고 널리 쓰이게 되면 인터넷과 소셜미디어 공간은 인공지능이 만들어낸 허위 정보와 합성 데이터로 넘쳐나게 된다.


거대 언어모델을 통해 학습한 챗지피티가 뛰어난 언어 능력을 갖추고 감쪽같은 거짓을 만들어내는 데 비해 이를 판별하고 사용해야 하는 사람들의 문해력은 걱정스럽다. 

 

잇따라 불거진 문해력 논쟁이 심각한 것은 특정 단어의 부적절한 사용 여부가 아니라 자신이 모르는 정보를 거부하고 외면하는 반지성적 정서를 드러냈기 때문이다. 2021년 경제협력개발기구의 ‘디지털 문해력 보고서’에서 한국의 15살 학생들은 피싱메일 판별 능력에서 회원국 중 최저 수준을 기록한 바 있다.

+ Recent posts