1.

 

ChatGPT(챗지피티)    [네이버 지식백과] 

 

https://chat.openai.com/chat

 

 

 

(1) 소개


 오픈에이아이(Open AI)가 2022년 12월 1일 공개한 대화 전문 인공지능 챗봇으로, Open AI에서 만든 대규모 인공지능 모델인 ‘GPT-3.5’ 언어 기술을 사용한다.

오픈에이아이(OpenAI, openai.com)가 개발한 대화 전문 인공지능 챗봇으로, 사용자가 대화창에 텍스트를 입력하면 그에 맞춰 대화를 함께 나누는 서비스이다. 개발사인 Open AI는 ▷인공지능 언어모델 ‘지피티-3’(GPT-3) ▷그림을 그리는 인공지능 ‘달리2’(DALL-E2) ▷다국어 음성인식 인공지능 ‘위스퍼(Whisper)’ 등을 선보인 인공지능 연구 재단으로 잘 알려져 있다.
 
챗GPT는 오픈AI에서 만든 대규모 언어예측 모델인 ‘GPT-3.5’ 언어 기술을 기반으로 하는데, GPT는 어떤 텍스트가 주어졌을 때 다음 텍스트가 무엇인지까지 예측하며 글을 생성할 수 있는 모델이다. OpenAI에서는 2018년 GPT-1 출시 이후 2019년 GPT-2, 2020년 GPT-3에 이르기까지 버전을 높이며 발전을 거듭해 왔다. 

 

(2) 특징과 역할


챗GPT는 인간과 비슷한 대화를 생성해 내기 위해 수백만 개의 웹페이지로 구성된 방대한 데이터베이스에서 사전 훈련된 대량 생성 변환기를 사용하고 있다. 이는 사람의 피드백을 활용한 강화학습(Reinforcement Learning)을 사용해 인간과 자연스러운 대화를 나누고 질문에 대한 답변도 제공한다. 대화의 주제는 지식정보 전달은 물론 창의적 아이디어에 대한 답변 및 기술적 문제의 해결방안 제시 등 매우 광범위하다. 또 사용자가 대화 초반에 말한 내용을 기억해 추후 수정을 제공하기도 한다.
 
무엇보다 오픈AI는 챗봇의 차별·혐오 발언을 차단하기 위해 챗GPT에 AI 기반 조정 시스템인 ‘모더레이션API’(Moderation API)를 사용했다. 이에 챗GPT는 허용되지 않는 내용의 질문이 나올 경우 ‘차별적· 공격적이거나 부적절한 질문, 여기에는 인종차별적, 성차별적, 동성애 혐오적, 성전환자 혐오적 또는 기타 차별적이거나 혐오스러운 질문이 포함됩니다’라고 답변한다. 이 챗GPT는 가끔 잘못되거나 편향적인 정보를 제공할 수 있으며, 2021년 이후의 지식은 제한돼 있다는 한계도 있다.
 
한편, 챗GPT는 대화는 물론 이를 사용해 가상비서나 스마트홈 장치 구축도 가능하게 한다. 또 챗GPT를 이용해 기사 작성도 가능하며, 정확성과 신속성을 지니고 있어 다양한 애플리케이션 제작에도 활용할 수 있다.
 

 

 

 

 

2. 

 

‘어린 시절의 나’와 실시간 채팅을?…‘챗지피티’ 뭐길래

 

 

 

< 한겨레, 이희욱 기자, 2022-12-12  >

 

 


월드컵이 지구촌을 흥분시킨 지난 주, 테크업계는 또다른 스타로 들썩거렸다. 주인공은 ‘챗지피티’(ChatGPT)다. 챗지피티는 오픈에이아이(Open AI)가 12월1일 공개한 인공지능 챗봇이다. 오픈에이아이는 우리에게도 낯익다. 인공지능 언어모델 ‘지피티-3’(GPT-3), 그림 그리는 인공지능 ‘달리2’(DALL-E2), 다국어 음성인식 인공지능 ‘위스퍼’ 등을 선보인 인공지능 연구 재단이다.


지피티-3의 놀라운 언어 능력은 새삼 설명이 필요 없다. 방대한 언어 데이터를 바탕으로 학습을 거쳐 인간 못지않은 글솜씨를 갖췄다. 달리의 그림 실력도 마찬가지다. 몇 마디 지시말(프롬프터)을 넣으면 금세 새로운 그림을 뚝딱 그려낸다.
챗지피티는 인공지능의 활동 영역을 ‘대화’로 옮겼다. 지피티-3를 발전시킨 지피티-3.5를 바탕으로 언어를 학습해 인간과 자연스러운 대화를 나누고 질문에 답도 쏟아낸다.


그렇다고 단순한 챗봇이라면 새삼 화제가 되지 않았을 터. 챗지피티의 놀라운 점은 일상 대화를 넘어서는 생산 능력에 있다. ‘월드컵이 세계 경제에 미치는 영향을 에세이로 써 줘’라고 말하면 금세 그럴듯한 에세이 한 편을 완성한다. 영어만 학습했던 지피티-3와 달리, 챗지피티는 한국말도 곧잘 알아듣는다. ‘알카노이드(벽돌깨기 게임) 파이썬 코드를 만들어 줘’라고 입력했더니 그 자리에서 벽돌게임을 실행할 수 있는 파이썬 코드를 만들어줬다.


이는 뛰어난 검색 능력 덕분이다. 챗지피티는 사람이 던진 질문, 즉 프롬프터에 적절한 답변을 방대한 언어 데이터베이스에서 찾아낸다. 이를테면 뛰어나고 정교한 대화형 검색엔진인 셈이다. 틀린 코드를 올리면 이를 바로잡아주기도 하고, 주제만 던져주면 기사도 대신 써준다. 구글은 검색 결과만 던져주지만, 챗지피티는 핵심만 콕 집어 결과를 보여준다. ‘구글 시대가 끝났다’는 예측이 나오는 까닭이다.


챗지피티는 현재 맛보기 서비스 단계다. 지피티-3처럼 번호표를 뽑고 순서를 기다리지 않아도 된다. 누구나 가입만 하면 곧바로 무료로 써볼 수 있다. 공개 5일 만에 100만 가입자를 돌파할 정도로 뜨거운 환영을 받고 있다.


챗지피티를 기발하게 써먹는 사례도 쏟아진다. 한 개발자는 어린 시절 쓴 일기들을 챗지피티에게 학습시킨 뒤 ‘어린 시절의 나’와 실시간 대화를 나눴다. 챗지피티에게 새로운 언어를 만들도록 가르친 사람의 얘기가 화제가 되기도 했다. 구글 검색 결과에 챗지피티 답변을 함께 띄워주는 크롬용 확장 프로그램도 등장했다.


개발자 미셀 황은 어린 시절 쓴 일기를 챗GPT에게 학습시킨 다음, 어린 시절의 나와 실시간 대화를 나눴다.  


이들 ‘생성형 인공지능’의 강점은 콘텐츠 생산이다. 인간이 재능, 노력, 시간, 비용을 들여 힘들게 만들어온 온갖 콘텐츠를 이들 인공지능은 너무 쉽게 뚝딱 만들어낸다. 결과물은 더욱 놀랍다. 신문 기사나 에세이부터 시와 소설, 그림과 음악, 영상에 이르기까지 인공지능이 활약하지 않는 분야를 찾기 어렵다.


그렇다고 인공지능이 인간 활동을 대체할 것이라고 섣불리 예측하진 말자. 챗지피티나 달리2도 결국 학습의 밑바탕인 데이터는 사람이 만들어낸 것들이다. 사람 없이는 인공지능도 존재할 수 없다. 인공지능을 경쟁자로 여기고 대결하려 해선 안된다. 앞선 사례처럼 영리하게 길들이고 현명하게 활용하는 것이 공존법이다. 아무리 달리2가 뛰어난 그림 실력을 갖췄어도 지시말을 제대로 입력하지 않으면 기괴한 그림이 나올 뿐이다. 인공지능을 얼마나 잘 활용하느냐가 인간의 또다른 경쟁력이 되는 시대가 왔다. 

 

 

 

3.

 

챗지피티

 

 

<한겨레, 김영준, 2023-01-19 ?

 


지난달에는 챗지피티(chatGPT)-3가 단연 화제였다. 미 샌프란시스코의 인공지능 스타트업 ‘오픈에이아이(AI)’가 공개한 이 프로그램은 “눈 오는 날에는 어떤 신발이 좋아?” 같은 물음에서부터 “이런 결과가 나오게 코딩해줘” “제2차 세계대전의 원인을 분석해 봐” 등의 질문에 1초 만에 답을 준다. 유명인의 추모사라든지 논문 초록을 써달라는 요구에도 꾸물대지 않고 응해주는 것은 물론이다. 화이트칼라 노동을 기계가 대신해 주는 미래가 갑자기 우리에게 맛보기로 제공된 것이다. 1초 만에 끝나는 것을 노동이라고 부르게 될지는 의문이지만 말이다.


사람들의 의견은 대체로 “약간 아쉬운 부분은 있지만 이걸 기계가 썼다니 놀라울 따름”으로 수렴된다. 필자도 시험해 보았는데, 이공계 분야에 비해 문과 쪽은 약한지 엉터리 답을 내놓기도 했다. 그렇지만 이건 사소한 문제로 보였다. 그 이름이 가리키듯 챗지피티는 결국 대화용 프로그램인데, 중요한 건 이미 말을 할 줄 안다는 것이다. 부족한 지식도 있겠지만 그건 나중에 더 공부하면 될 일이다. 잘 모르는 게 분명한 내용을 신중한 어조로 중언부언하는 모습은 그야말로 회사원 같아 보여서 묘한 감회를 불러일으켰다.


우리는 인공지능의 아버지 앨런 튜링(1912~1954)이 “기계가 생각할 수 있는가?”라는 어려운 문제를 “사람이 이 기계를 사람으로 착각할 수 있는가?라는 판별 가능한 테스트로 바꾸었다는 것을 알고 있다. 대화하면서 기계가 기계인지 사람이 못 알아차리는 지경이 되면, 그 기계는 지능이 있다고 가정할 수 있다는 것이다. 챗지피티에 대한 여러 논평이 나왔지만 이것이 튜링 테스트를 통과할지 귀추가 주목된다는 식으로 말한 사람은 별로 못 봤다. 여러 이유가 있겠지만 이미 그 정도는 높은 허들로 보이지 않기 때문 아닐까. 체호프의 단편 <문학 교사>(1894)에는 세상 사람이 다 아는 것밖에 말할 줄 모르는 인물이 나온다. “예, 멋진 날씨로군요. 여름은 겨울과 다르지요. 겨울에는 난로를 때야 하지만, 여름에는 난로가 없어도 따뜻하답니다.” 튜링 테스트를 한다면 기계로 판정받을 것은 이쪽이지, 챗지피티가 아니다.


그럼 이 기계가 문학작품도 쓸 수 있는가? 자연스러운 질문인데, 이번에도 튜링의 모범에 따라 질문을 바꿔야 할 것 같다. “사람이 기계가 쓴 작품에 감동받을 수 있는가?”로 말이다. 기계가 작품을 쓸 수 있는가는 문제가 아니다. 이미 쓰고 있다. 방금 챗지피티는 필자의 요구에 따라 <겨울>이란 제목의 정형시를 한편 써줬다. 각운을 맞춘 5연 20행의 이 시는 이렇게 끝난다. “겨울의 아름다움은 지속되지 않을 것이나/ 우리들 마음속에선 영원하리라.” 나는 이걸 보고 웃기는 했지만 감명을 받지는 않았다. 하지만 우리가 기계의 문학성에 깜짝 놀랄 날이 안 온다고 장담할 수는 없다. 시기가 문제일 뿐이다.

 

얼마 전 튜링의 전기를 읽다가, 말년에 그가 개인적으로 겪은 곤란한 사건들을 단편소설로 정리하고 싶어했다는 사실을 알게 됐다. 1950년대 초반인데, 그때는 기계가 소설을 쓴다는 설정의 에스에프(SF) 소설도 나오고 있을 때다. 나는 이 불행한 인간이 죽기 전 자신의 이야기를 기계가 대신 쓰게 하는 상상을 해봤을지 궁금해졌다. 이 경우 질문은 “사람이 기계를 시켜 작품을 쓰는 데 만족할 수 있는가?”일 것이고, 이에 답하기는 비교적 쉽다고 생각된다. “만족할 수 없다.” 아마 우리는 결국 기계가 쓴 신춘문예 당선작을 보게 될 것이고, 사람이 쓰는 건 기계 수준에 못 미친다고 생각하게 될지 모른다. 그러나 그 뒤에도, 자신의 경험을 문학의 언어로 재발견하려는 욕구는 “우리들 마음속에 영원할” 가능성이 있다. 챗지피티의 시 <겨울>을 인용하자면 말이다.

 

 

 

4.

 

챗지피티 시대엔 ‘헛소리 탐지능력’이 필수 [유레카]

 

 

 

<  한겨레, 구본권 기자 ,  2023-01-25  >


 
2016년 3월 이세돌-알파고 대국이 예고편이라면, 지난해 11월30일 공개된 오픈 에이아이(Open AI)의 ‘챗지피티’(ChatGPT)는 인공지능 시대의 본격 개막 신호다. 거대언어모델 기반 이미지 창작 도구인 ‘미드저니’·‘달리2’에 이어 대화형 인공지능 챗지피티의 출현은 사고와 창작 활동이 더 이상 인간만의 영역이 아니라는 걸 알려준다.


프로그램 코드 작성, 수학 문제 풀이, 발표 자료 만들기, 기사 쓰기 등에서 챗지피티 활용 사례가 경탄과 탄식 속에 알려지고 있다. <네이처>는 지난 12일, 챗지피티로 작성한 논문 초록이 독창성 점수 100%로 표절검사기를 통과했고, 전문 리뷰어 수준의 진위 식별 능력을 과시해 과학자들을 우롱했다고 보도했다. 인공지능이 사람의 자연언어를 이해할 수 있게 돼 사람이 코딩할 필요 없이 말과 글로 명령할 수 있게 됐다. 코딩 교육 무용론이 나오고 있다. 글쓰기 과제에서 오·탈자와 비문이 없으면 챗지피티 사용을 의심해야 할 상황이다.


시험과 평가가 필수인 학교엔 발등의 불이다. 미국 일부 학교는 교내 와이파이망과 챗지피티 접속을 차단하고, 일부 대학은 시험과 과제물 제출 때 컴퓨터를 못 쓰게 하고 손글씨와 구술시험을 도입하고 있다. 한편 챗지피티 같은 인공지능은 갈수록 일상적 도구가 될 것이기 때문에 오히려 학교에서 적극적으로 가르쳐야 한다는 주장도 있다.


인공지능으로 인한 변화 범위를 예견할 수 없지만 현재 챗지피티 특성 중 주목할 게 두 가지 있다. 

 

첫째, 챗지피티는 기본적으로 우리가 알고 있는 것을 요약하고 정리해서 답변해주는 도구라는 점이다. 새로운 사실과 관점을 밝혀내는 게 아니라, 보편적으로 수용되거나 확립된 사실과 관점을 깔끔한 형태로 출력하는 도구일 뿐이다. 

둘째, 챗지피티는 사실 확인을 하지 않고 잘못된 사실도 확신하는 문구와 표현으로 출력물을 내놓는다는 점이다. 

 

둘 다 기존 데이터를 통해 학습하는 인공지능의 기본 속성이다.


챗지피티의 이런 특성은 인공지능의 취약점을 드러내며 대응 방향도 알려준다. 이용 주체의 비판적 사고와 사실 검증 능력이다. 제대로 알고 있어야 인공지능의 산출물을 검증하고 활용할 수 있다. 어니스트 헤밍웨이는 글쓰기 비결에 대해 “헛소리 탐지기 내장이 최선”이라고 답했다.

 

 

5.

“이것도 알아?” 교육 패러다임 바꾸는 챗GPT의 출현

 

 

< 주간조선, 조윤정 기자, 2023.01.16 >

 

 

 

챗GPT와 나눈 대화. 답변은 영어로 제공되지만 ‘한글로 써달라’고 하면 한국어로 답해준다.

 

 

“기후변화 해결책을 기술 측면에서 3문장으로 설명해줘.”

 

“기후변화 영향을 완화하기 위해 사용될 수 있는 기술은 다음과 같습니다. △신재생에너지 이용을 통한 탄소배출 감소 운송 △산업 과정의 변화를 통한 에너지 효율 향상 △배출되는 이산화탄소를 포착해 지하에 저장하는 탄소 포집 및 저장.”

 

“자바스크립트에서 HTTP를 만들려면 어떻게 해야 해?”

 

“여러 가지가 있지만 가장 널리 사용되는 방법 중 하나는 XMLHttpRequest 객체를 사용하는 것입니다. 지정된 URL에 GET 요청을 작성하는 데 사용하는 방법의 하나로 아래 예를 하나 들겠습니다….”

 

“‘노인과 바다’에서 ‘청새치’가 의미하는 것에 대해 짧은 시를 지어줘.”

 

“푸른 청새치의 이야기는 계속된다네

 

힘과 승리, 자부심의 상징이여

 

한 노인이 반드시 이겨내야 할 시련이란

 

인내와 의지를 향한 여행

 

야수를 정복하기 위해서는 궁극의 황홀감이 필요하지

 

하지만 결국에 어망을 슬쩍 들여다보면

 

인생의 진정한 목적은 너무나 간단하다네.”

 

인공지능(AI) 대화형 챗봇인 ‘챗(chat)GPT’가 위와 같은 답을 내놓기까지 걸리는 시간은 5초도 채 걸리지 않는다. 채팅창에 그 어떤 질문을 타이핑해 넣어도, 모니터 속 기계는 잠깐 고민하는 듯 커서를 몇 번 깜빡이고는 청산유수로 완결된 글을 내놓는다. 세계 최대 인공지능 연구소인 ‘오픈AI’가 지난해 11월 30일 자사 웹사이트를 통해 공개한 이 챗봇은 최근 몇 년간 놀랄 만한 발전을 거듭한 AI 기술의 결산이다. 누구든지 오픈AI 웹사이트(http://openai.com/blog/chatgpt)를 통해 메일주소로 가입만 하면 몇 시간이고 기계와 대화를 나눌 수 있다. 영어 기반 서비스이긴 하지만, 실제 사람과 이야기하는 것 같은 매력에 빠진 전 세계 이용자들은 ‘블랙홀에 빠졌다’ ‘기계한테 개인적인 심리 상담까지 받고 있다’ 등의 후기를 공유하고 있다.

 

이러한 성과를 주목한 국내외 전문가들은 인간이 정보를 습득하고 처리하는 과정까지도 인공지능이 대체할 수 있다는 낯선 전망을 내놓고 있다. 이런 기술의 발전은 ‘혁명’이라고 불러도 무방할 정도다. 특히 교육현장에선 이 챗봇을 이용해 약술형 문제를 풀고, 레포트를 제출하는 것을 넘어 논문 작성도 가능하다고 본다. 교육계 및 학계의 전통적 문제였던 대필, 표절 등과 같은 윤리 문제로 번지는 것은 이미 예정된 수순이고, 챗봇의 등장으로 저작권 이슈도 불거질 전망이다.

 

이미 미국의 교육계에서는 이런 우려가 현실화됐다. 지난 1월 6일 미국 뉴욕시는 공립학교 내 기기네트워크에서 챗GPT 접근을 차단한다고 발표했다. 과제 대필 행위를 비롯한 허위정보 확산 등을 사전에 차단하겠다는 이유에서다. 포브스 등 외신에서도 미 현지 중·고등학교 교사들이 “모르는 정보를 가르치는 행위가 무의미해졌다. 뭘 가르쳐야 할지 모르겠다” 등의 고민을 호소한다고 보도했다.

 

‘챗GPT’에서 GPT(Generative Pre-trained Transformer)는 구글의 ‘알파고’처럼 AI의 이름이자 종류다. 오픈AI 웹사이트에 접속하면 누구나 GPT와 채팅을 나눌 수 있다. 테슬라 창업자인 일론 머스크와 투자자 샘 알트먼이 2015년 만든 연구소 ‘오픈 AI’는 2018년 대규모 언어 모델인 GPT의 첫 버전을 공개했다. 이후 기계가 학습할 수 있는 능력인 매개변수(파라미터)를 몇백 배씩 늘려가며 발전을 거듭해왔는데, 챗GPT의 기반이 되는 언어모델 GPT-3.5는 약 1750억개의 매개변수를 쓴다. 올해 오픈AI에서 공개할 업데이트된 버전 GPT-4는 1000조개에 달하는 인간의 시냅스 개수와 동일한 수준으로 매개변수를 늘리는 것을 목표로 하고 있다.

 

사람이 경험하고 배운 바를 토대로 행동하는 것처럼, 인공지능도 데이터를 학습하고 그 내용을 기반으로 결과 값을 산출해낸다. GPT를 비롯한 챗봇의 대답도 역시 사람이 만든 수많은 텍스트 데이터를 학습한 결과다. 이때 매개변수가 많아질수록 기계가 학습할 수 있는 능력은 커지는데, 인공신경망에서 매개변수는 인간 뇌에서 뉴런 간 정보 전달 통로 역할을 하는 시냅스와 같은 역할을 하기 때문이다. 간단히 말하면 매개변수 수가 많을수록 인공지능의 IQ는 높아지는 셈이다.

 

 

사람과 대화하는 챗봇

 

 

챗GPT의 똑똑한 답변은 단순히 챗봇이 인간과 나누는 대화가 자연스럽고 문장이 정돈됐다는 것 이상의 의미를 갖는다. 기존에도 구글 어시스턴스, 아이폰의 시리 등 대화형 인공지능은 널리 쓰이고 발전해왔다. 그러나 챗GPT가 특별한 이유는 완결된 형태의 글을 바로 만들어내기 때문이다. 인터넷상에 있는 거의 모든 정보를 한꺼번에 취합해 중요도를 판별한 다음, 그 내용을 정리해 글 구조물로 표현해내는 것이다. 즉 글쓰기를 통해 길러지는 인간의 비판적 사고능력, 문제해결능력 등의 지적 역량을 기계가 대신하게 되는 수준까지 발전했다는 의미다.

 

보고서 주제에 대해 프레임을 짜고, 관련 자료를 찾으면서 우리 뇌는 왕성한 활동을 한다. 그 과정에서 뇌가 끊임없이 발달한다. 그런데 프레임이 정해져 있고, 답도 너무나 쉽게 알아버리는 상황이라면 그 사고의 초기 단계를 인공지능에 의존해 버릴 가능성이 있다.”(박남기 광주교대 교수)

 

지금은 텍스트 기반인 챗GPT가 글쓰기 과정에서 길러지는 지적 역량을 위협한다면, 향후 음성이나 영상 기반으로까지 기술 발달이 확산했을 때는 사고(思考) 전체를 기계에 미뤄버리는 일이 일상으로 자리 잡을 수도 있다. 해외 전문가들은 챗GPT의 등장으로 향후 벌어질 이러한 ‘정보 패러다임’의 변화까지도 내다보고 있다. 타일러 코웬 미 조지메이슨대학교 교수가 지난해 10월 블룸버그에 기고한 글을 살펴보자.

 

지난 10년간 인터넷 사용 구조는 크게 변하지 않았다. 페이스북, 구글, 트위터는 원본이 뭔지를 인식할 수 있는 수준으로 정보를 보여준다. 원문이 있는 브라우저 자체가 제 역할을 하고 있다고 할 수 있다. 예를 들어 지금의 나는 아침마다 트위터 등 브라우저를 통해 정보를 수집한다. 그러나 2년이 채 안 돼서 닥쳐올 변화는 이런 것이다. 아침에 일어나 내가 컴퓨터에 관심 주제를 대략적으로만 말해도 인공지능이 그에 대한 관련 정보를 모두 리믹스해서 들려준다. 그것도 나의 필요에 맞게, 읽기 좋게 각색된 형태로.

 

기사, 논문 등 모바일에서 원문 텍스트를 읽고 ‘정리된 정보’를 내놓는 사고 과정을 기계에 맡기는 일이 가능해진다는 것이다. 코웬 교수는 이를 두고 “디지털 정보의 구조 자체를 인공지능이 바꿔버리는 것”이라고 설명했다.

 

기술적 완성도 외에 낮은 접근성도 높이 평가된다. 사이트에 가입해 질문을 타이핑하기만 하면 되는 챗GPT는 언어 장벽도 낮다. 기본적으로 영어를 사용하고 한글 답변은 아직 어색하지만, 한국어나 일본어로 질문을 입력해도 챗GPT는 곧바로 이해하고 답변을 내놓는다. 하나의 페이지 안에서 번역과 생성이 같이 이뤄지는 것이다.

 

 

패닉에 빠진 교육 현장

 

 

가장 즉각적인 우려를 표한 곳은 교육계다. 약술형 문제, 에세이 등 글쓰기를 통해 학생의 지적 역량을 평가하고 발달시키는 일에 중차대한 혼돈이 예상되기 때문이다. 벌써 뉴질랜드의 한 대학생 집단은 “챗GPT를 통해 얻은 글을 수정해서 에세이를 제출한 것은 표절이 아니다”라고 주장하고 나섰고, 국제기계학습학회 등 권위 있는 인공지능 학회에서도 챗GPT를 사용한 논문을 인정할 것인지에 대한 의견이 엇갈리고 있다.

 

실제로 챗GPT가 글로 써낼 수 있는 분야나 형식에는 제한이 없다. 조건만 잘 달면 어떤 과목의 과제든 챗GPT가 ‘대필’해줄 수 있다. 철학, 문학, 사회적인 이슈부터 코딩, 기사 작성뿐 아니라 법적 자문이나 의학적 조언 등 전문적으로 여겨져 왔던 분야도 모두 포괄한다. 실제로 챗GPT에 ‘MLA 형식, 4문단으로 기술 발전이 인류의 진보를 위협하는지에 대한 에세이를 써 줘’라고 부탁하면, 서론·본론·결론 형식에 반론까지 들어가는 꽤 그럴듯한 에세이가 금세 만들어진다. 더욱이 ‘초등학교 3학년 수준으로 써달라’고 입력하면 아예 다른 에세이를 써낸다. 어려운 단어는 모두 쉽게 바꾸고 기술이 뭔지 등 기초 개념 위주로 접근하는 식이다.

 

학생들이 챗GPT를 마치 구글 검색창처럼 여기고 검색을 할 경우에도 문제가 생긴다. 챗GPT가 잘못된 정보를 제공할 수도 있기 때문이다. 오픈AI가 기계에 제공하는 데이터가 일정 부분 특정 국가, 언어, 성향에 치우친 만큼, 챗GPT가 내놓는 정보도 일부 편중될 수밖에 없다. 당장은 한국어를 사용해서는 제대로 된 장문의 글을 기대할 수 없다. 아예 틀린 정보를 내놓는 경우도 있다. 일례로 ‘장제스’를 ‘일본 민주당 지도자’라고 소개하거나, 잘못 작성된 코드를 맞는 것처럼 알려주는 식이다. 데이터 입력 기한인 2021년 이후에 생성된 정보는 처리하지 못한다는 한계도 있다. 이 때문에 ‘한국의 대통령이 지금 누구냐’고 물었을 때 챗GPT는 ‘지금의 정보로는 문재인 대통령’이라고 답한다.

 

 

AI가 쓴 글을 수정하면 내 글?

 

 

챗GPT의 대답을 그대로 가져다 쓰는 표절이나 대필 등의 문제는 인공지능 창작물의 저작권 이슈와도 연결된다. 지난 1월 9일 블룸버그는 챗GPT 등 AI 기반 서비스에 대한 저작권 소송이 제기됐다고 보도하며, 앞으로 인공지능 관련 분쟁이 본격적으로 발생할 것이라는 전망을 내놓았다. 표절 문제가 불거지면서 ‘턴잇인’ 등 표절 검사 사이트에서는 인공지능이 작성한 글과 사람이 작성한 글을 구분하는 서비스 등을 제공하고 있지만, 아직 불완전한 상태다. 챗GPT가 작성한 글에서 단어 몇 개와 표현 몇 개만 수정하면 표절 검사에 걸리지 않는 게 현실이다.

 

저작권 문제는 상당히 복잡하다. AI가 학습할 때 쓰는 데이터에도 사실 저작권이 있다. 그림이든 코드든 텍스트든 저작권이 있는 자료를 무조건 다 긁어와서 학습을 하는데, 미국은 이걸 ‘공정 이용’이라고 해서 허용한다. 하지만 사실 그렇게 하면 안 된다. 그리고 그렇게 무료로 데이터를 활용했으면 AI가 만든 결과를 쓰는 것도 무료로 쓰게 해야 맞다. 그런데 GPT도 그렇고 지금은 처음이라 모두에게 쓸 수 있게 하겠지만, 점점 유료화 서비스가 되면 형평성 문제도 생기는 거다.”(김명주 서울여대 정보보호학과 교수)

 

이러한 비판을 인식하고 오픈AI는 자체적으로 만든 창작물을 바로 알아볼 수 있게 하는 워터마크 서비스를 개발하고 있다. 오픈AI에서 서비스하는 이미지 기반의 인공지능 창작 시스템인 ‘달리(DALL-E)’는 지시 단어 몇 개로 생성한 이미지 하단에 특유의 표시를 남겨 달리가 만든 이미지임을 표시한다. 챗GPT의 출처 문제를 해결하기 위해 오픈 AI가 고용한 스콧 아론슨 텍사스대학교 교수는 “문자나 단어를 일련의 토큰으로 변환해 챗GPT의 창작물 여부를 탐지하는 방식을 도입할 계획”이라고 밝혔다.

 

 

기술 발달로 인한 ‘교육 격차’ 우려도

 

 

배움과 가르침의 개념 자체가 흔들리게 된 지금, 교육 현장에서 일선 교사들이 더 능동적인 역할을 해야 한다는 주장도 나온다. 인공지능 기술을 두려워만 하기보다는 능력을 강화해주는 ‘아이언맨의 슈트’처럼 쓸 수 있는 방법을 찾아야 한다는 것이다. 박남기 교수를 비롯해 교육학계에서 전면 도입 필요성을 주장하던 ‘플립 러닝’이 그 방법 중 하나다. 이는 교사가 먼저 설명하고 학생이 질문하는 기존의 방식을 ‘뒤집는다’는 데서 온 수업방식이다. 교사는 학생들에게 동영상, 교재, 논문 등 자료를 사전에 주고 챗GPT 등을 활용해 스스로 학습을 하게 한 후 수업에서는 이를 기반으로 토론과 발표를 하는 게 핵심이다.

 

나아가 인공지능 기술의 발달로 인해 더 벌어질 ‘교육 격차’를 해결하기 위해서도 기존의 교육이 더 능동적으로 변해야 한다는 지적도 나온다. 박남기 교수는 “좋은 학교에서 좋은 교육을 받는 아이들은 인공지능에게 지적 역량을 의존하지 않는 방법을 배울 수 있다. 하지만 그런 유혹을 제대로 막아주지 못하는 환경에서 자란 아이들과는 계속 격차가 생길 것”이라며 “바로바로 답을 주는 ‘즉답 AI’에게 계속 의존하면 아이들의 지적 근육이 약해질 가능성이 있다”고 말했다. 실제로 서울시교육청 등에서 디지털학습과 AI 교육을 강화하겠다는 방침을 낼 때마다, 강남·서초 등지의 학부모들은 맘카페 등 커뮤니티에서 “이럴 때일수록 손으로 쓰는 학습을 계속 시켜야 한다”고 서로 팁을 공유하기도 한다.

 

 

챗GPT는 이러한 교육계의 혼란에 대해서도 답을 갖고 있을까. 기자는 챗GPT에게 ‘네가 학교 교육에 끼칠 부정적인 영향을 알고 있는지, 해결책은 무엇인지’를 물어봤다. 답변을 간추려 정리하면 이렇다.

 

저 같은 언어 모델을 교실에서 사용하면 연습 자료를 효율적으로 만들 수 있는 동시에, 학생들의 비판적 사고와 창의력을 잠재적으로 감소시킬 수 있다는 것을 이해하고 있습니다. 잠재적인 해결책으로는 기계로 인간 교사를 대체하기보다는, 나와 같은 언어 모델을 보완재로 사용하는 것입니다. 예를 들어 나를 활용해 과제와 발표 자료를 만들고, 수업시간에는 토론과 질문과 개인적 피드백을 제공하는 식입니다. 또 다른 해결책으로는 학생들이 정보 출처를 인지하고 자동화 텍스트에 대한 한계를 배울 수 있는 디지털 사용능력에 대한 적절한 교육을 제공하는 것입니다.”

 

 

 

 

 

+ Recent posts