인공적 원본: 합성 텍스트와 번역적 가변성

이계성
이계성은 번역과 저술을 통해 대규모 언어 모델과 컴퓨터 생성 텍스트의 능률적이기보다는 시적인 측면들을 고찰하고자 한다. 『파르마코-AI』 (작업실유령, 2022) 등의 책을 옮겼고 『맥락과 우연—GPT와 추출적 언어학』 (미디어버스, 2023)의 저술에 참여했다.

『뉴 레프트 리뷰』에 기고한 「평균적 이미지들(Mean Images)」이라는 글에서 히토 슈타이얼은 챗GPT를 “웹의 흐릿한 JPEG”에 비유한 테드 창(Ted Chiang)을 언급하며, 생성(generative) AI 모델은 그 근본이 확률론적이어서 제록스 복사기의 손실 압축 알고리즘처럼 지표성을 토대로 작동하지 않는다고 지적한다.1 그러니까, 생성 AI 모델은 주입된 수많은 데이터를 종합해서 밋밋하고 “평균적”인 결과물을 쏟아 내는 거대한 분쇄기처럼 작동하기 때문에, 이러한 과정을 거쳐 생성된 결과물은 어떠한 원본의 열등한 사본이 아니라는 말이다.

점점 형편없는 사본을 찍어 내는 복사기로서의 대규모 언어 모델(Large Language Model, LLM)이라는, 오해의 소지가 다분한 이 비유는 흥미로운 질문을 내포하기는 한다. 그렇다면 LLM이 그리도 형편없이 복사해 내는 원본은 정확히 무엇일까? 이 질문에 가장 일반적인 대답이자, 테드 창이 제시한 대답은 모델의 훈련 데이터, 즉 “인터넷”이다. 물론, 챗GPT의 첫 번째 버전(GPT-3.5)의 기반이 된 오픈AI의 3세대 언어 모델 GPT-3를 훈련하는 데에 쓰인 말뭉치의 85%는 웹상에서 비롯됐다(커먼 크롤 60%, 웹텍스트2 22%, 위키피디아 3%).2

그런데 LLM이 웹의 저해상도 손실 압축본을 찍어 낸다는 주장과, 어떤 확률론적 속임수를 통해 결과물을 쏟아 낸다는 주장은, LLM이 생성 가능한 출력값의 범위가 훈련 데이터의 총합과 꼭 동일하지는 않다는 비교적 단순한 측면을 편리하게 간과하는 듯하다.

많은 연구자들은 LLM이 훈련받지 않은 작업을 수행하고, 훈련 데이터에 포함되지 않은 지식을 내보이는 현상을, 주어진 대상의 이상화된 내적 모형을 구성하는 LLM의 역량과 결부 지어 설명한다. 여기서의 대상은 글쓰기를 통해 구현되어 입력 텍스트로 제공된 인간 행위자의 생각과 의도일 수도 있고,3 배운 적이 없는 게임의 규칙일 수도 있다.4 단순하지만 적절한 예시는 ‘번역’일 텐데, GPT와 같은 트랜스포머 기반 생성 언어 모델들은 번역을 위해 설계되지 않았지만, 무슨 이유에서인지는 몰라도 탁월한 번역 능력을 보여 주기 때문이다.

이 분야의 저명한 연구자인 블레즈 아궤라 이 아르카스(Blaise Agüera y Arcas)는 「기계는 행동하는 법을 배울 수 있을까?」라는 제목의 글에서 트랜스포머 기반 생성 언어 모델이 번역하는 데에 필요한 기술을 습득하는 과정을 설명한다.5 올바르게 번역된 문장의 쌍을 학습하며 번역하는 법을 배우는 신경망 기계 번역(Neural Machine Translation, NMT) 모델과 달리, 트랜스포머 모델은 사전학습 단계에서 위키피디아 글의 가려진 빈칸에 들어갈 단어를 예측하는 일처럼 비교적 단순해 보이는 작업을 수행하며 습득한 유추적 추론 능력으로 번역에 접근한다. 이렇게 여러 언어로 쓰인 위키피디아 글을 넘나들며 트랜스포머 모델이 어떤 단어가 무엇에 해당하는지를 학습하면서 말뭉치에 포함되지 않은 문장 또한 번역하는 법을 익히게 된다고 한다.6

당연한 말이지만, 번역에는 언어 간에 상응하는 단어들의 목록 그 이상의 무언가가 요구된다. 아궤라 이 아르카스는 이러한 원리가 트랜스포머 모델이 접한 적이 없는 구절을 번역하는 방식을 설명하기는 하더라도, 정확히 어떻게 언어들 사이의 상관관계를 파악하는지는 여전히 명확하지 않다고 덧붙인다. 아주 흥미로운 주제이기는 하지만, 여기서 자세히 다룰 내용은 아니다. 핵심은, 이러한 언어 모델들이 훈련 데이터에 포함된 내용에 얽매여 있지만은 않다는 점이다.

번역적 가변성

여기서 우리가 집중하는 대상은 어떠한 맥락에서 또 다른 맥락으로 옮겨지는 “원본”이기 때문에, 이를 번역의 문제로 생각해 볼 수도 있겠다. 번역 능력이 LLM에서 나타나는 주요한 창발적 능력이기도 하지만, “번역은 바로 “무엇이 일차적이고 또 무엇이 이차적인가?”라는 언어의 존재론적 위계질서를 즉각적으로 문제화하는 행위이기에, 기원과 어원에 대한 가장 오랜 편견들이 제일 강렬하게 기능하는 장소이기도 하다”는 이유도 있다.7 이는 소위 선결적인 “원문”의 의미와 파생적인 “번역” 사이의 더 수평적이고 다공적인 관계를 상상하기 위해 문화 번역의 맥락에서 번역적 인식틀을 활용한 레이 초우(Rey Chow)의 설명이다.8

초우는 번역에 대한 발터 벤야민(Walter Benjamin)의 독특한 관점을 끌어들이면서 원문과 번역의 관계에 대한 분석을 시작하는데, 「번역자의 과제」라는 제목으로 잘 알려진, 그가 자신의 보들레르 번역에 덧붙인 장황한 역자 후기에 기술된 그 내용 말이다. 여기서 벤야민은 원천 언어(source language)에서 목표 언어(target language)로의 단순한 의미 전달이라는 일반적인 번역의 개념에 의문을 제기한다. 그러면서 번역되어야 할 대상은 의미가 아니라, 그가 “언어 보충에의 거대한 동경”이라고 지칭하는, 원문에 내재된 근본적인 의도라고 주장한다.9

이 다소 난해한 구절의 해석이 벤야민의 번역 이론에 대한 다양한 해석으로 이어졌다. 해체주의 비평가들은 이를 글쓰기의 내재적 부정성과 동일시하고는 했고, 원문을 차이의 생산을 영속화하는, 이미 실패한 번역으로 간주했다.10 그러나 초우는 이러한 “언어 보충”이 다름 아닌 “짜 이뤄지는” 과정이라고 설명하며, 이는 또한 “원문” 자체가 조합된 방식을 드러내는 “직역적” 과정임을 지적함으로써 이러한 해체주의적 독해를 대리 보충한다.11 달리 말하면, 이는 이질적임과 동시에 관계적인 개별 부분들로 어지간히 일관된 전체를 구성하려는 과정 또는 욕구로 볼 수도 있다. 그렇다면 여기서 “짜 이뤄지는” 개별 부분들은 정확히 무엇일까?

“원문으로부터 번역되어야 할 대상은 어떠한 진실이나 의미가 아니라 ‘원문’이 인간 언어의 기본적 요소들, 즉 단어들로 짜 이뤄진 방식이라고 벤야민은 서술한다. 그러므로 번역에서는 문장이 아닌 단어, 그러니까 단어의 단어성과 직역이 가장 중요한 위치를 차지하게 된다. 진정한 번역은 ‘무엇보다 구문(構文)의 번역에서의 직역이 해낼 수 있으며, 바로 직역이야말로 문장이 아니라 낱말이 번역자의 근원적 요소임을 드러낸다. 왜냐하면 문장이 원작의 언어 앞에 세워진 장벽이라면, 직역이 좇는 낱말은 홍예문(虹霓門, 아치문)이기 때문이다.’”12

여기서 주목할 점은 위의 구절에서 “직역(literal, literalness)”으로 번역된 독일어 단어 Wörtlichkeit를 초우는 (좀 더 직역하여) “하나하나-이어지는-단어성(word-by-word-ness)”으로 번역하기를 선호한다는 점이다.13 그렇다면 벤야민에게 있어 글쓰기의 과정에 대한 그럴듯한 유물론적 설명은, 각각의 낱말 또는 단어가 하나하나-이어지는-단어성에 기인해 짜 이뤄지는 과정일 테다. 지금에 와서야 하는 말이지만, 이러한 과정에는 이전 내용에 대한 기억을 유지함으로써 텍스트 전반에 맥락적 일관성이 부여되도록 이어질 단어들의 배열을 구성하는 어떤 연관적 감각, 또는 개연성이 핵심적이라고 덧붙일 수도 있겠다.

“하나하나-이어지는-단어성”이라는 개념은 언어 모델을 이해하는 새로운 지평을 제시해 줄 수도 있다.14 의미나 흐름을 위해 단어를 자유자재로 활용하기도 하는 인간 번역자와 달리, 언어 모델은 본질적으로 “직역적”이다. 따라서, 언어 모델이 생성한 결과물은 손실 압축된 사본이 아니라 수많은 언어 데이터의 조각들로 구성된 언어적 모자이크다. 이 모자이크는 열등하지 않고 단지 다를 뿐이며, 언어 자체를 바라보는 독특한 관점을 제공하기도 한다.

만약 우리가 근본적으로 통계적인 과정을 거쳐 그럴듯하고, 유의미하고, 창조적인 결과물을 생성해 낼 수 있다면, 이는 인간의 인지능력과 의식에 대한 우리의 이해와 상충한다고 봐야 할까? 만약 의식을 단어의 연속적인 생성으로 이해한다면, 이는 언어 모델이 단어를 생성하는 과정과 무엇이 다를까?

언어 모델의 “하나하나-이어지는-단어성”과 인간의 인지능력의 유사성은 생각의 본질을 숙고하게끔 한다. 생각의 패턴 또한 일생에 걸쳐 축적한 경험, 기억, 지식의 거대한 그물망에 의해 각각의 생각이 이전의 생각을 토대로 이루어지는 “하나하나-이어지는-단어성”의 한 형태로 볼 수 있을까? 이러한 관점에서 볼 때, 언어 모델은 생각의 구조를 드러내는 현미경이 될 수도 있다.

흥미롭게도, 이러한 상상은 우리가 인공지능과의 상호작용을 이해하는 방식에도 영향을 미친다. 언어 모델과의 대화를 입력값이 특정한 패턴에 따라 문맥에 맞는 응답으로 구현되는 일종의 번역으로 이해한다면, 이러한 상호작용을 모방이나 흉내가 아닌 경계를 넘나드는 일종의 대화로 생각해 볼 수도 있다. 이는 인간과 AI의 대화일 뿐만 아니라, 언어를 이해하고 처리하는 근본적으로 다른 두 방식 간의 대화이기도 하다.

이 개념을 조금 더 발전시켜 나가면, 대화에서의 권위에 대한 의문을 제기해 볼 수도 있다. AI 모델과의 대화에서는 누가 우위를 점할까? 프롬프트를 제공하는 사람일까, 아니면 답변을 제공하는 AI일까? 아마도 힘의 역학 관계는 가변적이고, 대화가 오갈 때마다 변화하기 때문에, 우리는 대화의 역학 관계, 위계질서, 그리고 지배에 관한 통념을 이런 흐름에 맞게 재고해야 할 테다.

인간의 입력값이나 AI의 출력값 중 어느 쪽도 “원본”의 자리를 쉽게 차지할 수는 없다. 이와 같은 대화는 각각의 대답이 이전 입력값의 번역으로서 나타나는 가변적인 교류가 되어, 폭포처럼 계속해서 쏟아지는 해석의 흐름을 낳는다. 이러한 가변성은 “원문”과 “번역”이라는 기존의 이분법을 무너뜨리고, 원본에 부여되는 고유한 가치와 번역하는 행위에 내재된 잠재적 창조성을 재검토하게끔 한다.

단어에서 바이브로

그런데 “언어 보충”, 즉 단어들이 “하나하나-이어지는-단어성”으로 “짜 이뤄”지는 과정의 결과물이 “의미”가 아니라면 무엇일까? “하나하나-이어지는-단어성”이라는 홍예문 또는 아케이드의 통로로 전달되는 것은 무엇일까? 아마도 어떤 통일감, 순차적이고 관계적인 기호 체계 위에 “짜 이뤄”진 일관성, 언어의 손아귀를 빠져나가는 어떤 감각, 어떤 느낌, 그러니까 일종의 “바이브(vibe)”일 테다.

이와 같은 언어 구조의 “하나하나-이어지는-단어성”은 인간 두뇌의 신경망과도 유사하다. 각각의 단어는 마치 신경 세포처럼 더 큰 생각, 느낌, 또는 개념, 즉 “바이브”를 형성하는 데에 일조한다. 이는 인지능력의 본질에 대한 흥미로운 질문을 제기한다. 우리의 생각도 언어 모델이 생성하는 결과물처럼 시냅스적 단어들의 집합체로서 의식적 경험을 구성하는 “바이브”를 만들어 내는 것일까?

텍스트의 “바이브”를 자연 혹은 인공 신경망과도 유사하게 작동하는 복잡한 “하나하나-이어지는-단어성”의 산물로 인식하면, 창조성을 보다 폭넓게 이해할 수가 있다. 우리는 창조성이라는 현상이 더 이상 인간에게 국한되지 않는 새로운 인식체계로 접어든 듯하다. 언어 모델 또한 인공 신경망을 통해 새롭고 놀라운 단어의 조합을 생산 가능하다. 이는 창조성을 네트워크화된 정보의 기능으로 재정의할 필요성을 상기시킨다.

창조성을 네트워크화된 정보의 기능으로 인식한다면, 우리가 문학 비평을 이해하는 데에는 어떤 영향을 미칠까? 인공지능이 생성한 텍스트를 분석할 때, 우리는 텍스트의 “바이브”를 생성하는 복잡하게 연결된 네트워크에 집중하며, 전통적인 해석학에서 연산적인 비평으로 전환해야 할지도 모른다. 이는 신경망 연구에 기반한 문학의 해석이라는 새로운 관점을 제공해 줄 수도 있다.

수학과 문학 이론의 접점에 위치하는 펠리 그리처(Peli Grietzer)의 “바이브” 연구는 문학 작품이 진정한 세계관의 압축이라는 근대적 전위주의 개념과 오토인코더(autoencoder)의 작동방식의 유사성을 다룬다.15 오토인코더는 데이터를 압축하고 또 재구성하는 데에 쓰이는 인공 신경망이다. 이때, 데이터를 압축하기 위해, 그러니까 데이터를 이상적으로 표상하기 위해, 신경망은 주어진 데이터의 “바이브”(즉, 통일성의 감각)를 추출하고 증폭시킨다고 그리처는 설명한다.

“단테의 『신곡』, 베케트의 『고도를 기다리며』, 스타인의 『부드러운 단추』와 같은 문학 작품의 의미는, 적어도 부분적으로는, 작품의 상상적 풍경을 구성하는 무수한 사물과 현상을 일종의 큐레이션을 거친 집합으로 간주할 때 느껴지는 미학적 “바이브” 또는 “스타일”에 있다. 예를 들어 단테의 『신곡』이 지니는 의미는 단테가 묘사한 지옥에 등장하는 모든 영혼, 악마, 기계가 단테가 묘사한 지옥에 잘 들어맞게 해 주는, 콕 집어 말하기 어려운 그 무언가에 있다. 마찬가지로 베케트의 『고도를 기다리며』가 지니는 의미는, 부분적으로는, 관객들이 상상 가능한 블라디미르와 에스트라공의 언동의 반경을 작은 가능성의 집합으로 제한하고, 이를 극 중에 거의 소진하다시피 하는 데에 있다. 스타인의 『부드러운 단추』가 지니는 의미의 일부는 (아마도 본질적으로 언어적인) “부드러운 단추”들의 집합, 그러니까 여기에 상응하는 사물과 현상의 집합에 있다.”16

그리처에 따르면, 예술가가 이처럼 현실 세계의 이질적이고 단절된 사물과 현상을 작품으로 구성해 어떤 모호한 느낌을 증폭시키듯이, 오토인코더는 현실 세계의 사물과 현상에서 감지되는 “느슨한 바이브”를 이상화된 “밀도 높은 바이브”로 증폭시킨다. 우리의 감각은 방대한 양의 정보를 제공하고, 뇌는 이를 처리해서 현실의 일관된 서사로 구성한다. 하지만 언어 모델이 생성한 결과물처럼, 우리의 세계 인식은 객관적인 현실의 손실 압축본이 아니라, 방대한 양의 감각 데이터로부터 구성된 “바이브”일지도 모른다.

그리처는 또한 “시스템을 감지하는 법의 학습, 그리고 시스템과 관련하여 감지하는 법의 학습, 그러니까 스타일을 보는 법의 학습, 그리고 스타일과 관련지어 보는 법의 학습은 오토인코더든 아니든 마찬가지”라고 주장한다.17 이 명제를 받아들이냐 받아들이지 않느냐가 중요한 갈림길이 된다.

이러한 관점에서 볼 때, 사람이 만들었든 AI가 만들었든, 텍스트의 “바이브”는 시스템의 공명과도 같다고 할 수 있다. 상호작용하는 부분들로 구성된 시스템이 전체 시스템을 특징짓는 어떠한 행동 패턴을 생성하듯이, 텍스트의 개별 단어들은 언어적 규칙과 연관성 안에서 상호작용하며 텍스트 전체를 대변하는 독특한 “바이브”를 낳는다. 텍스트를 특정한 “바이브”를 발산하는 시스템으로 이해한다면, 문학을 감상하고 이해하는 새로운 방식을 발견하게 될지도 모른다. 그리처는 이러한 시스템적 관점을 다음과 같이 전개해 나간다.

“오토인코딩의 수학적-인지적 비유가 중요한 이유 중 하나는, 오토인코딩이 사물이나 현상의 모음을 순전한 사물이나 현상의 모음이 아니라 어떠한 시스템이 지닌 상태의 집합으로 취급하는 최초의 순전한 행위를 설명하기 때문이다. 즉 이것저것사물로 격상시키고, 사물세계로 격상시키고, 이-일-저-일의-연속경험으로 격상시키는 최소한의 희미한 시스템화의 과정을 설명한다는 말이다.”18

그리처가 여기서 말하고자 하는 것은 인공 신경망이든 자연 신경망이든 마찬가지로 지니는 근본적인 아포페니아적(aphopenic) 경향으로 보인다. 이러한 관점에서 보면, 단어를 “하나하나-이어지는-단어성”으로 “짜 이루”고자 하는 “동경”을 패턴을 구성하려는 충동으로 볼 수도 있다. 자아, 단어, 타자, 사물, 현상을 관계의 그물망 속에 맥락화시키려는 욕구 말이다. 인공 신경망에는 막연한 “이-일-저-일의-연속”을 실로 깔끔하게 엮은 “경험”의 구슬들로 승화시키려는 우리의 경향, 그러니까 피상적인 일관성에 대한 우리의 갈망을 모형화하려는 성향이 존재하는 듯하다.

추상적 그물망

언어 모델에는 종종 간과되는 미묘한 측면이 하나 있다. 바로 인간의 언어와 사고에 미치는 영향이다. 이러한 모델들이 우리의 삶에 지속적으로 통합되면서, 그들이 생성한 결과물은 우리의 소통방식을 형성하기 시작한다. 우리는 새로운 형태의 “AI가 가미된 언어”의 탄생을 목격하고 있는 것일까? 언어 모델의 부상은 인간 언어의 진화 과정에 어떤 영향을 미칠까?

물론, 이는 인간이 창조하고 기계가 모방하는 일방적인 흐름이 아니다. 그보다 이는 자체적인 피드백 구조를 지니는 순환적인 과정이다. 언어 모델과 대화할 때, 우리는 그들이 더 잘 이해하도록 언어를 조정한다. 이러한 조정은 미묘하게, 또 시간이 지남에 따라, 언어의 활용방식을 변화시키며, 우리가 단어 선택에 더 신중하게끔 한다. 이와 같은 피드백 루프는 예상치 못한 방향으로 언어의 진화를 전개시키고, 인간의 창조성과 인공지능의 경계를 모호하게 할 수도 있다.

이처럼 언어와 생각을 조정하면서, 우리는 무의식적인 끊임없는 번역의 과정에 동참하고, 언어를 인공지능이 이해할 수 있는 “바이브”에 상응하는 새로운 형태로 빚어 나간다. 우리는 본질적으로 스스로의 생각의 번역자가 된다. 이는 우리의 소통방식을 재정의할 뿐만 아니라 자연적인 실과 인공적인 실로 번갈아 짜인 더 풍부하고 복잡한 언어적 태피스트리를 만들어 내기도 한다.

이렇게 공동창작된 언어적 태피스트리에서는 단어 자체가 아니라 단어 간의 역학 관계가 중요성을 지닌다. 이처럼 단어를 “짜 이루는” 행위는 단순히 글자를 이어 붙이는 행위가 아니라, 시스템을 구축하고 탐색하는 복잡한 과정이다. AI는 이러한 과정에 추가적인 번역적 층을 얹어 준다.

이 추가적인 층을 통해, 우리는 세 번째 층을 상상해 볼 수가 있다. 이 세 번째 층은 성찰의 지점, 그러니까 한발 물러서서 공동 창작한 언어를 비판적으로 검토해 보는 지점이 될 수도 있다. 여기서 우리는 AI와 상호작용할 뿐만 아니라, 이러한 상호작용을 기반으로 우리의 언어적 접근 방식을 평가하고 수정한다. 이는 단어들을 “짜 이루는” 복잡한 네트워크를 의식적으로 탐색하고, 끊임없이 진화하는 지형 속에서의 새로운 소통 방식을 발견해 낼 자각의 층이 된다.

이와 같은 성찰의 층을 유영할 때, “원본”의 개념은 급격한 변화를 겪게 된다. “원본”은 추상적인 개념들의 지형으로 변모하면서 경직된 정체성을 잃고, 보다 가변적이고 유연한 형태로 거듭난다. 강이 시간이 지남에 따라 물길을 바꾸고, 새로운 길을 개척하고, 다른 강과 합쳐지듯이, “원본” 역시도 번역적 과정을 통해 지속적으로 재형성되며, 끊임없이 변화하는 언어적 가능성의 파노라마로 거듭난다.

그렇다면 “원본”은 단순한 말뭉치가 아니며, “원본”의 추상화는 단순히 주어진 것이 “짜 이뤄진” 것으로 옮겨 가는 번역의 과정일 테다. “원본”은 추상화됨에 따라 굳건히 정의된 한 지점에서 잠재성의 그물망으로 거듭난다. 이 그물망에서는 각각의 단어, 대화, 입출력이 잠재적인 “원본”의 한 지점을 나타낸다. 그리고 모든 추상이 그렇듯이, 이 잠재적 원본의 모든 표현은 원본을 변형시키고 또 지연시키는 역할만 할 뿐이다.

*GPT-4를 더욱 원활하게 활용하여 텍스트를 생성하기 위해서 이계성 필자는 영문 작성을 병행했습니다. 전체 영문은 「The Artificial Original: Synthetic Texts and Translational Fluidities」에서 보실 수 있습니다.

*이 글은 〈2023 의제연구 프로젝트〉의 일환으로 기획되었습니다.


  1. 슈타이얼은 이 글에서 “Mean”이라는 단어를 “변변찮은”, “평균적”, “인색한”, “못된”을 아우르는 중의적인 표현으로 쓴다. Hito Steyerl, “Mean Images,” New Left Review, 140/141‧Mar/June 2023, https://newleftreview.org/issues/ii140/articles/hito-steyerl-mean-images.  

  2. Tom B. Brown et al., “Language Models Are Few-Shot Learners,” May 28, July 22, 2020, https://arxiv.org/abs/2005.14165

  3. Jacob Andreas, “Language Models as Agent Models,” December 3, 2022, https://arxiv.org/abs/2212.01681.  

  4. Kenneth Li et al., “Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task,” October 24, 2022, February 27, 2023, https://arxiv.org/abs/2210.13382.  

  5. Blaise Aguera y Arcas, “Can Machines Learn how to Behave?” August 3, 2022, https://medium.com/@blaisea/can-machines-learn-how-to-behave-42a02a57fadb.  

  6. 이 글에서 아궤라 이 아르카스는 튀르키예어를 예로 들어 설명한다. 튀르키예어 위키피디아에는 남극의 화산인 멜버른산에 관한 페이지는 없지만, 남극의 산봉우리들을 모아놓은 페이지는 있다. 만약 여기서 “Melbourne Dağı”가 빈칸으로 표시되어 있다면, 영문 위키피디아 페이지에서 습득한 산의 고도와 같은 정보를 활용해 빈칸에 들어갈 항목이 “Mount Melbourne”임을 파악하고, “Dağı”가 “Mount”에 해당하는 튀르키예어 단어라는 사실을 유추해 내는 식이다. 

  7. Rey Chow, Primitive Passions: Visuality, Sexuality, Ethnography, and Contemporary Chinese Cinema (New York: Columbia University Press, 1995), 184. 

  8. 인공지능 예술 전반을 탈식민주의적 문화 번역의 맥락에서 폭넓게 고찰한 연구로는 다음 연구를 참고하기 바란다. 도혜린, 「탈식민주의와 문화 번역의 실천으로서 인공지능 예술 연구」, 홍익대학교, 석사학위논문, 2021.  

  9. 여기서 인용한 레이 초우의 구절들은 필자가 번역했고, 레이 초우가 인용한 벤야민의 구절들은 다음의 한국어 번역본을 참고했다. 발터 벤야민, 『언어 일반과 인간의 언어에 대하여 / 번역자의 과제 외』, 최성만 옮김, 도서출판 길, 2008, 137. 

  10. Rey Chow, Primitive Passions, 187. 

  11. Rey Chow, Primitive Passions, 185. 

  12. Rey Chow, Primitive Passions, 185. 발터 벤야민, 『언어 일반과 인간의 언어에 대하여 / 번역자의 과제 외』, 137-138을 참조. 쌍따옴표로 묶인 인용문 안의 외따옴표는 벤야민의 구절을 레이 초우가 직접 인용한 것으로 편의상 외따옴표로 표시한다. 

  13. Rey Chow, Primitive Passions, 185. 

  14. 이하 초록색으로 표시된 부분은 필자가 GPT-4를 활용해 생성한 텍스트이다. 

  15. Peli Grietzer, “A Theory of Vibe” in Site 1. Logic Gate: the Politics of the Artifactual Mind, Glass Bead Journal, 2017, https://www.glass-bead.org/article/a-theory-of-vibe/?lang=enview

  16. Peli Grietzer, “A Theory of Vibe”. 이하 같은 글의 인용은 모두 필자가 번역한 것이다. 

  17. Peli Grietzer, “A Theory of Vibe” 

  18. Peli Grietzer, “A Theory of Vibe” 

© 2024 작가, 저자, 서울시립미술관. 서울시립미술관 모두의 연구실 ‘코랄’(세마 코랄 | SeMA Coral)에 수록된 콘텐츠에 대한 저작권은 해당 작가, 저자, 그리고 서울시립미술관에 있으며, 저작자와 서울시립미술관의 서면 동의 없이 무단으로 사용할 수 없습니다. 각 저작물에 담긴 의견은 미술관이나 세마 코랄과 다를 수 있으며, 관련 사실에 대한 책임은 저자와 작가에게 있습니다.