[번역] 우리가 정말로 두려워해야 하는 것에 대한 한 인공 지능 개척자의 견해 : 클리앙

본의 아니게  한 달 쉬었습니다. 오늘부터 다시 시작합니다. 

--

-

-

1
우리가 정말로 두려워해야 하는 것에 대한 한 인공 지능 개척자의 견해 (데이비드 마르케세)
-
--
데이비드 마르케세 David Marchese 는 뉴욕 타임스 매거진의 전속 필진 중 한 명이며 토크 talk 칼럼을 쓴다.

최예진 Yejin Choi 은 워싱턴 대학교 컴퓨터 공학과 브렛 헬셀 교수이다. 그[녀]의 연구는 자연어 처리와 컴퓨터 비전을 다룬다. 최예진 교수는 2022년 맥아더 펠로십 MacArthur Fellowship 을 수상했다.

이 인터뷰는 두 차례의 대화를 편집하고 요약한 것이다.
--
-
* 출처: 뉴욕 타임스 매거진 / 2022년 12월 26일
https://www.nytimes.com/interactive/2022/12/26/magazine/yejin-choi-interview.html
-
-
인공 지능은 다른 기술과 마찬가지로 우리의 가장 높은 야망과 가장 깊은 두려움을 불러일으킨다. 마치 우리가 꿈만 꿀 수 있는 속도와 기술로 작업을 수행할 수 있는 기계에 대한 모든 번뜩이는 프로메테우스적 약속은 인간의 추방과 무용화라는 상쇄적인 악몽을 수반하는 것 같다. 그러나 최근 인공 지능 이전에 인간이 지배했던 언어 및 시각 예술 영역에서의 돌파구 — GPT-3 언어 모델의 산문 작성과 DALL-E 2 시스템의 시각적 창조물이 큰 관심을 불러일으켰다 — 에도 불구하고 우리의 가장 심각한 우려는 아마도 완화되어야 할 것이다. 적어도 2022년 권위 있는 MacArthur "천재" 보조금을 받은 컴퓨터 과학자 최예진에 따르면 그렇다. 그[녀]는 인공 지능에서 상식과 윤리적 추론을 개발하는 획기적인 연구를 해왔다. 45세인 최는 "인공 지능의 잠재력과 인공 지능에 대한 두려움을 둘러싸고 약간의 과장이 있다"고 인정한다. 놀라지 않고 인간과 인공 지능에 대해 이야기할 수 있을 것이라는 것은 아니다. 최씨는 자신의 작업에 대해 "모험의 느낌이 있다"고 말했다. "당신은 이 미지의 영역을 탐험하고 있다. 예상치 못한 것을 보고 나면 저 너머에 또 무엇이 있는지 알아보고 싶다는 생각이 든다!"

--
GPT-3 언어 모델
https://www.nytimes.com/2022/04/15/magazine/ai-language.html

DALL-E 2
https://www.nytimes.com/2022/04/06/technology/openai-images-dall-e.html
--

사람들이 여전히 인공 지능에 대해 가지고 있는 가장 큰 오해는 무엇인가?번역우리가정말로두려워해야하는것에대한한인공지능개척자의견해클리앙

<<그들은 성급한 일반화를 한다. "오, GPT-3는 이 멋진 블로그 기사를 쓸 수 있다. 아마도 GPT-4는 뉴욕 타임스 매거진 편집자가 될 것이다." [웃음] 나는 그것이 거기에서 어느 누구도 대체할 수 없을 것이라고 생각한다. 그것은 정치적 배경에 대한 진정한 이해가 없고 따라서 독자들에게 적절한 글을 쓸 수 없기 때문이다. 그 다음 인공 지능의 지각력에 대한 우려가 있다. 말이 안 되는 것을 믿는 사람들이 항상 있다. 사람들은 타로 카드를 믿는다. 사람들은 음모론을 믿는다. 따라서 물론 인공 지능이 지각력이 있다고 믿는 사람들이 있을 것이다.>>

이것이 아마도 당신에게 물어볼 수 있는 가장 진부한 질문일 것이라는 것을 알고 있지만 어쨌든 물어볼 것이다. 인간이 지각력 있는 인공 지능을 만들 수 있을까?

<<생각이 바뀔 수도 있지만 현재로서는 회의적이다. 일부 사람들은 그런 인상을 가질 수 있지만 인공 지능과 너무 가깝게 일하면 많은 한계를 보게 된다. 그것이 문제이다. 멀리서 보면, 오 마이 갓! 가까이서 보면, 모든 결함이 보인다. 패턴이 많고 데이터가 많으면 인공 지능은 바둑이나 체스 게임과 같은 것들을 처리하는 데 매우 능숙하다. 그러나 인간은 인공 지능이 번역이나 체스와 같은 똑똑한 일을 할 수 있다면 쉬운 일도 정말 잘해야 한다고 믿는 경향이 있다. 사실 기계에게 쉬운 것이 사람에게는 어려울 수 있고 그 반대도 마찬가지이다. 당신은 인공 지능이 얼마나 기본적 상식 앞에서 쩔쩔 매는지 알면 놀랄 것이다. 크레이지하다.>>

인공 지능에게 상식을 가르치기라는 맥락에서 "상식"이 무엇을 의미하는지 설명할 수 있나?

<<그것을 기술하는 한 가지 방도는 상식이 지능의 암흑 물질이라는 것이다. 통상적 물질은 우리가 보는 것, 우리가 상호 작용할 수 있는 것이다. 우리는 그것이 물리적 세계에 존재하는 것이라고 오랫동안 생각했다. 그것은 우주의 5%에 불과하다는 것이 밝혀졌다. 95%는 암흑 물질과 암흑 에너지이지만 눈에 보이지 않고 직접 측정할 수 없다. 우리는 그것이 존재한다는 것을 안다. 그렇지 않다면 통상적 물질이 말이 되지 않기 때문이다. 그래서 우리는 그것이 거기에 있다는 것을 안다. 그리고 그것이 많이 있다는 것을 안다. 우리는 상식에 대해서도 그 깨달음에 도달하고 있다. 그것은 당신과 내가 가진 무언의 암묵적 지식이다. 너무나 당연해서 우리는 종종 그것에 대해 이야기하지 않는다. 예를 들어, 말의 눈은 몇 개인가? 둘. 우리는 그것에 대해 말하지 않지만 모두가 그것을 알고 있다. 우리는 우리가 이야기하지 않았지만 여전히 알고 있는 당신과 내가 가지고 있는 지식의 정확한 부분을 알지 못하지만, 내 추측으로는 많이 있을 것이다. 또 다른 예를 들어 보겠다: 당신과 나는 새가 날 수 있다는 것을 안다, 그리고 우리는 펭귄은 일반적으로 날 수 없다는 것을 안다. 그래서 인공 지능 연구자들은 이것을 코딩할 수 있다고 생각했다: 펭귄을 제외하고 새는 일반적으로 날 수 있다. 그러나 실제로 예외는 상식적 규칙에 대한 도전이다. 갓 태어난 새끼 새는 날지 못하고, 기름을 바른 새는 날지 못하고, 다친 새는 날지 못하고, 새장에 갇힌 새는 날지 못한다. 요점은 예외가 예외적인 것이 아니며 아무도 우리에게 말하지 않았더라도 당신과 나는 그것들을 생각할 수 있다는 것이다. 그것은 매력적인 능력이며 인공 지능에게는 그렇게 쉬운 일이 아니다.>>

당신은 앞에서 GPT-3에 대해 회의적으로 언급했다. 그것이 인상적이지 않다고 생각하는가?

<<나는 GPT-3의 열렬한 팬이지만 동시에 어떤 사람들은 그것을 과대 평가한다고 느낀다. 어떤 사람들은 그것이 이미 튜링 테스트를 통과했을 수도 있다고 말한다. 나는 동의하지 않는다. 예스, GPT-3의 한 최고 성능을 놓고 판단하면 통과된 것처럼 보일 수 있다. 하지만 평균 성능을 놓고 보면 강력한 인간 지능과는 거리가 멀다. 평균적 경우를 살펴봐야 한다. 왜냐하면 당신이 한 최고 성능을 선택할 때, 실제로 인간 지능은 어려운 선택 작업을 수행하기 때문이다. 다른 하나는 진보가 여러 면에서 흥미진진하지만 잘 할 수 없는 일이 너무 많다는 것이다. 그러나 사람들은 성급한 일반화를 한다: 때때로 어떤 일들을 정말 잘할 수 있기 때문에 인공 일반 지능이 모퉁이를 돌면 있을 것 같다. [하지만] 그렇게 믿을 이유는 없다.>>

당신의 인공 지능 연구에서 지금 가장 흥미로운 것은 무엇인가?

<<나는 가치 다원주의, 즉 가치가 단일하지 않다는 사실에 신이 난다. 그것을 표현하는 또 다른 방법은 보편적 진리가 없다는 것이다. 많은 사람들이 이것에 불편함을 느낀다. 과학자들로서, 우리는 매우 정확하도록 그리고 하나의 진리를 추구하도록 훈련받았다. 이제 나는 보편적 진리는 없다고 생각한다 - 새가 날 수 있느냐 없느냐? 또는 사회적 및 문화적 규범들: 벽장 문을 열어 두어도 괜찮으냐? 어떤 깔끔한 사람은 생각할 수 있다, 항상 닫으라. 나는 깔끔하지 않으니 열어두겠다. 그러나 벽장이 어떤 이유로 온도 조절된다면 닫아 둘 것이다. 벽장이 다른 사람의 집에 있으면 아마 나는 얌전히 있을 것이다. 이 규칙들은 기본적으로 보편적 진리로 기록될 수 없다. 왜냐하면 당신의 상황과 내 상황에 적용될 때 그 진실은 구부러져야 하기 때문이다. 도덕 규칙: 어떤 도덕적 진리가 있어야 한다, 당신도 알죠? 예를 들어, 사람을 죽이지 마라. 하지만 자비 살인이라면 어떨까? 그 다음 또 뭐가 있을까?>>

예스, 다음이 내가 이해하지 못하는 것이다. 거의 모든 규칙이나 진리에 예외가 있을 때 어떻게 도덕적 결정을 내리도록 인공 지능을 가르칠 수 있는가?

<<인공 지능은 다음을 정확히 배워야 한다: 더 깔끔한 경우가 있고 더 임의적인 경우가 있다. 그것은 불확실성과 의견의 분포를 배워야 한다. 언어 모델과 인공 지능의 경우를 들어 여기서 당신의 마음을 약간 편하게 해보자. 거기서 인공 지능을 훈련시키는 방법은 다음에 오는 단어를 예측하는 것이다. 그렇다면, 한 과거 맥락이 주어졌을 때, 다음에 오는 단어는 무엇인가? 다음에 오는 단어에 대한 보편적 진리는 없다. 때때로 올 수 있는 단어가 하나뿐이지만 거의 항상 여러 단어가 있다. 이러한 불확실성이 있지만 그 훈련은 강력한 것으로 밝혀졌다. 더 글로벌하게 살펴보면, 인공 지능은 통계적 분포를 통해 다음에 올 수 있는 가장 자주 사용되는 단어를, 다음에 올 수 있는 개연적 단어들의 분포를 학습한다. 도덕적 결정도 그렇게 할 수 있다고 생각한다. 이분법적이고 명료한 결정을 내리는 대신 때때로 이것은 정말로 나빠 보인다 This looks really bad 를 기반으로 결정을 내려야 한다. 또는 당신은 당신의 입장을 가지고 있지만, 그것은 [인공 지능은] 나라의 절반이 다르게 생각한다는 것을 이해[해야]한다.>>

인공 지능이 언젠가 일종의 중립적이거나 설계자의 잠재적으로 비윤리적 목표에 반하는 윤리적 결정을 내릴 수 있을 것이라는 궁극적 희망이 있는가? 가령 아동의 개인 정보를 악용하지 않기로 결정할 수 있는, 소셜 미디어 회사에 사용하도록 설계된 인공 지능? 아니면 뒤에서 윤리적 가치 척도를 기울이는 어떤 사람이나 사적 관심이 항상 있을 것인가?

<<전자는 우리가 성취하고자 하는 것이다. 후자는 실제로 불가피하게 발생하는 것이다. 사실 델파이는 우리를 위해 주석을 다는 크라우드 작업자들 다수가 약간 좌파적이기 때문에 이 점에서 좌파적이다. 좌파와 우파 모두 이것에 대해 불만을 가질 수 있다. 왜냐하면 좌파 사람들에게는 델파이는 충분히 좌파적이지 않고 우파 사람들에게는 델파이가 잠재적으로 충분히 포용적이지 않기 때문이다. 그러나 델파이는 첫 시도에 불과했다. 해야 할 일이 많다, 인공 지능의 가치 다원주의를 어떻게든 해결할 수 있다면 정말 흥미로울 것이다. 하나의 체계적인 것이 아니라 인간 집단처럼 다차원적인 것인 인공 지능 가치들을 갖는 것 말이다.>>

가치 다원주의를 "해결"했다는 것은 어떤 모습일까? 요즘 그것에 관해 생각하고 있는데 나는 명쾌한 답을 갖고 있지 않다.

<<"해결"이 어떤 모습이어야 하는지 모르겠지만 이 대화의 목적을 위해 말하고자 하는 것은 인공 지능은 모든 사람에게 규범화된 normalized 도덕적 프레임웍을 강요하는 것이 아니라 가치 다원주의와 사람들의 가치의 다양성을 존중해야 한다는 것이다.>>

우리가 인공 지능이 도덕적 결정을 내리는 것에 의존하는 상황에 놓여 있다면 우리는 이미 망한것 아닐까? 도덕은 애초에 아웃소싱해서는 안 되는 것 아닐까?

<<당신은 사람들이 우리가 만든 델파이 모델에 대해 가지고 있는 것처럼 보이는 흔한 - 거친 표현을 용서하시라 - 오해에 근접해 있다. 그것이 하나의 질문과 답변 모델이라는 오해 말이다. 우리는 이것이 사람들에게 도덕적 조언을 주기 위한 것이 아니라는 점을 분명히 했다고 생각한다. 이것은 [그런 것이라기보다는] 인공 지능이 무엇을 할 수 있거나 할 수 없는 지를 테스트하는 첫 번째 단계이다. 나의 주된 동기는 인공 지능이 더 안전하고 존중하는 방식으로 인간과 상호 작용할 수 있으려면 도덕적 결정을 배울 필요가 있다는 것이었다. 예를 들어, 인공 지능은 인간에게, 특히 어린이에게 위험한 일을 하도록 제안해서는 안 된다. 잠재적으로 인종차별적이고 성차별적일 수 있는 진술을 생성해서는 안 되며 누군가 홀로코스트가 없었다고 말할 때 인공 지능은 동의해서는 안 된다. 그것은 특정 키워드가 인종차별과 연관되는 경향이 있는지 여부만을 아는 것을 넘어서 인간적 가치를 폭넓게 이해해야 한다. 인공 지능은 어떤 것에 대해서도 보편적 권위가 되어서는 안 되며, 오히려 인간들이 가지고 있는 다양한 관점들을 인식하고, 그들이 동의하지 않는 지점을 이해하고, 명백히 나쁜 경우들을 피할 수 있어야 한다.

경각심을 주기 위한 것으로 알고 있는데, 닉 보스트롬 Nick Bostrom 종이 클립 예가 떠오른다. 그 우려에 해당하는 예가 있나?

<<노, 하지만 그 우려가 내가 델파이와 사회적 규범들 같은 연구를 하고 있는 이유이다. 왜냐하면 당신은 어리석은 인공 지능을 한 가지 일을 최적화하도록 배치할 수도 있기 때문이다. 그것은 인공 지능의 실수보다는 인간의 실수에 가깝다. 하지만 그렇기 때문에 인간의 규범들과 가치들이 인공 지능의 배경지식으로서 중요해진다. 어떤 사람들은 "종이 클립 생산을 최대화하면서 사람을 죽이지 마라"고 인공 지능을 가르치면, 인공 지능은 그렇게 할 것이라는 식으로 소박하게 생각한다. 그러나 그 기계는 모든 식물을 죽일 수도 있다. 그것이 인공 지능이 상식도 갖춰야 하는 이유이다. 인간의 생명을 보존하기 위해 모든 식물을 죽이지 않는 것은 상식이다. 극단적이고 퇴행적인 해결책을 채택하지 않는 것은 상식이다.>>

--
닉 보스트롬 종이 클립
옥스포드 대학교 교수 닉 보스트롬은 '종이 클립 최대화 기계'라는 예를 든다. 종이 클립을 만들도록 설계되었으나 정지 스위치가 없어서 처음에 공급된 재료를 다 쓴 후에 손이 닿는 곳에 있는 물질은 무엇이든 종이클립을 만드는 데 이용한다. 그리서 이 기계는 우선 지구 전체를 종이 클립 제조시설로 바꾸고, 이어서 우주로 확대해나간다. 머지 않아 전 우주가 종이 클립과 클립 제조기로 가득 차게 된다.
[AI에 대한 오해와 진실 https://brunch.co.kr/@stonewall/32 에서 발췌]
--

인공 지능과 유머 같은 더 가벼운 예는 어떤가? 코미디는 상당한 정도로 예상치 못한 것에 관한 것이다, 그리고 인공 지능이 대부분 이전 예들을 분석하여 학습한다면, 그것은 유머가 인공 지능이 특히 이해하기 어려운 것임을 의미하는가?

<<일부 유머는 매우 반복적이며 인공 지능은 그것을 이해한다. 하지만 뉴 요커 New Yorker 의 카툰 캡션들이라면 어떨까? 우리는 그것에 관한 새로운 논문을 가지고 있다. 기본적으로, 오늘날의 가장 멋진 인공 지능조차도 뉴요커 캡션들을 제대로 해독할 수 없다.

공정하게 말하면, 많은 사람들도 마찬가지이다.

<<[웃음.] 예스, 그것은 사실이다. 우리는 때때로 우리 연구원들이 뉴 요커 캡션들에 있는 농담들을 이해하지 못한다는 것을 발견했다. 그것을 이해하는 것은 어렵다. 그러나 우리는 계속 연구할 것이다.>>
-
-
2
CAPTCHAs, Kant, And Culture
https://3quarksdaily.com/3quarksdaily/2022/06/captchas-kant-and-culture.html

에서 발췌:

명백한 지식의 이러한 불분명함은 CAPTCHA 챌린지들이 인터넷 전체에 퍼져 있는 이유이다. CAPTCHA 보안 챌린지는 우리에게 일련의 사진들을 제시하고 정지 표지판이나 버스 등이 있는 사각형을 클릭하도록 요청한다. 그것은 우리가 아주 쉽게 인지하는 것들을 인지하도록 인공 지능을 훈련시키는 것이 엄청나게 어렵기 때문에 보안 챌린지로 작동한다. 이 순간에도 여전히 버스를 찾는 데는 사람이 필요하다. (당신이 모르고 있을 수도 있으니 알려주자면, "CAPTCHA"는 "Completely Automated Public Turing test to tell Computers and Humans Apart"의 약어이다.) 우리가 그것을 하는 것은 쉽지만 인공 지능에게 그것을 가르치는 것은 거의 불가능하다.

팁과강좌