[ John R. Searle (1980), “Minds, brains, and programs”, Behavioral and Brain Sciences 3(3): 417-57.
더글러스 호프스태더, 『이런, 이게 바로 나야! 2』, (사이언스북스, 2001) ]
I. The systems reply (Berkeley)
II. The Robot Reply (Yale)
III. The brain simulator reply (Berleley and M.I.T.)
IV. The combination reply (Berleley and Stanford)
V. The other minds reply (Yale)
VI. The many mansions reply (Berkeley)
417
- 사람의 인지 능력을 컴퓨터로 시뮬레이트 하려는 시도에 대한 심리학적∙철학적 의의가 무엇인지 답하기 위해서 강한 인공지능과 약한 인공지능을 구분.
• 약한 인공지능(weak AI): 마음 연구에서 컴퓨터의 주된 가치는, 강력한 도구를 제공한다는 것.
• 강한 인공지능(strong AI): 잘 프로그램 된 컴퓨터는 어떤 것을 이해하고 인지 상태를 가진다는 점에서 마음임. 컴퓨터가 인지 상태를 가지므로 심리학적 설명을 단순히 시험하는 것이 아니라 그 자체로 설명임.
- 써얼은 약한 인공지능에 관한 주장에 반대하지 않음.
• 여기서 논의되는 인공지능은 강한 인공지능.
417
- 섄크(Schank)의 프로그램
• 프로그램의 목표는 인간의 이야기 이해 능력을 시뮬레이트하는 것.
• 인간의 이해 능력의 특징은 질문에 대한 정보가 이야기에 명시되지 않은 경우에도 대답할 수 있다는 것.
- 예)
• 이야기: “어떤 사람이 음식점에서 손님이 햄버거를 주문했는데, 나온 햄버거가 너무 타고 뻣뻣했다. 손님은 화가 나서 돈을 지불하지 않고, 팁도 주지 않고, 음식점을 뛰쳐나갔다.”
• 질문: 그 손님은 그 햄버거를 먹었는가?
• 대답: 아니오.
- 컴퓨터가 이러한 대답을 하려면, 음식점에 간 인간이 가지는 종류의 정보에 대한 “표상”(representation)을 가져야 함.
- 강한 인공지능 옹호자들의 주장
• 주장(1): 기계가 말 그대로 이야기를 이해하고, 질문에 대답한다.
• 주장(2): 기계/프로그램이, 사람이 이야기를 듣고 질문에 대답하는 능력을 설명한다.
- 써얼은 섄크의 프로그램이 이러한 주장들을 전혀 지지하지 않는다는 입장.
■ 써얼의 사고 실험 [pp. 417-418]
- 마음에 관한 어떠한 이론을 시험하는 방법은, 그 이론이 모든 마음이 작동하는 원리라고 말하는 원리에 따라 실제로 내 마음이 작동하면 어떨지를 스스로에게 묻는 것.
- 중국어를 전혀 모르는 내가 어떤 방에 갇혀 있음.
• 방 안에 있는 책(1): 중국어로 된 커다란 책
• 방 안에 있는 책(2): 첫 번째 책과 두 번째 책의 상호연관에 대한 규칙의 집합.
• 규칙은 영어로 되어 있고 나는 영어를 모국어로 삼는 다른 사람들처럼 그 규칙을 잘 이해함.
• 규칙을 통해 한 집합의 형식 기호를 다른 집합의 형식 기호와 연결할 수 있음.
• 방 안에 있는 책(3) 중국어로 쓴 책과 영어로 쓴 지시를 함께 제공
• (3)의 요소를 (1)과 (2)와 관련시키는 것이 가능
• (1)을 “스크립트”(a script), (2)를 “이야기들”, (3)을 “질문들”이라고 부름.
• (3)에 대해 내가 대답할 때 사용하는 기호를 “질문에 대한 대답”이라고 부름.
• 영어로 쓴 규칙의 집합을 “프로그램”이라고 부름.
- 어떤 사람들이 나에게 영어로 된 이야기를 주었다고 가정하자.
• 나는 그 이야기를 이해할 수 있음.
• 내가 지시에 따라 중국어 기호를 처리하는 데 익숙해지고, 프로그래머도 프로그램을 작성하는 데 익숙해짐.
• 방 바깥에 있는 누군가의 관점에서 볼 때 질문에 대한 나의 대답이 중국어가 모국어인 사람의 대답과 구별할 수 없을 정도가 되었다고 하자.
• 그러나 나는 중국어를 전혀 이해하지 못하고 형식 기호를 처리하여 대답을 작성한 것.
- 강한 인공지능의 지지자들이 하는 주장을 사고 실험에 비추어 검토할 것임.
■ 주장(1)에 대하여 [p. 418]
- 나는 중국어가 모국어인 사람의 입력/출력과 구별할 수 없는 입력/출력을 가지며, 당신이 원하는 모든 형식 프로그램을 가질 수 있지만, 여전히 나는 어떠한 이야기도 이해하지 못함.
- 같은 이유로, 섄크의 컴퓨터도 어떤 언어든 이야기를 전혀 이해하지 못함.
• 중국어의 경우 컴퓨터는 나이고, 내가 컴퓨터가 아닌 경우 컴퓨터는 내가 아무 것도 이해하지 못한 경우보다 이해를 더 잘하지 않기 때문.
■ 주장(2)에 대하여 [p. 418]
- 컴퓨터와 컴퓨터 프로그램은 이해에 대한 충분 조건을 제공하지 않음.
• 컴퓨터는 기능한 것이고 이해는 없었기 때문.
- 컴퓨터와 프로그램은 이해에 대한 필요 조건을 제공하는가?
- 내가 영어로 된 이야기를 이해할 때 하는 일과 중국어 기호를 조작할 때 하는 일이 정확히 같거나 매우 비슷하다는 강한 인공지능 지지자의 주장이 그럴듯하게 들리는 것은, 두 가지 가정을 하기 때문임.
• 가정(1): 모국어 화자와 같은 입력과 출력을 가지는 프로그램을 구성하는 것이 가능함.
• 가정(2): 그 화자들도 어떠한 프로그램의 예화인, 어떤 수준의 기술(description)을 화자들이 가짐.
- 써얼은 그러한 경험적 가능성이 있지만 그것이 참이라고 믿을 이유는 거의 없다고 함.
• 앞의 사례에서 보여준 것은, 컴퓨터 프로그램이 이야기에 대한 나의 이해와 무관하다는 점.
• 중국어의 경우, 인공지능이 프로그램을 통해 나에게 투입할 수 있는 모든 것을 내가 가지지만, 나는 아무 것도 이해하지 못함.
• 영어의 경우, 나의 이해가 컴퓨터 프로그램과 관련된다고 가정할 이유가 전혀 없지만, 나는 이해함.
• 프로그램이 순수하게 형식적으로 규정되는 요소에 대한 계산 작동으로 정의되는 한, 이러한 작동은 이해와 관련이 없음.
• 따라서 충분 조건은 분명히 아니고 필요 조건이나 이해에 관한 공헌을 한다고 생각할 근거는 전혀 없음.
- 여기서 핵심은 순수하게 형식적인 원리를 컴퓨터에 입력하더라도 그러한 원리들은 이해에 관한 충분하지 않다는 것.
• 사람은 어떠한 이해 없이 형식적 원리들을 따를 수 있을 것이기 때문.
• 내가 영어를 이해할 때 내가 어떤 형식적인 프로그램을 조작한다고 가정할 이유가 없기 때문에, 그러한 원리가 필요하거나 도움이 된다고 생각할 이유도 없음.
418-419]
- 써얼은 인공 지능 연구자들에게 이러한 사례를 소개함.
• 연구자들은 그에 대한 적절한 답변이 무엇인지에 대한 일치된 의견에 도달하지 못함.
- 그들의 반응에 대한 고찰을 하기 전에 우선 “이해”에 대한 일반적인 오해를 막고자 함.
- 써얼의 비판자들의 지적
• 이해의 여러 다른 정도들이 있음.
• “이해”는 단순한 이항 술어가 아님.
• 이해에는 여러 종류와 수준이 있고, “x understands y”라는 형식의 명제에 배중률이 직접 적용될 수 없는 경우가 발생함.
• 많은 경우 x가 y를 이해하는지 여부는 단순한 사실의 문제가 아니라 판단을 요구하는 문제임.
- 써얼은 비판자들의 지적이 맞는 말이지만, 논문에서 논의하는 문제와 관계없다고 함.
• “이해”라는 말이 문자 그대로 적용되는 분명한 사례와 그것이 적용되지 않는 분명한 사례가 있고, 이 두 종류의 사례가 이 논의에 필요한 전부이기 때문.
• “자동 온도 조절 장치는 온도 변화를 지각한다”는 등의 표현은, 우리가 지향성(intentionality)을 인공물에게도 확장한다는 사실과 연관됨.
• 그러나 이는 비유일 뿐이며, 내가 영어를 이해할 때의 의미가 아님.
- 물론, 뉴웰과 사이먼은 컴퓨터의 인지와 사람의 인지가 같은 종류라고 주장함.
• 썰은 컴퓨터의 이해는 부분적이거나 불완전한 것이 아니라 제로(0)라고 함.
I. The systems reply (Berkeley)
■ 체계 이론의 비판 [p. 419]
방에 갇힌 사람이 이야기를 이해하지 못하는 것은 사실이지만, 그 사람은 전체 체계의 일부일 뿐이며 체계 전체는 이야기를 이해함.
이해는 개인에게 귀속되는 것이 아니라 개인을 한 부분으로 삼는 체계 전체에 귀속됨.
■ 써얼의 반박 [p. 419]
- 체계의 모든 요소들을 개인에게 내면화하자.
• 장부에 적힌 규칙과 중국어 기호의 데이터 뱅크를 암기하여 모든 것을 개인의 머릿속에서 계산하는 것.
• 방을 제거하고 야외에서 일한다고 가정할 수도 있음.
- 이 경우에도 그 개인은 중국어를 전혀 이해하지 못함.
• 체계는 더더욱 이해하지 못함.
• 개인에게 없고 체계에 있는 것이 없기 때문.
• 체계는 개인의 일부이므로 개인이 이해하지 못한다면 체계도 이해할 방법이 없음.
419]
- 써얼은 체계 이론은 시작부터 그럴듯하지 않은 것으로 보인다고 함.
• 이 견해는 한 개인은 중국어를 이해하지 못하지만 개인과 종이조각의 결합(conjunction)이 중국어를 이해할 수도 있다는 것.
- 체계 이론에 따르면, 내면화된 체계 안에 있는 사람은 중국어 모국어 화자처럼 중국어를 이해하지 못하지만 “형식 기호 조작 체계로서의 사람”은 중국어를 실제로 이해한다는 것.
• 중국어에 대한 형식 기호 조작 체계로서의 사람의 하위체계와 영어에 대한 하위체계를 혼동하면 안 됨.
• 그 사람 안에는 두 하위체계가 있고 두 체계는 거의 관계가 없음.
- 써얼은 두 체계가 거의 관계 없을 뿐 아니라 닮지도 않았다고 주장함.
• 영어 하위체계는 “햄버거”가 햄버거를 가리킨다는 것을 알지만, 중국어 하위체계는 “꾸부렁 꾸부렁”한 것들 다음에 “꼬부랑 꼬부랑”한 것이 따라온다는 것뿐.
• 중국어 하위체계는 영어 하위체계의 일부분, 즉 영어 규칙에 따라 무의미한 기호 조작에 관여하는 일부분에 불과함.
- 그 행위자가 문자 그대로 중국어 이야기를 이해하는 하위체계를 가진다고 가정하는 독립적인 근거는 무엇인가?
• 그 유일한 근거는 내가 그 프로그램을 가지고 튜링 검사를 통과할 수 있다는 것.
• 그러나 튜링 검사의 타당성이 논의의 핵심.
• 앞선 사례는 튜링 검사를 통과한 두 체계가 있을 수 있음을 보여주지만 문자 그대로의 의미를 이해한 것은 하나뿐임.
• 체계 이론은 체계가 중국어를 이해한다는 주장을 논증 없이 제기한, 논점 선취의 오류를 범함.
419-420]
- 체계 이론의 주장을 따르면, 또 다른 터무니없는 결론에 도달함.
- 내가 어떤 종류의 입력, 출력, 그 둘을 연결하는 프로그램을 가진다는 근거로 내 안에 인지가 틀림없이 있다는 결론을 내린다면, 모든 비-인지적인 하위체계들도 인지적인 것이 됨.
• 위가 정보 처리를 한다고 기술할 수 있는 수준이 있음.
• 체계 이론을 받아들이면 중국어 하위체계가 이해한다는 것과 위가 이해한다는 것을 구별할 수 있는 원리적인 방법이 없으므로, 위・심장・간 등이 이해를 가지는 하위체계가 됨.
• 나(기호 조작을 하는 사람)의 관점으로 보면, 음식물이든 중국어든 그 속에는 아무 정보가 없으며, 중국어의 경우, 정보는 프로그래머와 해석자의 눈에만 있음.
420
- 강한 인공지능이 심리학의 분야가 되려면, 심적 체계와 비-심적 체계를 구별해야 함.
• 마음이 작동하는 원리와 비-심적 체계를 지배하는 원리를 구별하지 않으면, 인공지능 연구는 무엇이 심적인 것인지를 설명할 수 없게 됨.
• 심적/비-심적 구분은 체계의 고유한 것에 관한 것이어야 하며, 보는 사람(beholder)에 따라 달라지는 것이 아니어야 함.
- 인공지능 문헌들에서 이러한 구분은 모호하게 이루어지는 경우가 많음.
• 존 매카시(John McCarthy): “온도조절장치 같은 단순한 기계도 믿음을 가진다고 말할 수 있고, 믿음을 가진다는 것은 문제 해결능력 갖춘 거의 모든 기계의 특징으로 보인다.”
- 써얼은 마음 연구는 사람은 믿음을 가지지만 온도조절장치 등은 믿음을 가지지 않는다는 사실에서 시작한다고 함.
• 이러한 사실을 부정하는 이론은 반례를 가지므로 틀림.
• 벽걸이 시계가 진짜 믿음을 가지는지, 사실과의 적합한 믿음인지, 명제 내용과 만족 조건을 가지는 믿음인지, 강한 믿음이나 약한 믿음이 될 가능성이 있는 믿음인지, 신경증적이거나 미신적이거나 확신에 찬 믿음인지, 독단적이거나 합리적이거나 미신적인 믿음인지, 아니면 믿음이라고 부를 만한 것을 가지는가?
• 강한 인공지능 옹호자들의 주장은 인공지능 연구가 마음에 관한 과학이라는 주장에 치명적임.
• 우리가 알고 싶은 것은 마음을 온도조절장치나 위와 구분할 기준.
(2019.11.27.)
댓글 없음:
댓글 쓰기