BARTLEBY
제목: 바틀비(BARTLEBY)
인지적 항복의 위험
관리자들은 AI가 어느 정도까지 사고하게 내버려 두어야 할까?
계산기가 나왔다고 해서 모두가 셈을 못 하게 된 것은 아니다. GPS 내비게이션은 운전을 더 수월하게 만들었다. 인공지능이 사고 방식에 미치는 영향에 대한 모든 대화에서 이 두 가지 초기 기술은 꽤 자주 거론된다. 이들은 각각 두 가지 중요한 질문으로 들어가는 유용한 입구가 된다. AI는 사람들의 사고방식을 어떻게 변화시킬 수 있으며, 관리자들은 이에 대응하여 무엇을 해야 할까?
계산기와 GPS 장치를 사용하는 것은 '인지적 오프로딩(cognitive offloading)', 즉 특정 과업을 기술에 위임하기로 한 의도적인 결정의 사례이다. 두 경우 모두 그럴만한 가치가 있었다. 계산기는 학생들의 수학적 성취도를 높여 문제 해결 능력과 자신감을 키우는 데 도움을 준다. GPS 덕분에 운전자들은 더 이상 차를 세우고 지도와 씨름할 필요가 없다. 완전히 길을 잃을 확률은 줄어들고, 지독한 교통 체증을 피하기는 더 쉬워졌다.
하지만 대가도 따른다. 루이지애나 대학교 라피엣 캠퍼스의 마크 라쿠어와 동료들은 2019년 논문에서, 특정 문제에 대해 일부러 틀린 답을 제시하도록 계산기를 프로그래밍하여 학부생들을 대상으로 실험했다. 전반적으로 그들은 약간 부정확한 계산 결과에 대해서는 의심하는 경우가 거의 없다는 사실을 발견했다. 심지어 답변이 명백히 터무니없을 때조차도 일부 사람들은 의심 없이 이를 받아들이는 듯했다.
GPS 내비게이션 장치의 사용은 사람들이 스스로 생각하는 능력을 약화시킬 수도 있다. 하버드 의대의 루이자 다마니와 맥길 대학교의 베로니크 보봇이 수행한 연구에 따르면, 평생 GPS 사용량이 많은 운전자일수록 공간 기억력이 떨어지는 것으로 나타났다. 다른 연구에서는 스마트폰을 사용하여 길을 찾는 보행자가 종이 지도를 사용하는 사람보다 더 긴 경로를 택하고 더 자주 멈추는 경향이 있음이 밝혀졌다.
이와 유사한 패턴은 온라인 검색에서도 나타난다. 인터넷을 통해 정보를 찾는 것은 확실히 효율적이지만, 여기에는 상충 관계가 따른다. '구글 효과'는 온라인에서 찾을 수 있을 것이라고 예상하는 정보일수록 사람들이 더 잘 기억하지 못한다는 연구 결과를 일컫는 말이다.
AI는 이러한 상충 관계를 가속한다. 특정 과업을 모델에 맡기는 것은 종종 합리적인 선택이다. AI는 많은 분야에서 인간보다 훨씬 뛰어나기 때문이다. 그러나 AI의 광범위한 역량은 대화형 인터페이스와 매력적일 정도로 자신감 넘치는 페르소나와 결합하여, 단순한 업무 위임을 넘어 전면적인 항복으로 이어질 가능성을 높인다. 이것이 바로 펜실베이니아 대학교 와튼 스쿨의 스티븐 쇼가 동료 기드온 네이브와 함께 쓴 최근 논문에서 명명한 '인지적 항복(cognitive surrender)'의 개념이다.
쇼와 네이브는 자원봉사자들에게 AI의 도움을 받아 어려운 질문에 답하도록 요청했고, 라쿠어의 계산기 실험과 유사하게 기계의 답변에 무작위로 오류를 삽입했다. 모델이 정확한 답변을 내놓을 때, 이를 사용하는 사람들은 스스로의 지력에 의존한 대조군보다 더 뛰어난 성과를 냈다. 반면 AI가 틀린 답을 제시하자, AI 사용 그룹은 대조군보다 훨씬 더 저조한 성적을 기록했다. 다시 말해, 사람들은 스스로 생각하기를 멈춘 것이다.
현재 경영자들은 직원들이 어떻게 생각하는지에 미치는 영향보다 AI를 얼마나 활용하게 할지에 더 집중하고 있다. 그러나 대부분의 고용주는 비판적 사고의 가치 또한 중요하게 여긴다. 우선 모델은 여전히 당혹스러운 오류를 범하기 일쑤이고, 새로운 상황에서는 숙련된 인간의 개입이 필수적이기 때문이다. 따라서 관리자들이 인지적 저항을 장려하기 위해 무엇을 할 수 있을지 고민할 가치는 충분하다.
관리자들은 사고하는 것을 즐기는 노동자를 의도적으로 채용할 수 있다. 쇼에 따르면 '인지 욕구'가 높은 사람들(독자 여러분, 바로 당신을 의미합니다)은 인지적 항복의 위험으로부터 완전히 자유로운 것은 아니지만, 어느 정도 보호받을 수 있다고 한다.
인센티브와 피드백도 도움이 될 수 있다. 쇼의 논문에 포함된 한 실험에서는 정답을 맞혔을 때 금전적 보상을 제공하고, 테스트 도중 각 항목의 정답 여부를 알려주었다. 이러한 기법은 잘못된 답변을 제공받는 AI 사용자들이 모델을 더 많이 검증하고 바로잡도록 유도했다(물론 그럼에도 불구하고 자신의 판단에 의존한 사람들보다는 성과가 낮았다).
AI를 사용하지 않는 시간을 설계하는 것도 가치가 있을 수 있다. 인시아드(INSEAD)의 스테파노스 폴리디스와 동료들이 수행한 또 다른 최근 연구에서는 200명이 넘는 체스 동아리 학생들을 모집하여 AI 보조 플랫폼에서 훈련하게 했다. 학생 중 일부는 정해진 특정 순간에만 자동으로 AI 조언을 제공받았고, 다른 학생들은 원할 때면 언제든 버튼을 눌러 조언을 얻을 수 있었다. 원할 때 도움을 받을 수 있었던 학생들은 도움을 받는 시점을 스스로 조절할 수 없었던 학생들보다 학습 성과가 절반에도 미치지 못했다. 업무를 위임하는 것과 기술에 의존해 사고를 멈추는 것은 전혀 다른 문제다.
인지적 항복의 위험
관리자들은 AI가 어느 정도까지 사고하게 내버려 두어야 할까?
계산기가 나왔다고 해서 모두가 셈을 못 하게 된 것은 아니다. GPS 내비게이션은 운전을 더 수월하게 만들었다. 인공지능이 사고 방식에 미치는 영향에 대한 모든 대화에서 이 두 가지 초기 기술은 꽤 자주 거론된다. 이들은 각각 두 가지 중요한 질문으로 들어가는 유용한 입구가 된다. AI는 사람들의 사고방식을 어떻게 변화시킬 수 있으며, 관리자들은 이에 대응하여 무엇을 해야 할까?
계산기와 GPS 장치를 사용하는 것은 '인지적 오프로딩(cognitive offloading)', 즉 특정 과업을 기술에 위임하기로 한 의도적인 결정의 사례이다. 두 경우 모두 그럴만한 가치가 있었다. 계산기는 학생들의 수학적 성취도를 높여 문제 해결 능력과 자신감을 키우는 데 도움을 준다. GPS 덕분에 운전자들은 더 이상 차를 세우고 지도와 씨름할 필요가 없다. 완전히 길을 잃을 확률은 줄어들고, 지독한 교통 체증을 피하기는 더 쉬워졌다.
하지만 대가도 따른다. 루이지애나 대학교 라피엣 캠퍼스의 마크 라쿠어와 동료들은 2019년 논문에서, 특정 문제에 대해 일부러 틀린 답을 제시하도록 계산기를 프로그래밍하여 학부생들을 대상으로 실험했다. 전반적으로 그들은 약간 부정확한 계산 결과에 대해서는 의심하는 경우가 거의 없다는 사실을 발견했다. 심지어 답변이 명백히 터무니없을 때조차도 일부 사람들은 의심 없이 이를 받아들이는 듯했다.
GPS 내비게이션 장치의 사용은 사람들이 스스로 생각하는 능력을 약화시킬 수도 있다. 하버드 의대의 루이자 다마니와 맥길 대학교의 베로니크 보봇이 수행한 연구에 따르면, 평생 GPS 사용량이 많은 운전자일수록 공간 기억력이 떨어지는 것으로 나타났다. 다른 연구에서는 스마트폰을 사용하여 길을 찾는 보행자가 종이 지도를 사용하는 사람보다 더 긴 경로를 택하고 더 자주 멈추는 경향이 있음이 밝혀졌다.
이와 유사한 패턴은 온라인 검색에서도 나타난다. 인터넷을 통해 정보를 찾는 것은 확실히 효율적이지만, 여기에는 상충 관계가 따른다. '구글 효과'는 온라인에서 찾을 수 있을 것이라고 예상하는 정보일수록 사람들이 더 잘 기억하지 못한다는 연구 결과를 일컫는 말이다.
AI는 이러한 상충 관계를 가속한다. 특정 과업을 모델에 맡기는 것은 종종 합리적인 선택이다. AI는 많은 분야에서 인간보다 훨씬 뛰어나기 때문이다. 그러나 AI의 광범위한 역량은 대화형 인터페이스와 매력적일 정도로 자신감 넘치는 페르소나와 결합하여, 단순한 업무 위임을 넘어 전면적인 항복으로 이어질 가능성을 높인다. 이것이 바로 펜실베이니아 대학교 와튼 스쿨의 스티븐 쇼가 동료 기드온 네이브와 함께 쓴 최근 논문에서 명명한 '인지적 항복(cognitive surrender)'의 개념이다.
쇼와 네이브는 자원봉사자들에게 AI의 도움을 받아 어려운 질문에 답하도록 요청했고, 라쿠어의 계산기 실험과 유사하게 기계의 답변에 무작위로 오류를 삽입했다. 모델이 정확한 답변을 내놓을 때, 이를 사용하는 사람들은 스스로의 지력에 의존한 대조군보다 더 뛰어난 성과를 냈다. 반면 AI가 틀린 답을 제시하자, AI 사용 그룹은 대조군보다 훨씬 더 저조한 성적을 기록했다. 다시 말해, 사람들은 스스로 생각하기를 멈춘 것이다.
현재 경영자들은 직원들이 어떻게 생각하는지에 미치는 영향보다 AI를 얼마나 활용하게 할지에 더 집중하고 있다. 그러나 대부분의 고용주는 비판적 사고의 가치 또한 중요하게 여긴다. 우선 모델은 여전히 당혹스러운 오류를 범하기 일쑤이고, 새로운 상황에서는 숙련된 인간의 개입이 필수적이기 때문이다. 따라서 관리자들이 인지적 저항을 장려하기 위해 무엇을 할 수 있을지 고민할 가치는 충분하다.
관리자들은 사고하는 것을 즐기는 노동자를 의도적으로 채용할 수 있다. 쇼에 따르면 '인지 욕구'가 높은 사람들(독자 여러분, 바로 당신을 의미합니다)은 인지적 항복의 위험으로부터 완전히 자유로운 것은 아니지만, 어느 정도 보호받을 수 있다고 한다.
인센티브와 피드백도 도움이 될 수 있다. 쇼의 논문에 포함된 한 실험에서는 정답을 맞혔을 때 금전적 보상을 제공하고, 테스트 도중 각 항목의 정답 여부를 알려주었다. 이러한 기법은 잘못된 답변을 제공받는 AI 사용자들이 모델을 더 많이 검증하고 바로잡도록 유도했다(물론 그럼에도 불구하고 자신의 판단에 의존한 사람들보다는 성과가 낮았다).
AI를 사용하지 않는 시간을 설계하는 것도 가치가 있을 수 있다. 인시아드(INSEAD)의 스테파노스 폴리디스와 동료들이 수행한 또 다른 최근 연구에서는 200명이 넘는 체스 동아리 학생들을 모집하여 AI 보조 플랫폼에서 훈련하게 했다. 학생 중 일부는 정해진 특정 순간에만 자동으로 AI 조언을 제공받았고, 다른 학생들은 원할 때면 언제든 버튼을 눌러 조언을 얻을 수 있었다. 원할 때 도움을 받을 수 있었던 학생들은 도움을 받는 시점을 스스로 조절할 수 없었던 학생들보다 학습 성과가 절반에도 미치지 못했다. 업무를 위임하는 것과 기술에 의존해 사고를 멈추는 것은 전혀 다른 문제다.