March 24, 2026
먼저 독자분들께 한 말씀 드립니다. 이 포스트는 평소보다 길게 작성되었습니다. 분량에 너무 제한을 두지 않고 서로 연결된 여러 주제를 한 포스트에서 다루기로 했기 때문입니다. 요즘 사람들의 브라우징 습관과 온라인 미디어의 풍부함을 고려하면, 이 포스트는 더 흥미로운 읽을거리에 밀려 금방 넘겨질 것 같습니다. 하지만 탭을 바로 닫기 전에, 스크롤을 내려 결론을 읽어보시길 권합니다. 읽어 내려가다 보면 생각할 거리를 찾으실 수 있을 겁니다. 끝까지 다 읽으셨다면, 놀라운 집중력에 박수를 보냅니다.
대규모 언어 모델(LLM)의 사용에 대한 흔한 비판 중 하나는, LLM이 우리의 인지 능력을 빼앗아 갈 수 있다는 것입니다. 일반적인 주장은 특정 작업을 외주화하면 일종의 정신적 퇴화가 쉽게 일어날 수 있다는 것입니다. 이것이 어느 정도까지 사실인지는 신경과학자, 심리학자 등 여러 분야에서 계속 논의 중이지만, 저로서는 특정 기술은 “사용하지 않으면 잃는다(use it or lose it)“는 이해가 직관적으로도 경험적으로도 타당하게 느껴집니다.
더 본질적인 질문은 특정 방식의 사용이 다른 방식보다 더 낫거나 나쁜지, 그리고 만약 그렇다면 어떤 방식이 그러한가입니다. 인지 완결의 오류(The lump of cognition fallacy)라는 블로그 포스트에서 Andy Masley는 이 문제를 자세히 다룹니다. 그의 출발점은 “수행해야 할 사고의 양은 정해져 있다”는 관념에 의문을 제기하는 것이며, 그러한 생각이 어떻게 챗봇에게 “사고를 외주화”하면 우리가 게을러지고 덜 지능적이 되거나 다른 방식으로 인지 능력에 악영향을 미친다는 결론으로 이어지는지를 살펴봅니다. 그는 이를 경제에서 해야 할 일이 유한하다는 오해, 즉 흔히 “노동 완결의 오류(lump of labour fallacy)“라 불리는 것에 비유합니다. 그의 관점은 “사고는 종종 더 많은 사고할 거리를 낳는다”는 것이며, 따라서 기계에게 생각을 맡기는 것을 걱정할 필요가 없다고 주장합니다. 어차피 우리는 다른 것들을 생각할 수 있을 것이라는 논리입니다.
Masley의 블로그 포스트를 읽고 저도 오랫동안 머릿속에서 맴돌던 이 주제에 대해 생각을 정리해 보고 싶어졌습니다. 그의 포스트에는 이 논의에서 자주 등장하는 주장들이 담겨 있어 출발점으로 삼기 좋겠다는 생각이 들었습니다. Masley의 포스트에서 몇 가지 예시를 가져와 제가 어떻게 다르게 생각하는지를 보여 드리겠지만, 해야 할 사고의 양이 제한되어 있다는 주장만을 다루지는 않고 논의의 범위를 넓히겠습니다. Masley의 포스트를 먼저 읽지 않아도 되도록 최대한 노력해서 글을 썼습니다. 제 목적은 그의 모든 주장을 반박하는 것이 아니라, 왜 이 문제가 “사고는 종종 더 많은 사고할 거리를 낳는다”보다 훨씬 복잡한지를 설명하는 것입니다. 이 포스트의 요점은 “사고를 외주화”하는 것의 몇 가지 핵심적인 문제를 짚어보는 데 있습니다.
LLM(일반적으로 챗봇 형태)의 사용이 도움보다 해가 되는 활동의 범주를 정의할 수 있을까요? Masley는 자신의 관점에서 사고를 외주화하는 것이 명백히 해로운 경우들을 나열합니다. 제 관점을 충분히 설명하기 위해 그의 목록을 직접 인용하겠습니다. 그는 “다음의 경우에 인지를 외주화하는 것이 나쁘다”고 적습니다.
- 미래에 세상을 살아가는 데 필요한 복잡한 암묵적 지식을 쌓을 때.
- 다른 사람에 대한 배려와 존재감을 표현할 때.
- 그 자체가 소중한 경험이 될 때.
- 대신한다면 기만적인 것이 될 때.
- 반드시 옳아야 하는 치명적으로 중요한 문제를 다루고 있으며, 외주화 대상을 완전히 신뢰하지 않을 때.
근본적으로 다른 관점을 갖고 있음에도 불구하고, 이 목록에서는 우리가 상당 부분 의견이 일치한다는 사실을 발견하고 놀랐습니다. 의견 차이는 위에서 제시한 범주에 해당하는 활동의 양에 있다고 생각합니다. 특히 그중 세 가지가 그렇습니다.
“대신한다면 기만적인 것이 될 때”라는 항목부터 시작해 보겠습니다. Masley는 다음 예시를 들고 있습니다.
누군가 데이팅 앱에서 당신에게 메시지를 보낸다면, 그들은 당신이 실제로 어떤 사람인지 알고 싶어 합니다.
맞는 말이지만, 제 생각에는 자신의 모습을 꾸며내는 것이 기만이 되는 건 이런 친밀하거나 사적인 상황에만 국한되지 않습니다. 개인적인 소통은 전반적으로, 자신을 어떻게 표현하느냐가 중요한 영역입니다. 본인에게도, 대화하거나 글을 주고받는 상대에게도요. 우리가 서로 소통할 때는 교환 전체를 이루는 특정한 기대가 존재합니다. 우리의 말과 문구를 기계가 변형하게 두는 것은 그 기대를 저버리는 행위입니다. 우리가 선택하는 단어와 문장을 구성하는 방식은 많은 의미를 담고 있으며, 언어 모델이 이런 유형의 상호작용을 오염시키도록 내버려 두면 직접적인 소통은 훼손됩니다. 직접적인 소통은 단순히 정보를 주고받는 것이 아니라, 우리가 어떤 사람인지와 어떻게 스스로를 표현하는지로 형성되는 소통자들 사이의 관계에 관한 것이기도 합니다.
이는 두 사람 사이의 소통에만 해당하는 것이 아니라, 특정 발신자가 일반 독자에게 전달하는 텍스트에도 어느 정도 같은 원칙이 적용된다고 생각합니다. 최근 노르웨이 언론에서는 공개 글쓰기에서 LLM을 공개하지 않고 사용하는 것에 대한 논쟁이 있었으며, 각종 주장과 의견들이 난무했습니다. 챗봇이 이렇게 광범위하게 사용되는 지금, 소통에 대한 우리의 기대를 명확히 해야 할 필요가 있기에 이 논의가 수면 위로 올라온 것을 매우 반갑게 생각합니다. 저는 인간 간의 소통이 기계 변환이라는 중간 단계 없이 유지되는 것이 이롭다고 분명히 생각하지만, 모든 사람이 그 견해를 공유하는 것은 아닙니다. 앞으로 우리의 문서 소통이 대부분 AI 모델과 공동 저작되는 형태가 된다면, 우리는 그것을 인지하고 기대치를 그에 맞게 조정해야 합니다. 일부는 글쓰기에 AI를 사용했을 때 이를 공개하기 시작했는데, 이는 우리의 LLM 사용을 더 잘 이해하기 위한 바람직한 행보라고 생각합니다. 텍스트를 LLM이 작성했는지, 또는 “공동 저작”했는지 아는 것은 수신자가 글을 보는 방식에 중요한 영향을 미칩니다. 그렇지 않은 척하는 것은 단순히 거짓입니다.
많은 이들이 LLM을 모국어를 사용하지 않거나 학습 장애가 있는 사람들이 의견을 더 명확하게 표현하는 데 도움이 되는 훌륭한 도구로 봅니다. 의미가 사람에게서 비롯된다면, LLM은 그 의미를 올바르고 효과적인 언어로 표현하는 데 도움을 줄 수 있다는 논리입니다. 저는 이에 대해 두 가지 주된 반론이 있습니다. 첫 번째는 텍스트에 무슨 일이 일어나는가에 관한 것입니다. 대부분의 경우 의미와 그 표현 방식을 분리하는 것은 불가능합니다. 그것이 본질적으로 언어가 하는 일이기 때문입니다. 단어들이 곧 의미입니다. 표현 방식을 바꾸면 메시지도 바뀝니다. 두 번째는 우리 자신에게 무슨 일이 일어나는가에 관한 것입니다. 우리는 보조 장치 없이 성장하고 배울 기회를 스스로 박탈합니다. LLM이 분명 텍스트를 개선하는 데 도움을 줄 수 있지만, 표현 방식을 AI 모델에게 맡길 때 사고 과정, 즉 아이디어를 발전시키는 과정이 심하게 절단됩니다. LLM은 금세 도움이 아닌 대체재가 되어, 우리 자신의 목소리를 발견하고 스스로의 두 발로 설 때 어떤 사람이 될 수 있는지를 발견할 기회를 빼앗아 갑니다.
신중하게 사용한다면 이 두 가지 단점에 영향받지 않고 챗봇을 활용할 수도 있겠지만, 문제는 LLM에서 맞춤법이나 문법 도움을 받는 것과 모델이 사실상 대신 글을 쓰게 하여 자신의 목소리를 지워버리는 것 사이에는 예외적으로 얇은 경계선이 존재한다는 점입니다. 이는 현재 챗봇과 LLM 기반 도구의 설계 방식상 피할 수 없는 일입니다. 구식 자동 수정에서 생성형 언어 모델로의 도약은 너무 큽니다. 만약 사람들이 진심으로 LLM을 글쓰기 보조 도구로 구상한다면, 오늘날의 챗봇보다 훨씬 신중하게 설계된 인터페이스가 필요합니다.
동시에, 많은 사람들이 훨씬 더 실용적으로 접근한다는 것도 알고 있습니다. 그들은 그냥 일을 끝내고 싶을 뿐입니다. 보고서를 완성하고, 불만 사항을 제출하고, 이메일에 답장하고, 가능한 한 효율적으로 하루를 마치고 싶은 것입니다. 제2외국어로 자신을 표현할 때 LLM의 도움을 받는 것도, 얼마나 많이 혹은 적게 배우는지를 고려하지 않는다면 유용해 보입니다(현재 최신 LLM들이 단순히 노르웨이어 텍스트 생성을 매우 못한다는 사실만 아니었다면 번역에 LLM을 사용하는 것에 더 긍정적이었을 겁니다. 다른 비영어권 언어에서도 상황이 더 나은지, 아니면 시간이 지나면 개선될지 기대해 볼 따름입니다). 또한 불만 사항 제기나 보험사 처리 같은 관료적 절차와 씨름하는 사람들에게 LLM은 효율적인 것 같습니다. 이 경우 이점이 더 크게 느껴질 수 있습니다. 하지만 “무기”가 양쪽 테이블에 다 존재한다는 것을 기억해야 합니다. 관련된 모든 당사자가 단어 생성기로 무장했을 때 관료적 절차는 어떻게 될까요?
이 의견들을 표명하면서 주저함이 없는 것은 아닙니다. 제가 사람들에게서 강력한 도구처럼 보이는 것을 빼앗으려는 것처럼 비칠 수 있기 때문입니다. 요점은 이 도구가 여러분을 더 강하게 만들지 않고 더 약하게 만든다고 생각한다는 것입니다. LLM은 사람들을 실질적으로 강화시키는 것 같지 않습니다. 제가 현재 보는 효과 중 하나는 각종 지원(인턴십, 연구 제안서, 채용 공고)이 늘어나지만 품질은 떨어지는 현상입니다. 학생들은 협업 과제를 해결하기 위해 챗봇에 도움을 구하면서, 모두가 같은 챗봇에 같은 질문을 하고 있다는 사실을 깨닫지 못합니다. 잠깐이라도 스스로 생각했다면 형성될 수 있었을 아이디어의 다양성이 사라지고 있습니다.
챗봇이 참여 문턱을 낮췄을지는 모르지만, 경쟁의 기본 규칙은 바뀌지 않았습니다. 글쓰기를 잘하려면 글을 써야 합니다. 사고도 마찬가지입니다. 취업 지원은 당신이 어떤 사람인지를 보여 주는 것이지, LLM이 생각하는 당신의 모습이나 당신이 어떠해야 한다고 생각하는 모습을 보여 주는 것이 아닙니다. 공개 토론에 참여한다는 것은 곧 생각을 명확한 언어로 표현하는 방법을 터득하는 과정입니다. 본인의 단어로 생각을 표현하지 못한다면, 정말로 참여하고 있는 걸까요?
모든 텍스트가 같은 방식으로 영향을 받는 것은 아님을 명심해야 합니다. 제가 “기능적 텍스트”라고 부르는 글쓰기 범주, 즉 컴퓨터 코드나 순수한 정보 전달(예: 레시피, 안내 표지판, 문서 등)은 같은 문제에 노출되지 않습니다. 그러나 특정 저자가 일반 독자를 향해 쓴 텍스트에는 특정한 역할 기대가 있고 특정한 신뢰가 바탕이 됩니다. 그 신뢰가 무너진다면 인류에게 손실이 될 것입니다.
실용주의적인 태도는 텍스트의 인플레이션이 일어나도록 내버려 두고 먼지가 가라앉은 후에 결산하는 것일 수 있습니다. 그 이후에 언어에는 무엇이 남아 있을까요? 제 보수적인 관점은 우리가 잃는 것이 얻는 것보다 더 가치 있다는 믿음에서 비롯됩니다. LLM이 단기적으로는 유용할 수 있지만, 사용하는 것은 문제가 아닌 증상을 치료하는 것입니다. 그것은 목발이며, 물론 진정으로 그 목발이 필요한 사람도 있습니다. 제 유일한 조언은 기대기 전에 정말로 필요한지 확인하라는 것입니다.
LLM을 사용하는 것은 글쓰기에 관한 것만이 아닙니다. Masley는 “그 자체가 소중한 경험이 될 때”의 활동을 외주화하는 것은 나쁘다고 언급합니다. 전적으로 동의하지만, 이 범주가 우리가 이미 삶에서 하는 많은 것들을 포괄한다고 제가 말하면 그는 동의하지 않을 것 같습니다. 주요 LLM 제공업체들은 챗봇을 휴가 계획, 파티 준비, 친구와 가족을 위한 개인 메시지 작성에 사용하는 방법을 즐겨 보여 줍니다. 이런 광고를 볼 때만큼 기술 사회와 단절된 느낌이 드는 경우가 드뭅니다.
저에게 이것은 인간이라는 것의 핵심을 건드리는 문제를 부각시킵니다. 현대 생활은 잡일처럼 느껴지는 많은 활동들을 가져왔지만, 동시에 우리는 모든 것을 잡일로 취급하는 데에도 기를 쓰는 것 같습니다. 인간은 거의 무엇에서도 불만을 찾아내는 놀라운 능력이 있습니다. 아마도 현대 사회에서 원하는 것은 무엇이든 원하는 때에 할 수 있어야 한다는, 혹은 더 중요하게는 하고 싶지 않은 것은 피할 수 있어야 한다는 기대 때문일지도 모릅니다. 있는 그대로의 삶에서 기회와 충족감을 발견하지 못하면, 삶은 결코 충분하지 않고 우리는 항상 다른 무언가를 하고 싶을 것이라는 필연적인 결론에 이릅니다.
이론적으로는, 일부를 자동화하면 잠재적으로 더 의미 있고 보람 있는 다른 일을 위한 시간을 확보할 수 있다는 데 동의합니다. 하지만 이미 많은 사람들이 휴가 계획조차 피하고 싶은 잡일로 여기는 단계에 이르렀습니다. AI가 “거의 모든 것”을 자동화할 수 있다는 주장이 우리가 시간과 노력을 쏟을 만한 것이 무엇인지를 깨닫게 해 주고, 의도적인 삶의 가치를 재발견하도록 이끌어 주기를 바랍니다.
제가 다루고 싶은 세 번째 포인트는 Masley에 따르면 “미래에 세상을 살아가는 데 필요한 복잡한 암묵적 지식을 쌓을 때” 챗봇을 사용하지 말아야 한다는 것입니다. 다시 한번 전적으로 동의하며, 이 역시 일상생활의 많은 부분을 포괄한다고 생각합니다. 지식 쌓기는 새로운 것을 배우기 위해 앉아 있을 때만 일어나는 것이 아니라, 반복적인 작업을 할 때도 일어납니다.
이 오해는 챗봇에 새로운 것이 아니라, 스마트폰을 주머니에 넣고 다니기 시작할 때부터 존재해 왔습니다. 항상 인터넷을 가까이 두고 있으니 더 이상 정보를 기억할 필요가 없어진 것처럼 보입니다. 지식을 저장하기 위해 뇌를 사용하는 대신, 필요할 때 온라인에서 정보를 찾아보고 정보를 실제로 활용하고 비판적으로 사고하는 방법을 배우는 데 더 많은 시간을 쏟을 수 있습니다. 우리가 놓치는 점은, 지식을 습득하고 기억하는 것이 그 지식을 활용하는 방법을 배우는 데 있어 핵심적인 부분이라는 사실입니다. 마치 컴퓨터처럼 저장 장치와 처리 장치를 단순히 분리할 수 있다고 생각하는 것은 순진한 발상입니다.
이 교훈은 피아노를 배우던 시절에 얻었습니다. 저는 재즈를 이해하고, 훌륭한 즉흥 연주자들이 어떻게 그 자리에서 새로운 악절을 그렇게 쉽게 만들어 낼 수 있는지 알아내려 했습니다. 즉흥 연주를 어떻게 연습할 수 있을까요? 즉각적으로 멋지게 들리는 새로운 것을 만들어 내는 능력을 훈련하는 것이 가능할까요? 시도할 때마다 비슷한 리프만 연주하게 되었습니다. 한참 후에는 훌륭한 재즈 연주자들은 타고난 내면적 창의성, 그들을 위해 선율을 흥얼거려 주는 어떤 내면의 음악적 영감을 갖고 태어난 것이 틀림없다는 확신이 생겼습니다.
스승 중 한 분이 진짜 비결을 가르쳐 주었습니다. 훌륭한 즉흥 연주는 단순히 즉흥 연주를 연습한다고 나오는 것이 아닙니다. 기존의 곡들을 많이 연주해야 합니다. 반복해서, 외울 때까지, 화음 진행과 모티프를 몸에 익혀야 합니다. 이 연습이 무엇이 좋게 들리는지에 대한 직관을 만들고, 즉흥 연주는 그로부터 샘솟을 수 있습니다. 오래된 선율의 조각들이 새로운 음악으로 결합되는 것입니다. 그런 의미에서 우리는 컴퓨터보다 머신러닝 모델에 더 가깝지만, 우리가 실제로 그런 존재라고 착각해서는 안 됩니다.
여기서 명확히 해야 할 것이 있습니다. 저는 LLM이 아무것도 자동화해서는 안 된다고 말하는 것이 아닙니다. 다만 많은 이들이 지루한 작업에서 쌓이는 지식을 심각하게 과소평가하고 있으며, 효율성 압박이 우리를 챗봇으로 내몰 때 그 지식을 잃을 위험이 있다고 생각합니다.
여담으로, Masley가 설명하는 확장된 마음(extended mind) 개념에 이의를 제기하고 싶습니다.
“우리의 인지 중 많은 부분은 두개골과 뇌에 국한되지 않으며, 물리적 환경에서도 일어납니다. 따라서 우리가 마음이라고 정의하는 것의 상당 부분은 우리 주변의 물리적 사물 속에도 존재한다고 볼 수 있습니다.”
그것이 뇌의 뉴런에서 일어나는지, 폰의 회로에서 일어나는지는 어느 정도 임의적인 것처럼 보입니다.
이 발언은 맥락 안에서 읽더라도 단순히 터무니없습니다. 어떤 일이 컴퓨터가 아닌 뇌에서 일어난다는 사실은 세상의 모든 차이를 만들어 냅니다. 인간은 단순한 정보 처리 장치 이상의 존재입니다. 물론 우리는 정보를 처리합니다. 하지만 특정 과정들을 결과 없이 외부 장치에 외주화할 수 있는 사물로 우리 자신을 취급하는 것은 극도로 환원주의적입니다. 친구의 생일에 챗봇이 자동으로 축하 메시지를 보내 줄 수 있는데 제가 기억해야 할까요? 네, 중요합니다. 그 첫 번째 이유는 당신이 의식적으로 친구를 기억하고 생각하며 관계의 유대를 다지기 때문입니다.
위 인용문 다음에는 이런 내용이 이어집니다.
폰을 잃어버리면 저장된 지식을 잃는 것이 사실이지만, 뇌의 일부가 잘려 나가는 일도 있을 수 있습니다.
폰을 잃어버리는 것과 뇌의 일부를 잃는 것은 발생 가능성과 결과 모두에서 엄청나게 다른 일입니다. 위의 발언은 뇌에서 일어나는 과정들을 심각하게 과소평가할 뿐만 아니라, 뇌의 일부가 잘려 나가는 것을 폰을 잃어버리는 것에 비유한다는 것 자체가 논거의 전제가 현실과 심각하게 동떨어져 있음을 드러냅니다.
우리가 만든 환경의 설계 역시 우리가 하는 사고의 양을 최소화하는 것이 유익하다는 것을 보여 주기 위해 거론됩니다.
“우리의 물리적 환경 대부분은 일상적인 목표를 달성하기 위해 해야 하는 사고의 양을 최소화하도록 특별히 설계되어 있습니다.”
사물들이 다르게 설계되었다면 얼마나 많은 추가적인 사고가 필요했을지 상상해 보세요.
이것은 면밀한 검토를 견디지 못합니다. 맞습니다. 환경이 갑자기 바뀐다면 잠시동안은 탐색하는 데 추가적인 정신적 노력이 필요할 것입니다. 잠깐 동안은 그렇겠지요. 하지만 그 후에는 그 대안적 설계에 익숙해지고 적응했을 것입니다. 추가적인 사고가 필요한 유일한 경우는 물리적 환경의 설계가 계속 바뀔 때뿐입니다.
“인지 완결의 오류”에 관해서는, 사고의 “유한한 풀을 고갈”시켜 인간에게 “더 적은 사고”를 남긴다는 걱정이 필요 없다는 데 전적으로 동의합니다. 그게 무슨 뜻이든 말이죠. 하지만 여기에는 또 다른 오류가 작동하고 있습니다. “무엇을 생각하느냐는 중요하지 않고, 무언가를 생각하기만 하면 된다”는 것입니다. 컴퓨터가 단순하고 지루한 작업들을 대신해 준다면 더 복잡하고 흥미로운 것들을 스스로 처리할 수 있다고 쉽게 믿게 됩니다. 하지만 기계가 기술적으로 대신할 수 있더라도 우리가 직접 해야 하는 특정 정신적 작업들이 있다는 것을 알아야 합니다.
예를 들어봅시다. 지루한 프로젝트 관리 작업을 모두 챗봇에 외주화하면 주요 업무인 연구에 더 많은 시간을 쓸 수 있습니다. 하지만 프로젝트에 대한 주인의식을 갖고 고수준의 결정을 내릴 기반을 쌓을 기회도 잃게 됩니다. 챗봇이 제 대신 모든 관리 작업을 완벽하게 수행하는 가상의 상황에서도, 저는 여전히 무언가를 잃었을 것이며, 이는 다시 프로젝트에 영향을 미칠 수 있습니다. 어떤 작업도 자동화해서는 안 된다는 것이 아니라, 프로세스를 자동화할 때는 항상 무언가를 잃는다는 것을 인지해야 한다는 것입니다.
“노동 완결의 오류”와 다시 비교하자면, 기계에 육체 노동을 외주화하면 새로운 종류의 일이 생겨날 수도 있지만, 그 새로운 일이 개인과 사회에 유용하고 충족적이며 유익한 것인지는 별개의 문제입니다. 사고도 마찬가지입니다. 모든 종류의 사고, 심지어 지루하고 힘든 종류도 우리에게 영향을 미친다는 것을 인정해야 합니다. 특정 인지 작업의 필요성을 제거하는 것은 새로운 종류의 인지 작업을 맡는 것과 마찬가지로 긍정적이든 부정적이든 상당한 영향을 미칠 수 있습니다.
장기적으로 챗봇이 무엇에 적합한지 파악하는 것은 우리 앞에 놓인 큰 도전입니다. 개인적인 소통은 영원히 바뀔 수 있고(더 이상 개인적이지 않게 될 수도 있다는 뜻입니다), 교육 시스템은 근본적인 적응이 필요할 것이며, 삶에서 실제로 중요한 경험이 무엇인지를 더 신중하게 성찰해야 합니다. 이 새로운 유형의 기술에서 진정으로 흥미로운 점은 우리의 인간성과 가치에 대한 질문들을 직면하게 만든다는 것입니다. 과거에는 이론적이었던 많은 철학적 질문들이 일상생활에서 관련성을 갖게 되고 있습니다.
제가 전달하고자 하는 근본적인 요점은, 챗봇을 어떻게 사용하기로 선택하느냐는 단순히 효율성과 인지적 결과의 문제가 아니라는 것입니다. 우리가 어떤 삶과 사회를 원하는지의 문제입니다. 기계의 자동화로부터 특정 인간 활동을 보호해야 할 충분한 이유가 있다고 주장하려 했습니다. 이는 부분적으로 제 가치관에 기반한 것이며, 업무 효율성이나 인지 능력이 영향을 받는지에 대한 연구에 의존하지 않습니다. 다른 사람들에게 무엇을 해야 한다고 말할 수는 없지만, 어떤 가치 위에 우리 공동체를 세울 것인지를 생각하고, 그것이 연구 결과와 함께 고려되도록 모든 이에게 도전 과제를 던지고 싶습니다.
🚀 한국어로 된 프런트엔드 아티클을 빠르게 받아보고 싶다면 Korean FE Article(https://kofearticle.substack.com/)을 구독해주세요!