어떤 기술이든 전문가가 초보자보다 더 자주, 그리고 더 잘 사용할 것이라고 생각하는 것이 일반적입니다. 포토샵 장인은 아마추어보다 더 많은 기능을 활용하고, 숙련된 개발자는 신입보다 코딩 툴을 더 빈번하게 사용합니다. 하지만 우리 일상에 깊숙이 파고든 인공지능(AI)은 이 상식을 뒤엎는 흥미로운 현상을 보여주고 있습니다.
최근 발표된 한 연구에 따르면, AI에 대한 이해도가 낮을수록 오히려 AI를 더 자주 사용하는 경향이 나타난다고 합니다. 마치 마법 상자처럼 느껴지는 AI의 신비로움이 사용자들을 더 깊이 끌어당기고 있다는 것입니다. 이 현상은 단순한 호기심을 넘어 우리가 기술을 어떻게 인식하고 활용하는지에 대한 중요한 질문을 던집니다.
이번 포스트에서는 조지워싱턴대와 서던캘리포니아대 연구진이 밝혀낸 이 놀라운 연구 결과를 심층적으로 분석하고, 왜 이런 역설적인 상황이 발생하는지 심리적 요인 3가지를 통해 자세히 알아보겠습니다. 또한, AI 시대의 현명한 사용자가 되기 위해 우리에게 필요한 ‘AI 리터러시’란 무엇인지 함께 고민해 보고자 합니다.
충격적인 연구 결과: AI, 알수록 멀어진다?
월스트리트저널(WSJ)이 소개한 이 연구는 AI 사용 패턴에 대한 기존의 통념을 완전히 뒤집었습니다. 연구팀은 총 7개의 개별 연구에 걸쳐 17개의 테스트와 25개의 설문조사를 진행하며 사람들의 AI 사용 행태를 다각도로 분석했습니다. 그 결과는 명확했습니다. “AI를 잘 모르는 사람일수록 AI를 더 자주, 그리고 더 많이 의존한다”는 것입니다.
이러한 경향을 확인하기 위해 연구진은 구체적인 실험을 설계했습니다. 예를 들어, 234명의 학부생을 대상으로 ‘베니스에서 사랑에 빠지는 시’나 ‘프란츠 페르디난트 대공 암살이 1차 세계대전에 미친 영향’과 같은 다양한 주제의 에세이 작성을 지시했습니다. 과제 시작 전 학생들의 AI 이해도를 측정한 결과, AI에 대한 지식이 부족한 학생일수록 과제를 수행하는 데 생성형 AI를 훨씬 더 많이 활용하는 모습을 보였습니다.
이는 기존 기술의 확산 패턴과는 정반대의 양상입니다. 보통 새로운 기술은 원리를 잘 이해하는 ‘얼리 어답터’나 전문가 그룹이 사용을 주도하고 점차 대중에게 퍼져나갑니다. 하지만 AI는 그 기술적 깊이를 모르는 사용자들에게 오히려 더 강력한 매력으로 다가가고 있는 셈입니다. 그렇다면 도대체 왜 이런 현상이 발생하는 것일까요?
왜 우리는 ‘마법 같은’ AI에 더 끌리는가: 3가지 심리적 요인
연구진은 이 현상의 핵심 원인으로 ‘경외감(Awe)’을 꼽았습니다. AI의 내부 작동 방식을 이해하지 못할 때, 그 결과물이 마치 마법처럼 느껴지며 더 큰 경외심을 불러일으킨다는 것입니다. 이 경외감을 바탕으로 AI 사용을 촉진하는 세 가지 주요 심리적 요인을 더 깊이 파헤쳐 보겠습니다.
1. 경외감의 함정: 기술을 신격화하다
아서 C. 클라크의 유명한 말처럼 “충분히 발달한 기술은 마법과 구별할 수 없습니다.” 생성형 AI는 이 말을 현실로 만들었습니다. 복잡한 질문에 막힘없이 대답하고, 아름다운 시를 짓고, 전문가 수준의 코드를 작성하는 AI의 능력은 그 원리를 모르는 이들에게는 경이로움 그 자체입니다.
특히 시 창작이나 요리 레시피 개발처럼 전통적으로 인간의 고유한 창의성 영역으로 여겨졌던 작업을 AI가 수행할 때 이러한 경외감은 극대화됩니다. 사용자는 AI가 단순히 데이터를 조합하는 것이 아니라, 마치 인간처럼 ‘생각’하고 ‘창조’한다고 느끼게 됩니다. 이러한 ‘기술의 신격화’는 AI에 대한 맹목적인 신뢰로 이어지며, 비판적인 사고 없이 그 결과물을 수용하게 만듭니다.
반면, AI의 작동 원리를 조금이라도 아는 사람은 다릅니다. 이들은 AI가 방대한 텍스트 데이터를 기반으로 확률적으로 가장 그럴듯한 단어를 예측하고 배열하는 ‘확률 모델’이라는 사실을 이해합니다. 이들에게 AI는 경외의 대상이 아닌, 강력한 성능을 가진 ‘도구’로 인식됩니다. 도구를 사용할 때는 그 기능과 한계를 명확히 알고 사용하기에, 무분별한 의존도는 자연스럽게 낮아집니다.
2. 인지적 편향: ‘자동화 편향’과 ‘과신’
우리의 뇌는 효율성을 추구하도록 진화했습니다. 이 때문에 자동화된 시스템이 제공하는 정보를 인간이 직접 처리한 정보보다 더 신뢰하는 경향이 있는데, 이를 ‘자동화 편향(Automation Bias)’이라고 합니다.
AI에 대한 이해도가 낮을수록 이 편향은 더욱 강하게 작용합니다. AI가 생성한 그럴듯한 문장과 논리적인 구조를 보면, 사용자는 그 내용의 사실 여부를 검증하려는 노력을 게을리하게 됩니다. ‘이렇게 똑똑한 AI가 틀렸을 리 없어’라는 무의식적인 믿음이 작동하는 것입니다. 이는 AI가 때때로 사실과 다른 정보를 만들어내는 ‘환각(Hallucination)’ 현상의 위험성을 간과하게 만드는 주된 원인이 됩니다.
이러한 자동화 편향은 AI 사용에 대한 ‘과신’으로 이어집니다. 몇 번의 긍정적인 경험만으로 사용자는 AI의 능력을 실제보다 높게 평가하고, 자신의 판단력보다 AI의 제안을 우선시하게 됩니다. 결국 AI 없이는 과제나 업무를 시작하기 어려운 ‘의존 상태’에 빠질 위험이 커지는 것입니다.
3. 지식의 역설: 아는 것이 병이다?
AI 전문가나 숙련된 사용자들은 AI의 눈부신 가능성만큼이나 그늘진 한계도 명확히 인지하고 있습니다. 그들은 AI 모델을 학습시킨 데이터에 특정 편견이 포함될 수 있다는 ‘데이터 편향성’ 문제, 특정 사회적 맥락이나 미묘한 감정을 이해하지 못하는 AI의 한계, 그리고 앞서 언급한 ‘환각’ 현상의 존재를 잘 알고 있습니다.
이러한 지식은 AI를 사용하는 데 있어 신중함과 비판적인 태도를 갖게 합니다. 그들은 AI의 답변을 최종 결과물로 받아들이기보다, 아이디어를 얻거나 초안을 작성하는 보조 도구로 활용합니다. 생성된 모든 결과물은 반드시 자신의 지식과 추가적인 검증을 통해 수정하고 다듬는 과정을 거칩니다. 즉, 아는 것이 많기에 오히려 AI를 맹신하지 않고 조심스럽게 다루는 것입니다.
결과적으로 AI에 대한 지식이 부족할수록 사용 빈도는 높아지지만, 그 활용의 질은 떨어질 수 있습니다. 반면, 지식이 풍부할수록 사용 빈도는 조절될 수 있지만, AI를 훨씬 더 정교하고 효과적인 방식으로 활용하게 됩니다.
‘AI 리터러시’, 왜 지금 우리에게 필수적인가?
이러한 연구 결과는 우리에게 중요한 메시지를 전달합니다. AI 시대에 필요한 역량은 단순히 AI를 잘 ‘사용하는’ 능력을 넘어, AI를 잘 ‘이해하는’ 능력, 즉 ‘AI 리터러시(AI Literacy)’가 필수적이라는 점입니다.
연구진은 특히 ‘조율된 AI 리터러시(Tuned AI Literacy)’의 중요성을 강조했습니다. 이는 AI에 대한 막연한 환상이나 공포에서 벗어나, AI에 대한 건강한 흥미를 유지하면서도 그 기본 원리와 명백한 한계를 균형 있게 인지하는 상태를 의미합니다.
맹목적인 믿음에서 벗어나기
AI 리터러시가 부족하면 여러 가지 부작용이 발생할 수 있습니다.
- 정보 왜곡: AI가 생성한 가짜뉴스나 왜곡된 정보를 무비판적으로 수용하고 확산시킬 위험이 있습니다.
- 사고력 저하: 모든 질문과 문제 해결을 AI에 의존하게 되면 스스로 생각하고 분석하는 능력이 퇴화할 수 있습니다.
- 잘못된 의사결정: 비즈니스나 중요한 개인적 결정에 있어 AI의 편향되거나 잘못된 분석에 의존하여 큰 손실을 볼 수 있습니다.
이 연구의 저자인 키아라 롱고니 교수는 “지식이 너무 부족하면 사람들이 도구를 오용할 수 있다”고 경고했습니다. AI라는 강력한 도끼를 쥐었지만, 날이 어디를 향하는지 모른 채 마구 휘두르는 것과 같은 위험한 상황이 벌어질 수 있습니다.
AI를 진정한 파트너로 활용하는 법
그렇다면 우리는 어떻게 ‘조율된 AI 리터러시’를 갖출 수 있을까요? 프로그래머 수준의 전문 지식이 필요한 것은 아닙니다. 현명한 사용자가 되기 위한 몇 가지 습관을 기르는 것만으로도 충분합니다.
- 원리 맛보기: AI가 어떻게 텍스트를 학습하고 문장을 만드는지에 대한 쉬운 설명 영상이나 글을 찾아보세요. ‘확률적 앵무새’와 같은 개념을 이해하는 것만으로도 AI를 보는 시각이 달라집니다.
- 비판적 질문 던지기: AI의 답변에 대해 “이 정보의 출처는 무엇일까?”, “다른 관점은 없을까?”, “혹시 편향된 내용은 아닐까?”와 같은 질문을 스스로에게 던지는 습관을 들이세요.
- 사실 확인은 필수: 중요한 통계, 역사적 사실, 인용문 등은 반드시 신뢰할 수 있는 다른 출처를 통해 교차 확인하세요.
- AI를 조수로 삼기: AI를 모든 것을 해결해 주는 해결사로 보지 말고, 아이디어를 확장하거나, 자료를 요약하거나, 초안을 잡아주는 유능한 ‘조수’로 여기세요. 최종 판단과 책임은 항상 사용자 자신에게 있습니다.
AI 시대, 현명한 사용자가 되는 길
AI에 대해 잘 모를수록 더 많이 사용하게 된다는 연구 결과는 기술과 인간의 관계에 대한 깊은 통찰을 제공합니다. 이는 AI가 단순한 도구를 넘어 우리의 심리와 행동에까지 영향을 미치는 강력한 존재임을 시사합니다.
이제 우리는 AI의 ‘마법’에 감탄만 하는 수동적인 관객에서 벗어나야 합니다. 그 마법이 어떤 원리로 작동하는지, 그리고 어떤 한계를 가지고 있는지 이해하려는 노력을 통해 우리는 비로소 AI의 진정한 주인이 될 수 있습니다. ‘조율된 AI 리터러시’를 갖추는 것은 더 이상 선택이 아닌 필수입니다.
AI에 대한 맹목적인 의존이 아닌, 비판적인 이해를 바탕으로 한 건강한 파트너십을 구축할 때, 우리는 인공지능이라는 혁신적인 도구의 잠재력을 최대한으로 이끌어내며 더 나은 미래를 만들어갈 수 있을 것입니다.
더 보기
OpenAI의 혁신을 이끌 1인: Statsig 인수와 함께 새로운 애플리케이션 CTO가 가져올 3가지 변화
미국 법원이 내린 3가지 결정: AI가 바꾼 알파벳(Google) 검색 시장의 미래