top of page

AI 리터러시: 지식의 다양성과 민주성을 지키기 위한 시민적 역량

  • 작성자 사진: Ki-jun Son
    Ki-jun Son
  • 4월 1일
  • 3분 분량

거대언어모델(LLM)의 보편화는 우리가 지식을 구성하고 표현하는 방식에 근본적인 변화를 일으키고 있습니다. 이러한 변화는 단순히 기술의 발전이라기보다, 사회적 지식 체계의 구성 방식 자체에 영향을 미치는 현상으로 이해될 필요가 있습니다. 특히 주목해야 할 점은, LLM이 재현하는 ‘지식’이라는 것이 어떤 경로로 구성되고, 어떤 경향성을 띠는가에 대한 성찰입니다. 이는 AI 리터러시의 필요성을 단순한 기술 활용 능력을 넘는 시민적 판단과 해석의 영역으로 확장시켜 줍니다.


1. 단일 지식 체계에 대한 이론적 비판 전통과 그 유산

사회과학과 철학의 주요한 발전 흐름을 살펴보면, 지난 100여 년은 근대적 이성의 절대성과 실증적 방법론에 대한 비판의 연속이었습니다. 포스트모더니즘, 사회구성주의, 해체주의 등은 단일한 진실이 존재한다는 믿음 자체를 문제 삼았으며, 그 결과로 우리는 하나의 현상에 대해 복수의 해석과 진실이 존재할 수 있음을 인식할 수 있게 되었습니다.

이러한 흐름은 지식 형성이 단순히 ‘사실의 수집’이 아니라, 사회적 맥락 속에서의 해석과 권력의 결과임을 보여줍니다. 학문적 텍스트뿐 아니라 언론, 정치, 교육 등 모든 영역에서 진실은 합의되고 교섭되는 결과물이라는 점에서, 오늘날 AI가 제시하는 ‘객관적 사실’ 역시 시간성과 맥락에 종속된 구성물임을 잊어서는 안 됩니다.


2. LLM의 작동 방식과 지식의 경향화

현재의 LLM은 방대한 텍스트 코퍼스를 기반으로 학습하며, 그 과정에서 확률적으로 자주 등장하는 어휘 및 표현을 우선시하는 경향을 보입니다. 문제는 이 과정이 의도하지 않더라도 소수의 목소리나 주변화된 표현, 문화적 특이성이 점차 배제되는 결과를 초래한다는 점입니다. 즉, LLM은 표면적으로 다양성을 인정하는 것처럼 보이지만, 결과적으로는 표준화된 언어와 서술 방식만을 강화할 가능성이 큽니다.

예를 들어, 같은 질문을 여러 LLM에 던졌을 때 답변의 어휘와 구조가 크게 다르지 않다는 점은, 이 모델들이 공유하는 ‘지식의 규범’이 이미 하나의 해석틀로 수렴되어 있음을 암시합니다. 이것이 문제적인 이유는, 우리가 사용하는 언어는 단순한 선택이 아니라 삶의 경험, 정서, 사회적 위치, 신념 체계의 산물이기 때문입니다. 이처럼 복합적인 맥락에서 탄생하는 표현의 다양성이 은폐되면, LLM은 결과적으로 ‘합리적 서술’이라는 이름 아래 해석의 단일화를 강제할 수 있습니다.


3. 교육 현장에서의 수용 방식과 시민성의 위기

이러한 경향이 가장 문제적으로 드러나는 곳은 교육 현장입니다. 학생들이 LLM의 응답을 검토 가능한 지식이 아닌 ‘정답’으로 받아들이게 될 때, 지식 형성의 갈등적·해석적·정치적 특성은 사라지고, 수용과 비수용의 이분법만이 남게 됩니다. 이 과정에서 비판적 사고, 해석의 틈, 질문의 가능성은 점점 축소되고, 결과적으로 자율적 판단을 수행할 수 있는 시민으로서의 역량이 약화됩니다.

이를 극복하기 위해서는 AI 리터러시가 단순한 기술 숙련도를 넘는 시민 교육의 영역으로 확장되어야 합니다.


AI 리터러시를 위한 실천적 접근 방안


1. 지식 형성 과정의 구조를 인식하는 훈련

LLM의 답변이 어떤 데이터에 기반해 구성되는지를 함께 학습하고, 배제된 데이터나 맥락이 무엇인지 질문할 수 있어야 합니다.

예: 동일한 질문에 대해 GPT, Claude, Gemini의 응답을 비교해보고, 그 차이점이 어디에서 비롯되는지를 분석하는 수업 설계.


2. 언어 선택과 표현의 차이를 감각화하는 활동

같은 주제에 대해 각자 다른 단어로 작성해보는 훈련을 통해, 언어가 단순한 정보 전달이 아닌 자기 위치와 세계관의 반영임을 경험하게 해야 합니다.

예: “기후변화”라는 주제를 ‘공포’, ‘희망’, ‘피로’라는 정서 기반으로 표현해보기.


3. AI와의 대화에서 비판적 거리두기 연습

AI의 응답을 그대로 쓰는 것이 아니라, ‘왜 이런 식으로 표현했는가’를 재질문하는 문화를 만들어야 합니다.

예: 뉴스 초안을 AI로 작성한 후, 학생이 직접 논조, 은유, 감정의 톤 등을 수정해보는 작업.


4. 다원적 토론 구조 중심의 수업 설계

지식은 단일 정답으로 향하는 것이 아니라, 다양한 해석과 협상을 통해 구성된다는 점을 체화할 수 있도록 토론 중심 수업을 강화해야 합니다.

예: LLM이 제안한 입장에 대해 반대 논거를 구성하고, 그룹별로 AI의 논리와 인간의 해석을 충돌시키는 토론을 설계.



LLM의 발전은 분명 정보 접근의 민주화와 학습의 자동화에 있어 큰 전환점을 만들고 있습니다. 그러나 그 이면에서 지식의 생산과 해석이 어떻게 정치적으로 구성되는가에 대한 질문이 사라질 때, 우리는 다시 단일한 진실의 체제로 회귀할 위험을 마주하고 있습니다.

AI 리터러시는 그 자체로 지식을 다루는 방식에 대한 윤리적 감수성, 표현에 대한 자각, 해석에 대한 열린 태도를 요청합니다. 이는 단순한 기능적 능력이 아니라, 지식의 형성과 소비, 해석의 과정에 책임을 지는 시민적 역량으로 이해되어야 할 것입니다.

 
 
 

관련 게시물

전체 보기
팩트체크의 역설: ‘사실’은 고정된 진실인가

현재 저널리즘에서 이루어지는 팩트체크(fact-check)는 겉보기에는 객관성과 중립성을 추구하는 정당한 검증 작업처럼 보입니다. 그러나 조금 더 들여다보면, 이 작업이 과연 현실적인 기준 위에서 이루어지고 있는가에 대해 의문을 품게 됩니다....

 
 
 

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page