BestInfo
· 12 min read

과학 문해력, 이제는 생존의 문제입니다

딥페이크 의사, 백신 음모론, 양자AI 투자 사기까지. 과학 문해력 부족이 만들어낸 실제 피해와 AI 시대에 정보를 스스로 거르는 실전 방법을 알려드립니다.

본문 사이 배너는 글과 무관한 쿠팡 파트너스 제휴 광고이며, 이를 통해 일정 수수료를 지급받습니다.

어릴 때 "과학을 잘 모르면 어때, 나는 문과야"라고 웃어넘긴 적 있으신가요? 저도 그랬습니다. 원소 주기율표를 외우지 못해도 일상엔 아무 문제가 없었으니까요.

그런데 지금은 다릅니다. 유튜브에서 흰 가운을 입은 의사가 기적의 영양제를 권하고, SNS 피드에는 백신이 더 위험하다는 '논문 결과'가 떠다니며, 엘론 머스크가 나오는 영상이 양자컴퓨터 투자를 권유합니다. 그 의사는 딥페이크입니다. 그 논문은 존재하지 않습니다. 그 투자 플랫폼은 사기입니다.

AD

과학을 몰라도 되는 시대는 끝났습니다. 이제 과학 문해력은 교양이 아니라 일상에서 살아남는 능력입니다. 이 글은 그 이유를 구체적인 수치와 사례로 보여주고, 오늘부터 쓸 수 있는 실전 도구를 제안합니다.


교양에서 생존 능력으로

OECD는 과학 문해력을 이렇게 정의합니다. "과학·지속가능성·기술에 관한 토론에 책임감 있게 참여하고 의사결정을 이끄는 역량." 단순히 아는 것이 아닙니다. 현상을 과학적으로 설명하고, 증거를 설계·평가하며, 데이터를 비판적으로 해석하는 능력입니다.

쉽게 말하면 이런 차이입니다. 원소 주기율표를 외우는 것은 지식입니다. 건강기능식품 광고에서 "임상 연구로 검증된 성분"이라는 문구를 보고 '어느 저널에 실린 연구인가', '샘플 크기는 몇 명인가'를 떠올리는 것이 과학적 사고력입니다.

전통적으로 과학 문해력은 선택적 관심사처럼 취급되어 왔습니다. 관심 있는 사람이 더 공부하면 좋고, 없어도 크게 불편하지 않다는 전제였습니다. 그 전제가 무너진 계기는 AI입니다.

ChatGPT 출시 이후를 보면 숫자가 모든 것을 말해줍니다. Nishad(2025) 연구에 따르면 Meta 플랫폼 내 AI 생성 장문 콘텐츠 비율이 2023년 이전 5.3%에서 2024년 11월 41.2%로 급등했습니다. 지금 SNS 피드에서 읽는 글의 절반 가까이가 AI가 쓴 것일 수 있다는 의미입니다. 그 AI가 쓴 내용이 전부 정확하다면 문제없겠지만, 실제로는 그렇지 않습니다. 과학 논문 형식을 완벽하게 모방한 허위 콘텐츠, 실존하지 않는 통계 수치, 그럴싸하게 구성된 건강 정보가 분 단위로 생산되고 있습니다.

AD

정보 접근이 민주화된 것은 분명 좋은 일입니다. 하지만 그 민주화는 해로운 정보에 노출되는 속도도 함께 가속시켰습니다. 이제 과학 문해력은 '관심 있으면 갖추면 좋은 능력'이 아니라 일상 의사결정의 방어막입니다.


딥페이크 의사와 가짜 건강정보

"설마 내가 저런 걸 속겠어?" 많은 분이 이렇게 생각하실 겁니다. 그런데 실제 의사의 어머니도 자기 딸의 딥페이크 영상을 믿었습니다.

STAT News(2026) 보도에 따르면, 사기꾼들은 AI를 이용해 실제 의사의 얼굴과 목소리를 복제한 뒤 가짜 보충제 광고에 활용하고 있습니다. 영상 속 의사 본인조차 구분하기 어려울 정도입니다. 한 의사는 자신의 어머니가 딥페이크 영상 속 '딸'을 믿고 제품을 구매했다고 전했습니다. 이것이 기술의 현재 수준입니다.

규모는 어느 정도일까요. 한국 식약처가 2024년 온라인에서 적발한 불법 식품·의약품 광고는 96,700건 이상입니다. 2023년 59,000건 대비 64% 증가한 수치입니다. 그리고 2025년에는 9월까지만 이미 68,950건이 적발됐습니다(AP News). 이미 단속을 피해 지나간 광고는 이 숫자의 몇 배인지 알 수 없습니다.

Bitdefender Labs가 2024년 3~5월 3개월간 분석한 결과는 더 구체적입니다. 1,000개 이상의 딥페이크 영상이 유명인과 의료인을 사칭했고, 40종 이상의 가짜 건강기능식품 광고에 활용됐습니다. 일부 사기 페이지의 팔로워 수는 35만 명을 넘었습니다. 이 광고들은 국가·나이·성별 기반 알고리즘으로 AI 생성 여부를 구별하기 어려운 고령층을 정밀하게 타깃팅합니다. 사기 사이트는 해외 서버 기반이라 삭제해도 곧 재개설하기 때문에 개인 신고나 소송으로는 막기 어렵습니다.

AD

기존 허위 광고와 근본적으로 다릅니다. 예전 허위광고는 유명인의 이름을 도용하는 수준이었습니다. 지금은 목소리, 표정, 발화 맥락까지 완전히 복제합니다. 법적 대응이 따라오고는 있습니다. 한국 공정거래위원회는 AI 생성 인물이 등장하는 광고에 '가상 인물 포함' 문구를 명시하는 가이드라인을 준비 중이고, 허위 광고 피해액의 5배 이하 징벌적 배상 도입도 논의 중입니다. 하지만 제도가 현실을 따라잡기까지 시간이 걸립니다. 그 공백을 메우는 것은 결국 개인의 판단력입니다.

가짜 정보가 치료를 미루게 한다

딥페이크 광고의 피해를 '돈 날린 것'으로만 생각하면 안 됩니다. 더 심각한 피해가 뒤따릅니다.

영상 속 '의사'가 기적의 치료제를 권하면, 그 영상을 믿는 사람은 정식 의료기관 방문을 미룹니다. 그 사이 병은 진행합니다. 조기에 잡을 수 있었던 암이 병기가 올라간 뒤에야 발견됩니다. 국내외에서 허위 암 치료법 정보를 믿고 표준 치료를 거부하다 사망에 이르는 사례가 반복 보고되는 이유가 여기 있습니다.

2차 피해도 있습니다. 딥페이크 의사 사기가 확산될수록, 실제 의사가 제공하는 정보마저 의심받습니다. "저것도 딥페이크 아닌가요?" 이 질문이 늘어날수록 의료 기관 전반의 신뢰도가 하락하고, 정상적인 의료 정보 소통 경로가 손상됩니다. 개인 피해가 사회 시스템 전체의 문제로 번지는 구조입니다.


음모론이 쌓아올린 사회적 청구서

백신 음모론이 단순한 개인의 선택 문제로 보일 수 있습니다. 그런데 그 '선택'이 쌓이면 사회 전체가 청구서를 받습니다.

AD

CDC 데이터를 보면 추세가 선명합니다. 미국 유치원생 MMR(홍역·볼거리·풍진) 접종률은 2019~2020년 95.2%에서 2023~2024년 92.7%로 떨어졌습니다. 비의료적 예외 비율은 3.3%로 사상 최고치를 기록했고, 14개 주는 집단면역 임계값 95%를 수학적으로 달성할 수 없는 상태입니다. 이미 면제 학생이 너무 많기 때문입니다.

결과는 홍역 재유행으로 나타났습니다.

미국 홍역 환자 수 및 집단발병 건수 추이 (2023~2025)
미국 홍역 환자 수 및 집단발병 건수 추이 (2023~2025)

2023년 59건에서 시작한 숫자가 2024년 285건, 2025년 2,287건으로 올랐습니다. 3년 만에 39배 폭증입니다. 2025년 확진자의 93%가 미접종자였고, 48건의 집단발병이 있었습니다.

미국 유치원생 MMR 접종률 및 예외 신청 비율 변화
미국 유치원생 MMR 접종률 및 예외 신청 비율 변화

경제적 비용은 어떨까요. Johns Hopkins 연구에 따르면 홍역 집단발병 1건당 평균 공중보건 대응 비용은 약 766,013달러입니다. Yale 공중보건대 팀이 CIDRAP에 발표한 분석에서 2025년 한 해 경제적 손실을 2억 4,420만 달러로 추산했습니다. 예방접종률 하락 추세가 계속되면 향후 5년 누적 비용은 78억 달러에 달할 것으로 예상됩니다.

기후 부정론은 더 큰 규모의 청구서를 예고합니다. DICE-2023 모델(PNAS)에 따르면 현재 정책을 유지할 경우 2100년 세계 GDP 손실이 4.4%에 달합니다. 파리협약을 최적으로 이행하면 2.3%로 축소됩니다. 두 경로의 차이는 현재 가치로 약 1경 5,000조 원($120조)입니다. 기후 대응을 수년만 늦춰도 수십만 명의 추가 조기 사망이 발생한다는 연구도 있습니다.

AD

여기서 멈추지 않습니다. 과학 부정론이 백신·기후 정책에 개입하면, 과학적 합의가 정치적 의견과 동급으로 취급됩니다. "전문가들도 의견이 갈린다"는 프레임이 자리잡으면 증거 기반 정책 결정 자체가 불가능해집니다. 이것이 탈진실 정치의 구조입니다. 음모론이 단순한 믿음의 문제가 아니라 민주주의의 작동 방식 자체를 훼손하는 이유입니다.


AI가 바꾼 가짜 정보 생태계

지금까지 피해 사례를 살펴봤습니다. 이제 질문이 생깁니다. 왜 이렇게 됐을까요?

구조적 원인은 세 가지입니다.

첫째, 생성형 AI의 대량생산 능력입니다. LLM은 과학 논문 형식과 통계 수치를 그럴싸하게 모방한 허위 콘텐츠를 분 단위로 만들어냅니다. NewsGuard 집계 기준으로 AI 기반 가짜뉴스 사이트는 2023년 한 해 동안 10배 증가했습니다. 이제 허위 정보 생산의 병목은 '인력'이 아닙니다.

둘째, SNS 알고리즘의 확증 편향 증폭입니다. 플랫폼은 정확도와 무관하게 상호작용이 높은 콘텐츠를 우선 노출합니다. 사용자의 기존 믿음과 일치하는 가짜 정보가 수분 내에 수만 명에게 도달하는 구조입니다(Aïmeur et al. 2024). 알고리즘이 진실을 판단하지 않기 때문입니다.

AD

셋째, 'AI 레이블' 역효과입니다. 직관에 반하는 연구 결과가 있습니다. 아이오와주립대 연구팀이 Journal of Management Information Systems에 발표한 논문에 따르면, AI 추천 표시가 붙으면 오히려 공유 의향이 높아집니다. 사람들은 빠른 직관적 사고(System 1)로 알고리즘 추천을 신뢰 신호로 인식합니다. "AI가 골라줬으니 믿어도 되겠지"라는 착각이 작동하는 것입니다.

거기에 정보 전달 과정의 '전화기 게임' 오류가 더해집니다. 원 연구 → 언론 보도 → SNS 공유 단계마다 내용이 변합니다. '상관관계'가 '인과관계'로 바뀌고, '일부 집단의 소규모 결과'가 '모든 사람에게 해당하는 확정 사실'로 둔갑합니다. 원문을 읽은 사람은 거의 없지만 공유 횟수는 수십만을 넘어갑니다.

딥페이크 영상은 이제 배우 본인조차 구분하기 어려운 수준입니다. 워터마킹이나 딥페이크 표시는 쉽게 제거할 수 있습니다. 기술 규제만으로는 막을 수 없습니다. 결국 이용자 자신의 판별 능력이 유일한 방어선입니다.


양자역학 팔아 투자금 뺏기

피해는 건강에만 그치지 않습니다. 지갑도 직격탄을 맞습니다.

미국 FTC 집계에 따르면 2024년 투자 사기 피해액은 57억 달러로 전년 대비 24% 증가했습니다. 피해자의 79%가 금전 손실을 확인했고, 1인당 평균 피해액은 9,000달러 이상입니다(FTC Consumer Sentinel 2025). 신고하지 않는 피해자까지 포함하면 실제 규모는 이보다 훨씬 클 것으로 추정됩니다.

AD

'Quantum AI'라는 이름의 플랫폼이 있습니다. 엘론 머스크의 딥페이크 영상으로 투자자를 유인하고, 양자컴퓨팅을 활용한 AI 자동 매매 수익을 약속합니다. 홍콩 증권선물위원회, 영국 소비자단체 Which?, 미국 FTC 모두 이것을 공식 사기로 경고했습니다. '양자컴퓨팅'이라는 단어가 검증 회피의 도구로 쓰인 전형적인 사례입니다.

유사과학 용어 오남용 패턴은 정해져 있습니다. '양자', 'RNA 간섭', '나노', '줄기세포' 같은 첨단 용어를 제품명이나 마케팅에 삽입합니다. '전문가만 아는 비밀'이라는 착각을 만들고, 과학 문해력이 낮을수록 검증을 생략하고 신뢰로 직행합니다.

건강기능식품 분야도 마찬가지입니다. FTC는 2024년 CBD·케토 제품 관련 무단 반복 청구 사기를 적발해 소비자 121만 5,337명에게 2,760만 달러를 환급 집행했습니다. 이것도 신고된 건수 기준이므로 실제 피해는 더 클 것입니다.

'과학처럼 들리는' 언어를 구별하는 기준이 있습니다. 첫째, 측정 불가능한 모호한 효능 주장입니다("면역력을 높여줍니다", "독소를 배출합니다"). 둘째, 유통 채널이 병원·약국이 아닌 SNS·직접 판매입니다. 셋째, 임상시험 없이 '연구 결과'만 언급합니다. 넷째, 반박 자체를 막는 표현이 들어갑니다("체질에 따라 다름", "개인차가 있음"). 네 가지 중 하나라도 해당되면 검증 없이 신뢰하지 마세요.


과학 정보를 스스로 거르는 법

이제 실용적인 도구를 살펴볼 차례입니다. 복잡한 이론이 아닙니다. 내일 SNS를 볼 때부터 쓸 수 있는 방법들입니다.

AD

SIFT 4단계 — 빠른 일상 팩트체크

Mike Caulfield가 팩트체커 훈련용으로 개발한 방법론입니다. 네 단계입니다.

Stop — 공유하기 전에 잠깐 멈추세요. 지금 이것을 정말 신뢰하는지 자문합니다.

Investigate the source — 내용을 읽기 전에 출처를 먼저 봅니다. 저자가 누구인지, 기관이 어딘지, 어떤 목적의 사이트인지 확인합니다.

Find better coverage — 같은 내용을 다른 신뢰할 수 있는 매체에서도 보도하는지 교차 확인합니다.

AD

Trace to original context — 인용된 연구나 통계가 있다면 원본 출처를 직접 찾아갑니다.

CRAAP 5기준 — 깊이 있는 학술 자료 평가

캘리포니아주립대 Chico 도서관이 개발한 체계적 평가 기준입니다. Currency(최신성), Relevance(관련성), Authority(출처 권위), Accuracy(정확성·근거), Purpose(공개 목적)입니다. 특히 Purpose를 주목하세요. 정보의 목적이 '판매' 또는 '설득'이라면 추가 검증이 필수입니다.

두 방법을 비교하면 다음과 같습니다.

구분 SIFT (팩트체커 방식) CRAAP (학술 평가 방식)
개발 배경 Mike Caulfield, 디지털 팩트체커 훈련용 캘리포니아주립대 Chico 도서관, 학술 리서치용
1단계 / C Stop — 공유 전 잠시 멈추고 출처 신뢰 여부 점검 Currency — 정보가 최신인가? 업데이트 날짜 확인
2단계 / R Investigate the source — 저자·기관 배경 먼저 확인 Relevance — 내 주제와 관련 있는가? 대상 독자 확인
3단계 / A Find better coverage — 다른 신뢰 매체 교차 확인 Authority — 저자·기관의 전문성과 신뢰성 확인
4단계 / A Trace to original context — 원래 맥락까지 역추적 Accuracy — 근거·출처·데이터가 정확하고 검증 가능한가?
5단계 / P (없음) Purpose — 정보 공개 목적이 '판매·설득'이면 추가 검증
핵심 강점 빠르고 실용적, SNS·뉴스 일상 팩트체크에 최적 체계적·심층적, 학술 논문·전문 자료 평가에 최적
추천 상황 소셜미디어 게시물, 뉴스 기사 빠른 판단 논문·보고서·전문 자료 깊이 있는 분석

논문을 직접 확인할 때 실전 순서

AD

"논문에서 증명됐다"는 표현을 자주 봅니다. 그런데 초록만 읽고 공유하는 것이 가짜 정보 확산의 주요 경로 중 하나입니다. 논문을 직접 읽을 때는 이 순서를 따르세요.

순서 확인 항목 핵심 질문 주의할 함정
제목 · 초록 연구 목적과 핵심 결론이 무엇인가? 초록만 읽고 공유 → 가짜 정보 확산의 주요 경로
방법론 샘플 크기는 충분한가? 대조군·실험 통제가 있는가? 소규모 샘플, 대조군 없음 → 결론 신뢰도 낮음
한계점 저자가 스스로 인정한 약점은 무엇인가? 한계점 없는 논문 = 오히려 의심 신호
결론 결론이 데이터에서 논리적으로 도출되는가? 상관관계 ≠ 인과관계: 'A 하면 B 늘었다 ≠ A가 B를 일으킨다'
단일 연구 vs 메타분석 동일 주제 수십~수백 건을 종합한 체계적 문헌고찰인가? 단일 연구 결과 = 가설이지 결론이 아님
이해충돌 연구 자금 출처(제약사·기업 스폰서)와 결론 방향이 일치하는가? 스폰서와 결론 방향 일치 → '한 겹 더 들여다보기' 시작점

마지막으로, 이해충돌 확인이 연구를 폐기하는 이유는 아닙니다. '한 겹 더 들여다보는' 시작점입니다. 제약사 자금을 받은 연구라도 방법론이 엄격하다면 신뢰할 수 있습니다. 맥락을 보는 눈이 중요합니다.


오늘부터 할 수 있는 5가지

이론은 충분합니다. 이제 오늘 당장 시작할 수 있는 것들을 정리합니다.

첫 번째, 공유 전 5분 멈추기입니다.

흥미로운 기사나 건강 정보를 보면 즉시 공유하고 싶어집니다. 그 충동을 잠깐 멈추세요. 출처 탭을 열고, 기관명과 저자를 검색하고, 다른 매체에서 같은 내용을 보도하는지 확인합니다. 출처가 불분명하면 공유를 보류합니다. '공유 = 신뢰'라는 무의식을 끊는 것이 첫 번째 습관입니다.

AD

두 번째, 신뢰 소스를 즐겨찾기에 저장합니다.

한국에서는 사이언스타임즈(한국과학창의재단 운영)와 팩트체크넷(시민·전문가 1,686명 참여)을 기억해두세요. 의약품·식품 관련 정보는 식약처 공식 발표를 1순위로 확인합니다. 연구 데이터가 필요하다면 KISTI DataON에서 국가연구데이터 원문을 무료로 검색할 수 있습니다. 해외 건강 정보는 PubMed, WHO, CDC 원문을 우선합니다.

아래 표에 주요 소스를 정리했습니다. 북마크해두면 그것만으로도 판별력이 크게 달라집니다.

구분 플랫폼 운영 주체 특징 및 활용법
국내 과학정보 사이언스타임즈 한국과학창의재단(KOSAC) 전문 기자·과학자 편집, 과학기술 뉴스 검증 콘텐츠
국내 팩트체크 팩트체크넷 시민·전문가 크라우드소싱 1,686명 활동 참여자, 시민 과학형 허위정보 검증
국내 연구데이터 KISTI DataON 한국과학기술정보연구원 국가연구데이터 원문 무료 검색·다운로드 (4,745,820건+)
국내 보건정보 식약처 공식 발표 식품의약품안전처 의약품·식품·화장품 안전 정보 공식 검증
해외 팩트체크 Snopes / PolitiFact 독립 비영리 팩트체크 기관 (미국) 도시전설·정치·과학 주장 광범위 검증
해외 팩트체크 FullFact 독립 비영리 팩트체크 기관 (영국) AI 기술 활용 자동화 팩트체킹, DB화
통합 검색 Google Fact Check Tools Google 복수 팩트체크 매체 통합 검색, 특정 주장 빠른 확인
신뢰 등급 NewsGuard 독립 저널리즘 평가 기관 언론 사이트 신뢰도 신호등 라벨 제공
확산 추적 Hoaxy 인디애나대학교 OSoMe 연구팀 SNS 가짜 정보 확산 경로 시각화
건강·의학 PubMed / WHO / CDC 미국 국립의학도서관 / WHO / CDC 동료 심사 의학 논문 원문 및 공식 보건 지침

세 번째, 팩트체크 도구를 즉시 활용합니다.

의심스러운 정보를 발견했을 때 Snopes나 Google Fact Check Tools에 검색하는 것은 30초면 됩니다. NewsGuard 브라우저 확장 프로그램을 설치하면 언론 사이트 신뢰도를 신호등 방식으로 바로 확인할 수 있습니다.

AD

네 번째, 과학 콘텐츠를 엔터테인먼트처럼 소비합니다.

어렵게 공부한다고 생각하지 않아도 됩니다. 국내에서는 YTN사이언스와 사이언스타임즈 유튜브 채널이 접근하기 좋습니다. 해외에서는 Veritasium, Kurzgesagt, SciShow가 복잡한 과학 개념을 맥락 속에서 흥미롭게 전달합니다. 반복 노출로 배경지식이 쌓이면 가짜 정보를 보는 순간 "뭔가 이상하다"는 감각이 자연스럽게 생깁니다.

다섯 번째, 가족·지인 대화법을 바꿉니다.

부모님이 카카오톡 단체방에서 받은 건강 정보를 믿을 때, "그거 가짜야"라고 직접 반박하면 관계가 상합니다. 대신 이렇게 시작해보세요. "어디서 봤어? 같이 확인해볼까요?" 출처를 함께 찾는 과정 자체가 판단력을 기르는 교육입니다. 틀렸다는 것을 증명하려 하지 말고, 같이 궁금해하는 태도를 유지하는 것이 중요합니다.

실천 방법을 한눈에 정리하면 이렇습니다.

AD
습관 구체적 실천법 핵심 포인트
① 공유 전 5분 멈추기 뉴스·SNS 공유 전 출처 탭 열기 → 기관명·저자 검색 → 다른 매체 동일 내용 확인 '공유 = 신뢰'라는 무의식 끊기, 출처 불명이면 공유 보류
② 신뢰 소스 즐겨찾기 저장 사이언스타임즈·팩트체크넷·식약처·PubMed 북마크 등록 건강 정보는 반드시 WHO·CDC·PubMed 원문 우선 확인
③ 팩트체크 도구 활용 의심 정보 발견 시 Snopes·Google Fact Check·NewsGuard 즉시 검색 30초 교차 확인으로 가짜 정보 상당 부분 걸러낼 수 있음
④ 과학 콘텐츠 습관화 국내: YTN사이언스·사이언스타임즈 유튜브 / 해외: Veritasium·Kurzgesagt 구독 어려운 개념 반복 노출 → 배경지식 축적 → 가짜 정보 식별력 자연 향상
⑤ 가족·지인 대화법 '그거 가짜야' 대신 '어디서 봤어? 같이 확인해볼까?'로 시작 공동 탐색 과정 자체가 판단력 교육; 틀렸음을 증명하려 하지 말 것

과학 문해력은 혼자만의 방어막이 아닙니다. 내가 공유 전에 한 번 더 확인하면 내 연락처에 있는 수십 명에게 가짜 정보가 퍼지는 것을 막습니다. 부모님과 함께 출처를 찾아보는 5분이 가족 전체의 판단력을 높입니다.

이 글을 읽으면서 "맞아, 나도 저런 거 본 적 있어"라고 고개를 끄덕인 순간이 있었다면, 다음에 비슷한 것을 볼 때 그 기억이 작동할 겁니다. 잠깐 멈추고, 출처를 한 번 더 확인하는 것. 그 작은 행동이 지금 시대에 가장 실용적인 자기 방어입니다.

RELATED POSTS