The AI Panic Cycle: Fear, False Choices, and the Erosion of Critical Thinking
- Saemi Nadine Jung
- 5 days ago
- 10 min read
The AI Panic Cycle: Fear, False Choices, and the Erosion of Critical Thinking
Every day brings more content warning that AI will replace most jobs, make education obsolete, and force society into Universal Basic Income just to cope. The repetition is so constant that it starts to feel inevitable.
It isn’t.
Much of today’s AI discourse is driven less by careful analysis and more by fear-based storytelling. The message is simple: disruption is unavoidable, resistance is futile, and society must adapt on terms already defined for us. This framing shuts down democratic debate before it even begins.

[Epistemically] "AI" is a vague term (Suchman, 2021).
One of the biggest problems in today’s discourse is how casually the term AI is used. It functions less as a technical description and more as a rhetorical device for political convenience—one that collapses a wide range of tools, systems, and human decisions into a single, mystical entity. This vagueness is not accidental; it is politically and economically convenient. Interestingly, the term "artificial intelligence" was first coined in the 1955 Dartmouth Summer Research Project proposal, largely as a way to secure research funding. This shows that from its inception, AI has been as much about persuasion and investment as about technical reality.
As journalist Karen Hao points out in the interview below, AI is often used the way one might use the word "transportation." Saying "we need more transportation to fight climate change" is meaningless without specifying which kind. Rockets? Cars? Bicycles? The same goes with when people say "we need more AI" to boost producitivity or economic growth. WIthou t precision, the claim explains nothing.
AI is not a singular thing. It is a socio-technical system: an assemblage of software, data, infrastructure, human labor, organizational choices, and institutional power. Treating it as a standalone entity obscures the relationships and responsibiltiies embedded within it. As Lucy Suchman has argued, this unconventional thingness gives AI a false sense of agency. By speaking as if “AI decides,” “AI replaces,” or “AI understands,” we erase the humans and organizations designing, deploying, and profiting from these systems. Agency is shifted away from epople and onto an abstraction.
Emily Bender and Alex Hanna make a related critique in The AI Con (2025). They argue that the term AI is deliberately stretched to cover everything from narrow pattern-matching systems to speculative claims about general intelligence. This vagueness benefits those selling AI solutions, because it blurs the line between what systems actually do and what they are imagined to do.
When AI is treated as a single, inevitable force, accountability disappears. Job losses become “caused by AI” rather than by corporate decisions. This is currently what the news reports say everyday. Bias becomes a technical glitch rather than a reflection of human choices and power structures. The language itself discourages scrutiny.
Precision matters. If we can’t clearly name what a system is, what it does, and who controls it, meaningful democratic debate becomes impossible. Calling everything “AI” doesn’t clarify the future—it obscures it. And that obscurity is not accidental; it is politically and economically convenient.
As somebody on a youtube video comment succinctly, AI = Advertised inaccurately.
[Sociologically] Fear-Mongering Is Not Foresight
There is a crucial difference between preparing for technological change and sensationalizing it. Much of today’s AI-related content does the latter, amplifying fear around human job replacement. News media and content creators bear significant responsibility here: click-driven headlines frame AI as an unstoppable force poised to hollow out entire professions overnight. The result is not informed public debate, but anxiety, quiet resignation, and a creeping intellectual laziness.
History tells us something different. Every major technological shift—from the printing press to the internet—has transformed work. It has eliminated some roles, created others, and fundamentally reshaped skills. None of those transitions meant the end of human relevance. AI is no different.
There is also a striking pattern in how some tech CEOs frame their proposed solutions. When tech billionaires like Sam Altman or Mark Zuckerberg speak about AI surpassing human intelligence, the answer often amounts to: just use our products!! For a monthly subscription fee of $20, they tell us that people can remain competitive, relevant, or “augmented” (but ONLY when they use their products). Fear is converted into consumer demand. Anxiety about obsolescence becomes buying power.
[Discursively] The Dangerous Myth That Education No Longer Matters
When influential figures like Sam Altman or Elon Musk suggest that college degrees are becoming irrelevant, the idea spreads quickly—especially when it confirms existing frustrations about education systems. But this claim is deeply misleading.
There is also a historical lesson worth remembering: whenever states have sought to control populations, one of the first strategies has been to limit access to education. An educated public asks questions, challenges authority, and resists simplistic narratives. An uneducated one is easier to manage.
Education is not merely a credential factory designed to feed job markets. At its best, it teaches people how to think: how to reason, evaluate evidence, argue clearly, and understand context. This is where you develop social skills. These are precisely what matters more in a world things are autonamated, not less.
Reducing education to “job training that AI can replace” misunderstands its role in a functioning society. In an AI-saturated world, abandoning education would not make society more adaptable—it would make it more vulnerable. The skills that education cultivates are precisely what allow citizens to interrogate technology rather than submit to it. That is not progress; it is regression.
[What to do. No. 1] We Should Fear Uncritical Thinking More Than AI
The real danger isn’t that machines will think like humans—it’s that humans will stop thinking critically altogether. When people accept simplistic narratives like “AI will replace everyone” or “degrees are useless now,” they outsource judgment to tech elites and algorithms.
Societies don’t collapse because tools become powerful. They collapse when citizens stop questioning those who control those tools.
[What to do. No. 2]Most importantly, whose Narratives Do You Choose to Follow?
We should pause and ask a simple but essential question: whose vision of the future are we accepting?
Is it the CEOs of powerful tech companies—people whose incentives are driven by profit, scale, and control? Or is it our own, shaped through democratic debate, education, and collective decision-making?
In a liberal democratic system, the future is not meant to be dictated by a small group of executives with outsized economic and cultural power. Yet AI discourse increasingly treats their predictions as unavoidable truths rather than contested claims. When tech leaders argue that degrees are obsolete or mass job displacement is inevitable, these are not neutral observations. They are narratives—often aligned with weakening labor, reducing costs, and accelerating adoption without accountability.
Democracy depends on citizens who can question authority, not defer to it. If we allow a handful of tech elites to define what is “inevitable,” we surrender one of the core principles of liberal society: that the future is something we choose together.
AI will shape our world, yes. But how it does so should be decided through public reasoning, not executive forecasts or viral soundbites. The moment we stop questioning those narratives is the moment we stop participating meaningfully in our own democracy.
[What to do. No. 3] Universal Basic Income Is Not a Solution
Often paired with AI job-loss narratives is the idea that Universal Basic Income is the inevitable—and benevolent—solution. This should concern us far more than it currently does.
UBI is frequently presented as humane and forward-thinking, but it also risks redefining large segments of the population as economically unnecessary. Work is not only about income; it is about dignity, life purpose, sharing values, contribution, self-realization, and agency. A system that pays people to exist while removing pathways to meaning and growth is not liberation—it is quiet disenfranchisement.
Rather than redesigning society around permanent displacement, we should think about what life means. what work means in this era. And invest in education, retraining, and economic structures that evolve alongside technology.
A Better Conversation Is Possible
AI is a powerful tool. If used and developed properly and ethically, it will help our human lives much more, without harming some. But the current flood of fear-driven content does not help us navigate this change—it only narrows our imagination and critical way of viewing the world.
We don’t need less education; we need better education (and this means educators and higher education must do their utmost best to improve the ways that they can provide "good education" and fix existing problems). We don’t need passive income to replace purpose; we need systems that preserve human agency.And we don’t need to surrender our thinking to tech prophets predicting inevitability.
The future is not something that happens to us. It is something we actively shape—if we’re willing to think critically enough to do so.
Helpful references to read and watch:
Book recommendation: The Empire of AI by Karen Hao (2025)
Watch her interview:
Vanessa Wingårdh, Developer exploring the dark side of Tech industry, talks about how tech leaders use the AI as an excuse to replace workers
Academic papers:
Suchman, L. (2023). The uncontroversial 'thingness' of AI. Big Data & Society, 10(2). https://doi.org/10.1177/20539517231206794 (Original work published 2023)
오늘날 우리는 매일 AI가 대부분의 일자리를 대체하고, 교육을 무용지물로 만들며, 사회를 생존을 위해 기본소득(UBI)에 의존하게 만들 것이라는 경고를 접한다. 이 경고는 너무 반복적이어서 마치 불가피한 일처럼 느껴지기도 한다.
하지만 실제는 그렇지 않다.
오늘날 AI 관련 담론의 상당 부분은 신중한 분석보다는 공포 기반 스토리텔링에 의해 주도되고 있다. 메시지는 단순하다: "변화는 피할 수 없고, 저항은 무의미하며, 사회는 이미 정해진 방식에 적응해야 한다는 것." 하지만 이런 프레이밍 framing 은 민주적 논쟁이 시작되기도 전에 비판적 사고를 잠재워 버립니다.
[인식론적] “AI”라는 용어의 모호함 (Suchman, 2021)
오늘날 담론에서 가장 큰 문제 중 하나는 AI라는 용어가 기술적 정의보다는 정치적 편의를 위한 수사적 장치로 기능한다는 것이다. Artificial Intelligence (인공지능)이라는 단어 자체는 굉장히 복작한 사회기술적 시스템, 그 뒤에 존재하는 인간의 노동과 결정들을 단순한 하나의 신비로운 실체 (thing) 로 압축해버린다. 이러한 모호성은 우연이 아니라 정치적·경제적으로 편리한 결과이다. 흥미롭게도 이 '인공지능'이란 용어는 사실 1965 년 미국 다트머스 대학 Dartmouth 에 모인 일부 컴퓨터 과학자들이 funding 연구 자금을 확보하기 위해 처음 사용한 것이기도 하다. 즉, 시작부터 AI 라는 개념은 실제 현상보다, 투자와 권력을 끌어내기 위한 전략적 언어였던 셈이다.
저널리스트 Karen Hao는 인터뷰에서 AI를 “transportation(교통수단)”에 비유한다. “기후 위기를 해결하기 위해 교통수단을 늘려야 한다”는 말이 구체적인 수단을 지정하지 않으면 무의미하듯, “생산성을 높이기 위해 AI가 필요하다”라는 말도 구체성이 없으면 아무 의미가 없다. 어떤 교통수단을 뜻하는 것이지? 로켓? 자동차? 자전거?
정확히 무엇을 말하는지 명확하지 않다면, 이것은 공허한 주장일 뿐이다.
STS (Science and Technology Studies) 와 인류학자인 Lucy Suchman 이 이야기하듯 AI는 어떤 단일한 ‘물체 thing’가 아니다. 수많은 데이터, 소프트웨어, 인프라, 인간 노동, 조직적 선택, 제도적 권력 등이 결합된 총체적 사회기술적 시스템이다. 이를 하나의 독립적 실체로 취급하면, 그 안에 내재된 수많은 관계와 책임이 가려진다. Lucy Suchman 은 이러한 비정형적 실체성 (Unconventional thingness) 이 AI에 잘못된 행위 능력의 환상을 부여한다고 말한다. 예를 들어, “AI가 결정한다”, “AI가 인간을 대체한다”, “AI가 나를 이해한다”라고 말할 때, 우리는 이러한 시스템을 설계하고 배치하며 수익을 창출하는 인간들 (Sam Altman 이나 Mark Zuckerberg 와 같은 이들) 과 그 조직들을 지워버리는 셈이다.
Emily Bender와 Alex Hanna 는 The AI Con (2025) 이란 책을 통해 비슷한 비판을 한다. 그들은 AI라는 용어가 좁은 패턴 인식 시스템에서 일반 지능을 주장하는 추측적 시스템까지 모두 포함하도록 의도적으로 확장되었다고 지적한다. 이러한 용어의 모호성은 AI 솔루션을 판매하는 이들에게 유리하게 작용된다. 시스템이 실제로 무엇을 하는지와 사람들이 상상하는 것 사이의 경계가 흐려지기 때문이다.
AI가 단일하고 불가피한 힘으로 취급될 때, 책임은 사라진다. 일자리 상실은 “AI 때문”이 되지, 기업 결정 때문이 아니며, 알고리즘 편향은 단순 기술적 오류이지, 인간 선택과 권력 구조의 결과가 아니게 된다. 이것이 언어/용어의 선택을 명확하고 정확하게 하지 않으면 안 되는 이유이다.
따라서 정확성이 매우 중요하다. 시스템이 무엇인지, 무엇을 하고 누가 통제하는지 명확히 알 수 없다면 의미 있는 민주적 논의는 불가능하다. 모든 것을 “AI”라고 부른다고 해서 미래가 명확해지는 것이 아니라, 오히려 그 모호성으로 불분명해지며, 이것은 정치적·경제적으로 의도된 것이지 우연이 아님을 학자들은 분명히 하고 있다.
어느 유튜브 댓글처럼 간단히 말하면, AI = Advertised Inaccurately (인공지능 = 잘못 광고됨) 이다.
[사회학적] 공포 조장은 예견이 아니다
기술 변화에 대비하는 것과 이를 과장하는 것에는 큰 차이가 있다. 오늘날 AI 관련 콘텐츠 대부분은 후자, 즉 인간 일자리 대체에 대한 공포를 증폭하는 쪽에 가깝다. 뉴스 미디어와 콘텐츠 제작자는 여기에 무거운 책임감을 가져야 할 것이다. 클릭 유도형 뉴스 헤드라인들은 AI를 “밤사이에 모든 직업을 사라지게 할 무적의 힘”처럼 묘사한다. 그 결과는 정보에 기반한 공론장이 아니라, 불안, 조용한 체념, 그리고 점점 확산되는 지적 나태입니다.
역사는 다른 이야기를 보여준다. 인쇄기에서 인터넷까지 모든 주요 기술 변화는 일을 시켰지만, 일부 역할은 사라지고, 새로운 역할들이 생기며, 기술과 능력은 유기적 관계를 가지며 재편되어왔다. 그 어떤 변화도 인간의 중요성을 끝내지는 않았다. AI도 마찬가지이다.
또한 몇몇 테크 CEO들이 솔루션을 제시하는 방식에는 눈에 띄는 패턴이 있다. Sam Altman이나 Mark Zuckerberg 같은 억만장자들이 AI가 인간 지능을 완전히 뛰어넘을 미래에 대해 이야기할 때, 그들의 제안은 늘 이렇다: “AI 로 인해 인간은 쓸모가 없어질 것이다. 하지만 우리 제품을 쓰면 경쟁력을 유지하고, relevant 하게 될 것이다. 그러니 우리 제품을 쓰세요!” 월 20달러 구독료로 사람들은 경쟁력을 유지하고, 관련성을 확보하며, ‘증강’될 수 있다고 말한다. 공포가 소비력으로 전환되며, 기술적 대체에 대한 인간의 불안은 구매력으로 변환된다. 이들은 이것을 노리고 있는 것이다.
[담론적] 교육이 더 이상 중요하지 않다는 위험한 신화
Sam Altman이나 Elon Musk 같은 영향력 있는 인물들의 대학 학위가 쓸모없어지고 있다고 하는 주장은 미디어를 통해 빠르게 확산되고 있다. 특히 기존 교육 시스템에 대한 불만과 맞물릴 때, 이는 더욱 빠르게 확산한다.
그러나 이 주장은 매우 큰 오해의 소지가 있다. 역사적으로, 국가가 인구를 통제하려 할 때 가장 먼저 취한 전략 중 하나는 교육 접근을 제한하는 것이었다. 교육받지 않은 시민은 관리하기 쉽다. 교육받은 시민은 질문하고, 권위에 도전하며, 단순한 내러티브에 저항하기 때문이다.
교육은 단순히 일자리를 공급하기 위한 자격증 공장이 아니다. 최선의 교육은 사람들이 생각하는 법, 증거를 평가하는 법, 논리적으로 주장하는 법, 맥락을 이해하는 법을 배우는 것이다. 이는 사회적 기술을 개발하는 과정이기도 하며, 이러한 능력은 자동화가 확산되는 세계에 그 어느 때보다도 중요하다.
교육을 “AI가 대체할 수 있는 직업 훈련”으로 축소하는 것은 사회에서 교육의 역할을 오해하는 것이다. AI가 확산된 세계에서 교육을 포기하면 사회가 더 적응력이 높아지는 것이 아니라, 더 취약해진다. 교육이야말로 시민들이 기술을 비판적으로 또 생산적으로 탐구하고 통제할 수 있게 만드는 핵심이다. 후퇴가 아니라 진보하기 위해서는 '좋은 교육'은 그 어느 때보다도 유지되고, 발전되어야 한다.
우리가 두려워해야 할 것은 AI가 아니라, 비판적 사고의 상실
진짜 위험은 기계가 인간처럼 생각하는 것이 아니라, 인간이 비판적 사고를 멈추는 것이다. “AI가 모두를 대체할 것이다” 또는 “학위는 이제 쓸모없다”와 같은 단순한 내러티브를 받아들이면, 사람들은 판단력을 테크 엘리트와 알고리즘에 넘겨버리게 된다.
도구가 강력해진다고 해서 사회가 무너지진 않는다. 사회가 무너지는 것은, 시민들이 도구를 통제하는 사람들에게 의문을 제기하지 않을 때 일어난다.
가장 중요한 질문: 우리는 누구의 내러티브를 따를 것인가?
우리는 잠시 멈춰서 물어야 한다. 미래에 대한 비전을 누가 제시하는가?
강력한 테크 기업 CEO인가, 아니면 민주적 토론과 교육, 집단적 결정 과정을 거쳐 우리가 스스로 형성한 것인가?
자유민주주의 시스템에서 미래는 소수의 경제적·문화적 권력이 좌지우지해선 안 된다. 그러나 현재의 AI 담론은 점점 그들의 예측을 불가피한 진리처럼 다루고 있다. 학위가 쓸모없거나 대규모 실업이 불가피하다고 주장할 때, 이는 중립적 관찰이 아니라 내러티브이다. 노동력을 약화시키고, 비용을 줄이며, 통제 없는 채 기술을 도입하도록 돕는 방식으로 편향되는 것.
인간의 기본 essential needs 는 언제나 같아왔고, 앞으로도 같을 것이다.
민주주의는 권위에 질문할 수 있는 시민을 필요로 하며. 소수의 테크 엘리트가 “불가피”를 정의하도록 허용할 때, 우리가 함께 미래를 선택할 수 있다는 자유민주주의의 핵심 원칙을 포기하게 되는 것이다
AI는 좋은 목적으로 잘 사용되고 develop 된다면 인간에게 정말 좋은 도구가 될 것이다. 그러나 어떻게 바꿀지는 공적 논의와 민주적 판단을 통해 결정되어야 한다. 그래서 더 많은 공론화와 이야기를 나눌 채널이 있어야 하는 것이다.
보편적 기본소득(UBI)은 해결책이 아니다
AI 일자리 상실과 함께 종종 제시되는 해결책이 UBI이다. 인간적이고 전향적인 해결책으로 포장되지만, 실제로는 인구의 일부를 경제적으로 불필요하게 만드는 위험이 있다.
일은 단순히 소득만을 위한 것이 아니다. 존엄, 삶의 목적, 가치 공유, 사회에 대한 기여, 그리고 자기실현이 모두 포함된다. 사람들에게 단순히 생존비를 지급하면서 의미와 성장의 경로를 제거하는 시스템은 자유가 아니라 조용한 박탈이다.
영구적 일자리 상실을 중심으로 사회를 재설계하기보다, 삶과 일이 무엇을 의미하는지 고민하고, 교육과 재교육, 그리고 기술과 함께 진화하는 경제 구조에 투자해야 할 것이다.
더 나은 대화는 가능하다
AI는 강력한 도구임에 틀림없다. 올바르게, 윤리적으로 사용된다면 우리의 삶을 크게 향상시킬 수 있지만, 현재 쏟아지는 공포 중심 콘텐츠는 변화를 이해하는 데 도움이 되지 않는다. 오히려 우리의 상상력과 비판적 사고를 좁히게 된다.
우리는 교육을 없애는 것이 아닌, 더 나은 교육이 필요합니다. 단순히 소득으로 목적을 대체할 필요도 없으며, 인간의 존엄, 그리고 행위 능력을 보존하는 철학과 시스템이 필요하다. 그리고 AI 기업들을 이끄는 이들이 예견하는 ‘불가피성’에 우리의 사고를 맡길 필요도 없다.
미래는 우리에게 일어나는 것이 아니다.
우리가 비판적으로 사고할 의지를 가진다면, 미래는 우리가 적극적으로 만들어가는 것이다.



Comments