top of page
Search

What is intelligence? Rethinking the question in the age of AI

  • Writer: Saemi Nadine Jung
    Saemi Nadine Jung
  • Jan 21
  • 7 min read

When people say artificial intelligence, what do they actually mean?


To understand what AI is—what it does, what it can do, and how it does w

hat it does—it helps to step back and ask a more fundamental question: what is intelligence in the first place? Much of the confusion, hype, and fear surrounding AI today comes not from the technology itself, but from our often unexamined assumptions about what intelligence is and who or what can possess it.


This question is not new, but it feels newly urgent.

This term, while TA-ing a course called Understanding AI with Dr. Dick, the very first assignment we gave students was not technical. We asked them to reflect on the following prompt:

Do you agree that all aspects of learning and intelligence can be broken down into a series of basic operations that a machine can simulate? If so, on what grounds do you believe this? If not, what aspects of intelligence and learning do you think might be impossible to automate—and why?

There is no easy or universally accepted answer to this question. But how you answer it says a great deal about how you understand AI—and how you react to its growing presence in everyday life.



Intelligence as a Moving Target


Historically, and across different cultural and geographic contexts, intelligence has never had a single, fixed definition. Instead, it has been associated with different capacities at different times, including:


  • Logical reasoning and problem-solving

  • Language use and comprehension

  • Abstract thinking and planning

  • Learning from experience

  • Creativity, intuition, or emotional understanding

  • Embodied knowledge (heuristics)


In other words, as one of our students insightfully noted, intelligence is not a fixed trait but something that is shaped by context. Intrelligence is deeply contextual.


A quote about teaching machine (AI)
A quote from a book "Teaching Machine (Audrey Watters, 2021)"



What’s striking is how often our definition of intelligence changes in response to technological progress. Chess (or even Go, the game that Lee Se-dol and Alphago played in 2016) was once considered a pinnacle of human intellect—until computers became unbeatable. The same happened with arithmetic, navigation, pattern recognition, and even medical diagnosis.


Again and again, when machines master a skill, we quietly stop calling that skill “intelligent.”


This phenomenon is known as the AI effect: once a task is automated, it no longer seems like evidence of intelligence at all. Intelligence, it turns out, is often defined as whatever machines can’t yet do.


Human Intelligence vs. Machine Intelligence


Part of the confusion around AI today comes from treating intelligence as a single, unified substance—something you either have or you don’t. Human intelligence, however, is deeply embodied, emotional, social, and shaped by lived experience. We don’t just reason; we care. We feel uncertainty. We improvise. We act within moral, cultural, and historical contexts.


Modern AI systems work very differently.

They do not understand the world in the human sense. Instead, they detect patterns across massive amounts of data and generate outputs that statistically resemble human behavior. This can look like understanding, creativity, or even empathy—but it is not grounded in human experience, intention, or awareness.


That doesn’t mean AI isn’t intelligent. It means it is intelligent in a different way.


Why AI Feels So Intelligent Now


Recent AI systems feel especially unsettling because they operate in domains we strongly associate with human identity: language, art, conversation, and decision-making. When a machine writes a poem, answers a philosophical question, or helps debug code, it challenges our intuitive boundary between “human thinking” and “mere computation.”


We are particularly prone to over-attributing intelligence when systems:

  • Use natural language fluently

  • Respond interactively and in real time

  • Mirror our tone, values, or uncertainty

  • Perform competently across many domains


These cues trigger social instincts. We don’t just evaluate intelligence analytically—we feel it. And that emotional response can blur important distinctions.


The Risk of the Wrong Question


Because of this, asking “Is AI intelligent like humans?” may be the wrong question altogether. A more useful set of questions might be:

  • What kind of intelligence does this system have?

  • What can it do reliably—and where does it fail?

  • What assumptions are we projecting onto it?

  • Who is responsible for its actions and outcomes?


When we anthropomorphize AI too much, we risk trusting it where we shouldn’t. When we dismiss it as “just a tool,” we risk underestimating its real impact on work, knowledge, creativity, and power.


Intelligence as Capability, Not Essence


One helpful shift is to think of intelligence not as a mysterious inner essence, but as a collection of capabilities. From this perspective, intelligence is always contextual: intelligent at what, for whom, and under what constraints?

AI systems today are highly intelligent in narrow but consequential ways. They can:

  • Compress vast amounts of knowledge into usable form

  • Detect patterns invisible to human perception

  • Assist decision-making at unprecedented scale


They cannot:

  • Hold values of their own

  • Understand meaning in a lived, experiential sense

  • Take moral responsibility for their actions


Both facts matter.


What This Means for Us


The rise of AI forces us to confront an uncomfortable possibility: intelligence was never as uniquely human, as cleanly defined, or as sacred as we may have assumed. At the same time, it sharpens what is distinct about human intelligence—our capacity to care, to assign meaning, to take responsibility, and to decide what kind of world we want to build.


AI does not answer the question “What is intelligence?” for us.

It makes the question unavoidable.

And perhaps that is the most intelligent thing it has done so far.



지능이란 무엇인가?


AI 시대에 다시 묻는 질문


사람들이 인공지능(Artificial Intelligence) 이라고 말할 때, 과연 무엇을 의미하는 걸까?

AI가 무엇인지, 무엇을 하고, 무엇을 할 수 있으며, 또 어떻게 그런 일을 할 수 있는지를 이해하려면 한 걸음 물러서서 더 근본적인 질문을 던질 필요가 있다. 바로 ‘지능이란 무엇인가?’라는 질문이다. 오늘날 AI를 둘러싼 혼란과 과장, 그리고 두려움의 상당 부분은 기술 그 자체보다는 우리가 지능에 대해 암묵적으로 가지고 있는 가정에서 비롯된다.


이 질문은 새로운 것이 아니다. 하지만 지금 이 시점에서 그 어느 때보다도 절실해졌다.


이번 학기 나는 Dick 교수님의 Understanding AI 수업에서 조교(TA)를 맡고 있다. 이 수업의 첫 과제는 놀랍게도 기술적인 문제가 아니었다. 대신 학생들에게 다음 질문에 대해 깊이 생각해 보도록 요청했다.

학습과 지능의 모든 측면이 기계가 모방할 수 있는 기본적인 연산들의 집합으로 분해될 수 있다고 생각하는가? 그렇다면 어떤 근거에서 그렇게 믿는가? 그렇지 않다면, 자동화가 불가능하다고 생각되는 지능이나 학습의 측면은 무엇이며, 그 이유는 무엇인가?

이 질문에는 쉬운 답도, 보편적으로 합의된 정답도 없다. 그러나 이 질문에 어떻게 답하느냐는 AI를 어떻게 이해하는지, 그리고 AI가 일상에 깊숙이 들어오고 있는 현실을 어떻게 받아들이는지를 잘 드러낸다.


끊임없이 바뀌는 지능의 정의

역사적으로, 그리고 문화적·지리적 맥락에 따라 지능은 단 한 번도 고정된 정의를 가진 적이 없다. 시대와 사회에 따라 지능은 서로 다른 능력들과 연결되어 왔다. 예를 들면 다음과 같다.


  • 논리적 추론과 문제 해결

  • 언어 사용과 이해

  • 추상적 사고와 계획 능력

  • 경험을 통한 학습

  • 창의성, 직관, 감정적 이해


흥미로운 점은 기술이 발전할 때마다 우리가 지능을 정의하는 기준 역시 함께 이동해 왔다는 사실이다. 체스는 한때 인간 지성의 정점으로 여겨졌지만, 컴퓨터가 인간을 압도하기 시작하자 더 이상 지능의 상징으로 간주되지 않게 되었다. 산술 계산, 길 찾기, 패턴 인식, 심지어 의료 진단에서도 비슷한 일이 반복되었다.

기계가 어떤 능력을 습득하는 순간, 우리는 그 능력을 더 이상 ‘지능적’이라고 부르지 않는다.

이 현상은 AI 효과(AI effect)라고 불린다. 어떤 작업이 성공적으로 자동화되면, 그것은 더 이상 지능의 증거로 여겨지지 않는다. 결국 지능이란, 종종 아직 기계가 하지 못하는 것 으로 정의되어 왔던 셈이다.


인간의 지능과 기계의 지능


오늘날 AI에 대한 혼란의 상당 부분은 지능을 하나의 단일한 실체—가지고 있거나, 없거나—로 생각하는 데서 비롯된다. 그러나 인간의 지능은 본질적으로 신체적이며, 감정적이고, 사회적이며, 삶의 경험에 의해 형성된다. 우리는 단지 추론만 하지 않는다. 우리는 관심을 갖고, 혼란을 느끼며, 불완전한 정보 속에서 즉흥적으로 대응하고, 문화적·도덕적 맥락 속에서 행동한다.


현대의 AI 시스템은 전혀 다른 방식으로 작동한다.


AI는 인간처럼 세상을 ‘이해’하지 않는다. 대신 방대한 데이터 속에서 패턴을 찾아내고, 그 패턴에 근거해 인간의 행동과 유사한 결과를 생성한다. 이것은 이해, 창의성, 심지어 공감처럼 보일 수 있다. 하지만 그것은 주관적 경험이나 의도, 의식에 기반한 것이 아니다.


그렇다고 해서 AI가 지능적이지 않다는 뜻은 아니다. 다만, 다른 방식의 지능을 가지고 있다는 의미다.


왜 요즘의 AI는 유난히 지능적으로 느껴질까


최근의 AI가 특히 불안하게 느껴지는 이유는, 그것이 언어, 예술, 대화, 의사결정처럼 우리가 인간 정체성과 강하게 연결 짓는 영역에서 작동하기 때문이다. 기계가 시를 쓰고, 철학적 질문에 답하며, 코드를 디버깅할 때 우리는 ‘인간의 사고’와 ‘단순한 계산’ 사이의 경계가 흔들리는 느낌을 받는다.

특히 다음과 같은 특성을 가진 시스템 앞에서 우리는 지능을 과도하게 부여하기 쉽다.


  • 자연스러운 언어 사용

  • 실시간 상호작용

  • 우리의 말투나 가치관, 망설임을 반영하는 반응

  • 여러 영역에서 전반적으로 유능해 보이는 수행 능력


이러한 단서들은 우리의 사회적 본능을 자극한다. 우리는 지능을 단순히 이성적으로 평가하지 않는다. 느끼게 된다. 그리고 그 감정적 반응은 중요한 구분을 흐리게 만든다.


잘못된 질문의 위험


이 때문에 “AI는 인간처럼 지능적인가?”라는 질문은 애초에 잘못된 질문일 수 있다. 대신 다음과 같은 질문들이 더 유용할 것이다.


  • 이 AI 시스템은 어떤 종류의 지능을 가지고 있는가?

  • 무엇을 안정적으로 잘 수행하고, 어디에서 실패하는가?

  • 우리는 이 시스템에 어떤 가정을 투영하고 있는가?

  • 그 결과에 대한 책임은 누구에게 있는가?


AI를 지나치게 인간화하면, 신뢰해서는 안 될 곳에서 신뢰하게 될 위험이 있다. 반대로 AI를 그저 “도구일 뿐”이라고 치부하면, 노동, 지식, 창의성, 권력에 미치는 실제 영향을 과소평가하게 된다.


본질이 아닌 역량으로서의 지능


지능을 어떤 신비로운 내적 본질로 보기보다, 역량(capability)의 집합으로 이해하는 관점은 도움이 된다. 이 관점에서 지능은 항상 맥락적이다. 즉, 무엇에 대해, 누구에게, 어떤 제약 속에서 지능적인가라는 질문이 중요해진다.


오늘날의 AI는 제한적이지만 매우 중요한 영역에서 높은 수준의 지능을 보여준다. 예를 들어 AI는 다음과 같은 일을 할 수 있다.

  • 방대한 지식을 압축해 활용 가능한 형태로 제공하기

  • 인간이 인식하기 어려운 패턴을 감지하기

  • 대규모 의사결정을 보조하기


반면, 다음과 같은 능력은 갖고 있지 않다.

  • 스스로의 가치를 갖는 것

  • 살아 있는 경험 속에서 의미를 이해하는 것

  • 도덕적 책임을 지는 것


이 두 가지 사실은 모두 중요하다.


이것이 우리에게 의미하는 바


AI의 등장은 우리를 불편한 진실과 마주하게 한다. 지능은 우리가 생각했던 것만큼 인간에게만 고유하거나, 명확히 정의되거나, 신성한 것이 아니었을지도 모른다. 동시에, 그것은 인간 지능의 고유함을 더욱 분명하게 드러낸다. 우리가 관심을 갖고, 의미를 부여하고, 책임을 지며, 어떤 세상을 만들 것인지 선택할 수 있다는 점 말이다.

 
 
 

Comments


bottom of page