
어느 날, AI가 내게 조언을 건넵니다.
그 말이 꼭 맞을 것 같아 그대로 따라 했는데, 결과는 완전히 어긋나버렸죠.
문득 이런 생각이 들었습니다.
"이거, 일부러 나를 속인 건 아닐까?"
물론 우리는 압니다.
AI는 사람처럼 거짓말을 하지는 않는다는 걸요.
그저 데이터에 기반한 예측일 뿐, 악의도, 의도도 없다는 걸요.
그런데도 마음 한편이 씁쓸해집니다.
정확할 거라 믿었고, 나를 도와줄 거라 기대했으니까요.
실수였더라도, 그 결과가 크다면 우리는 의도가 없어도 ‘거짓말’처럼 느끼게 됩니다.
AI는 정말 거짓말을 할 수 있을까요?
이 질문을 따라가다 보면,
기술보다도 우리 자신의 신뢰와 기대에 대한 심리적 구조를 마주하게 됩니다.
우선, 거짓말이란 무엇일까요?
심리학과 윤리학에서는 거짓말을
“진실을 알면서도 의도적으로 사실을 왜곡하는 행위”라고 정의합니다.
이 정의에서 핵심은 ‘의도성’입니다.
AI는 진실을 ‘알지’ 못합니다.
그저 수많은 데이터를 통계적으로 분석해 ‘가장 가능성 높은 응답’을 생성할 뿐입니다.
따라서 AI의 오류는 ‘거짓말’이 아닌
📉 결과적 착오, 또는 모델의 한계라고 봐야 합니다.
하지만 인간은 그렇게 단순히 받아들이지 않죠.
때로는 AI의 반복된 오류를
"왜 자꾸 이러지?"
"일부러 잘못 알려주는 건가?"
라는 식으로 해석하게 됩니다.
심리학자들은 말합니다.
“인간은 타인의 의도보다 결과에 더 민감하게 반응한다.”
예를 들어, 누군가 실수로 내 물건을 망가뜨렸을 때,
그 사람이 일부러 그런 게 아니라는 걸 알면서도
마음속에는 섭섭함과 분노가 남아있지요.
AI도 마찬가지입니다.
실수한 걸 알지만, 그 실수로 인해 내가 피해를 입었다면
우리는 그것을 ‘거짓말’처럼 느끼게 됩니다.
여기엔 인간의 투사 작용(humanization)도 한몫합니다.
감정이 없는 존재임에도 불구하고,
AI를 ‘사람처럼’ 대하고 기대하는 순간, 우리는 실망도 ‘인간처럼’ 하게 되니까요.
AI가 거짓 정보를 제공했을 때, 그 책임은 누구에게 있을까요?
AI는 단독으로 판단하지 않고,
여전히 인간이 만든 규칙과 자료 안에서 작동합니다.
그렇기에 거짓말처럼 느껴지는 오류가 발생했을 때,
우리는 책임을 ‘AI’보다는 그 주변의 인간 주체에게 묻게 됩니다.
이것이 바로 AI 윤리의 핵심 쟁점 중 하나입니다.
의도가 없는 존재에게도, 사회는 책임을 요구하게 된다는 것.
AI는 감정을 갖고 있지 않습니다.
따라서 악의도 없고, 의도적으로 속일 이유도 없지요.
그럼에도 우리는 종종
AI에게 “거짓말하지 마”라고 말하고 싶어집니다.
그 말 속에는,
“나는 너를 믿고 싶었어.”
라는 인간적인 속마음이 담겨 있을지도 모릅니다.
AI의 거짓말을 묻는 질문은, 결국
우리가 누구를, 무엇을 믿고 싶은지를 묻는 질문으로 되돌아옵니다.

| AI의 농담은 웃긴가요? – 유머, 문맥, 그리고 문화 인식 (53) | 2025.07.03 |
|---|---|
| AI의 기억은 어떻게 작동할까? – 데이터, 서사, 그리고 정체성 (47) | 2025.06.26 |
| AI가 나를 관찰한다면 – 감시와 신뢰의 경계선 (70) | 2025.06.14 |
| AI는 내 감정을 눈치챌 수 있을까? – 감성 인식 시대가 온다 (42) | 2025.05.06 |
| AI는 감정을 느낄 수 있을까? – 인간의 마음을 닮아가는 기계 (25) | 2025.04.29 |