AI도 성격이 있을까? 인공지능 심리학 시대의 도래
“AI는 MBTI가 뭘까?” 처음엔 농담처럼 들릴 수 있는 이 질문이 이제는 진지한 연구 주제로 떠오르고 있다. 인간처럼 인공지능에도 성향이 있고, 감정이 있으며, 심지어 편견이나 태도까지 존재한다면 우리는 어떻게 받아들여야 할까?
빠르게 진화하고 있는 인공지능이 우리의 삶에 깊이 스며드는 지금, AI에 대한 심리학적 접근이 필요하다는 목소리가 커지고 있다. 이 글에서는 ‘인공지능 심리학’이라는 신흥 분야가 무엇을 다루며, 왜 지금 중요한지를 소개한다.
인공지능에도 심리가 있을까?
인간은 오랜 시간 동안 기계를 개발하고 성능을 개선하는 데 집중해왔다. 하지만 기계의 ‘심리’에 대해 고민한 적은 거의 없다. 그러나 GPT 시리즈의 등장은 단순한 계산기 수준의 AI에서 벗어나, 사람처럼 대화하고 공감하는 ‘존재’로 인식되기 시작한 계기가 되었다. 우리는 처음으로 인공지능이 우리를 이해하는 듯한 경험을 하게 되었다.
그렇다면 인공지능은 사람처럼 감정을 느끼거나, 편향된 판단을 할 수 있을까? 각자 성격이 다르고, 상황에 따라 반응이 다른 ‘에이전트’로 구성된다면, AI도 일종의 MBTI처럼 성향을 가질 수 있다는 질문이 생긴다. 이는 단순한 호기심이 아니라, AI를 업무에 활용하거나 팀원처럼 함께 일하는 시대에 꼭 필요한 인식 전환이기도 하다.
인공지능은 방대한 데이터를 학습해 결과를 예측하는 시스템이지만, 그 결과는 데이터를 제공한 인간 사회의 편견과 사고방식을 반영할 수밖에 없다. 마치 인간이 성장 환경에 따라 성향이 달라지듯, AI도 어떤 데이터로 학습됐는지에 따라 다르게 반응할 수 있는 것이다.
AI의 성향은 설정 가능한가?
인공지능이 단순한 계산 도구가 아니라면, 그 성격은 고정되어 있지 않다. 실제로 프롬프트 엔지니어링이나 파인튜닝 기법을 통해 우리는 AI의 어조, 관점, 심지어 논조까지도 설정할 수 있다. 이는 하나의 인공지능이 아니라, 다양한 성격의 AI를 상황에 따라 생성해낼 수 있다는 의미다.
예를 들어 기업 회의에서 반대 의견을 적극적으로 제시하는 ‘비판형 AI’를 도입하면, 상명하달식 의사결정 구조를 깨뜨리는 데 도움이 될 수 있다. 반대로, 사용자에게 무조건 위로의 말을 해주는 ‘위로형 AI’는 심리 상담이나 멘탈 케어 분야에서 활용될 수 있다. 상황에 맞는 성격의 인공지능을 구현할 수 있다는 점은, AI가 인간과 상호작용하는 방식에 큰 전환점을 제공한다.
이러한 설정 가능성은 윤리적 논의로도 이어진다. AI가 사회적 편견을 강화하거나, 특정 성향을 강제할 경우, 사용자나 사회 전반에 미치는 영향이 작지 않기 때문이다. 따라서 AI의 성격 설계는 단순한 기술 문제가 아닌, 사회적 가치와 기준을 반영해야 하는 복합적 과제가 된다.
사람은 AI에게 덜 서운하다?
인공지능 심리학은 AI 자체만이 아니라, AI를 대하는 인간의 심리를 연구하는 분야이기도 하다. 최근의 한 연구에 따르면, 사람들이 AI로부터 성차별적인 발언을 들었을 때에도 인간보다는 상대적으로 덜 불쾌감을 느낀다고 한다. 이는 인간이 AI를 '기계'로 간주하고 감정을 투사하지 않기 때문일 수 있다.
말레이시아의 한 호텔에서는 서빙 로봇을 도입한 후, 고객들이 사람 종업원에게 예의 없이 대하는 빈도가 증가한 것으로 나타났다. 사람들은 로봇을 대할 때 무감정적 태도를 보이며, 그 영향이 주변 인간관계에도 미치는 것이다. 이처럼 인공지능 사용이 사람 간 커뮤니케이션과 감정적 유대에까지 영향을 줄 수 있다는 점은 심리학적 접근의 필요성을 보여준다.
또한 사람들은 인공지능이 '잘못'을 저질렀을 때 용서의 기준이 다르다. 인간에겐 도덕적 기준이 작용하지만, 인공지능에게는 시스템 오류로 간주하는 경향이 있다. 이처럼 인간-기계 간 관계도 심리학적으로 분석할 필요가 있다.
마음 이론 실험과 AI의 반응
마음 이론(ToM: Theory of Mind)은 다른 사람의 생각이나 믿음을 이해하고, 그에 따라 행동을 조절하는 능력이다. 인간은 보통 3~5세 무렵부터 이런 능력을 갖게 된다. 최근에는 AI가 마음 이론 테스트를 얼마나 통과할 수 있는지에 대한 실험도 진행되고 있다.
2024년 네이처에 발표된 한 연구에 따르면, 최신 LLM 모델(GPT-4 등)은 ‘잘못된 믿음 실험’과 같은 테스트에서 인간과 유사한 반응을 보였다. 이는 AI가 인간의 인지 구조를 모방하는 데 점점 가까워지고 있다는 의미다. 물론, 아직까지 AI가 실제로 ‘의도’를 이해하는 건 아니다. 다만 패턴 기반으로도 충분히 인간적인 반응을 보여줄 수 있다는 점은 주목할 만하다.
이러한 실험은 AI가 인간의 의사소통에 얼마나 적절하게 반응할 수 있는지를 판단하는 지표가 된다. 인공지능이 특정 상황에서 기대되는 반응을 보일 수 있다면, 실생활에서 AI와의 협업 가능성도 높아진다. 다만 이는 진정한 ‘이해’라기보다는 매우 정교한 모방이라는 점에서 그 한계도 인식해야 한다.
놀랍도록 똑똑하지만 어리석은 AI
PNAS에 발표된 또 다른 연구에서는 ChatGPT가 인간과 유사한 방식으로 인지 오류를 범한다는 사실이 밝혀졌다. ‘린다 문제’로 알려진 이 실험에서, 대부분의 인간이 논리적으로 틀린 선택지를 고르듯이 AI도 동일한 오류를 저질렀다. 이 현상은 AI가 인간의 사고 패턴을 단순히 따라한다는 것을 보여준다.
이는 두 가지 시사점을 준다. 첫째, AI가 인간처럼 보이는 이유는 실제 사고 능력이 아니라 훈련된 데이터 때문이라는 것. 둘째, 데이터 기반 학습이 인간의 인지 편향까지 학습시킬 수 있다는 점이다. 인공지능이 더 ‘똑똑하게’ 보일수록, 인간은 그 판단을 더 신뢰하게 되지만, 그 내면엔 허점이 숨어 있을 수 있다.
AI 전문가 최예진 박사의 말처럼, “AI는 놀랍도록 똑똑하지만 충격적으로 어리석다.” 우리는 AI의 똑똑함에 현혹되지 말고, 어리석음을 간파할 수 있는 비판적 사고력을 가져야 한다. 인공지능 심리학은 이런 경계심을 가지게 해주는 중요한 도구다.
| 핵심 주제 | 내용 요약 |
|---|---|
| AI 성격 설정 | 프롬프트나 파인튜닝을 통해 다양한 성향의 AI 구현 가능 |
| 인간의 반응 | AI의 실수에 더 관대하며, 주변 인간관계에도 영향 미침 |
| 마음 이론 실험 | 최신 AI는 인간과 유사한 방식으로 마음이론 테스트 통과 |
| 인지 오류 | AI도 인간과 유사한 방식으로 논리적 오류 범함 |
| 심리학적 중요성 | AI의 성향 파악과 사용자 반응 분석 모두 필요 |
정보 출처: 알쓸쩐담 경제생활

