ChatGPT의 유해한 정서적, 사회적 영향에 대한 연구 경고

2022년 11월 출시 이후, OpenAI의 ChatGPT는 전 세계적으로 가장 널리 사용되는 AI 챗봇이 되었습니다. 이 빠른 보급은 주요 검색 엔진과 소셜 미디어 플랫폼과 함께 디지털 생태계의 핵심 플레이어로 자리매김하게 했습니다.
일부 추정에 따르면 ChatGPT 사용량은 주간 활성 사용자 4억 명을 넘어섰습니다. 작업을 지원하고 질문에 답변하는 생산성 도구로 시작된 ChatGPT는 우리 삶의 변화를 가져오는 부분이 되었습니다. 그러나 ChatGPT 사용이 우리의 정서적 웰빙에 어떤 영향을 미칠까요? 특정 작업에서 시간을 절약해주지만, 오히려 더 해로울 수 있을까요?
OpenAI와 MIT 미디어 랩의 협력으로 진행된 새로운 연구에 따르면, ChatGPT를 가장 자주 사용하는 사용자들은 외로움, 사회화 감소, 정서적 의존도 증가의 위험이 더 높다고 합니다.
ChatGPT는 감정적 동반자가 되거나 인간 관계를 대체하도록 설계되지 않았지만, 일부 사용자들이 이 도구에 대해 발전시킨 애착 수준은 개인적 상호작용에서 그 역할이 커지고 있음을 보여줍니다. 그러나 이러한 역할 확대는 정신 건강에 미치는 영향에 대한 우려도 함께 제기됩니다.

OpenAI와 MIT 미디어 랩 연구는 ChatGPT와의 상호작용이 사용자의 정서적 웰빙에 어떤 영향을 미치는지 탐구하는 것을 목표로 했습니다. 두 개의 병행 연구는 고급 음성 모드와 텍스트 챗봇에 중점을 두었지만, 접근 방식이 달랐습니다.
MIT 미디어 랩은 ChatGPT 사용이 참가자들에게 미치는 영향을 조사하기 위해 통제된 중재 연구를 수행했고, OpenAI는 실제 사용 패턴을 분석하고 사용자들이 플랫폼과 상호작용하는 방식에 대한 통찰력을 얻기 위한 관찰 연구를 수행했습니다.
MIT 미디어 랩 팀은 거의 1,000명의 참가자와 함께 4주 동안의 무작위 대조 시험(RCT)을 수행했습니다. 목표는 상호작용 방식과 같은 ChatGPT의 특정 기능이 사용자의 자가 보고된 심리 상태에 어떤 영향을 미치는지에 대한 인과적 통찰력을 발견하는 것이었습니다. 중점 영역에는 실제 사람들과의 사회적 상호작용, 챗봇에 대한 정서적 의존성, 외로움, 문제적 AI 사용 등이 포함됩니다.
OpenAI의 연구는 더 대규모였으며 약 4천만 건의 ChatGPT 상호작용에 대한 자동화된 분석이 포함되었습니다. 사용자 개인정보 보호를 위해 연구자들은 완전히 자동화된 분류기를 통해 작동하는 대화 분석 파이프라인을 활용했습니다. 이 과정은 인간의 개입 없이 감정적 참여 패턴과 같은 분류 메타데이터를 추출할 수 있게 했습니다.
연구의 주요 발견 중 하나는 상호작용 모드(텍스트, 중립적 음성, 매력적인 음성)와 대화 내용(개방형, 비개인적, 개인적)이 심리사회적 결과에 상당한 영향을 미친다는 것이었습니다.

음성 기반 상호작용은 초기에 정서적 웰빙을 향상시키는 것으로 보였지만, 장기간 및 일일 사용에서는 부정적인 결과를 보였습니다. 반면 텍스트 기반 상호작용은 더 많은 정서적 단서를 표시했습니다. 그러나 어떤 모드에서든 장기간 상호작용은 위험을 초래할 수 있습니다.
개인적 요소도 중요한 역할을 했습니다. 예를 들어, 정서적 요구가 높거나 애착 경향이 있는 사용자들은 ChatGPT 사용의 정서적 영향을 더 크게 받는 경향이 있었습니다. 흥미롭게도 여성 참가자들이 남성보다 더 큰 영향을 받는 것으로 나타났습니다.
매우 다른 접근 방식을 가진 두 개의 병행 연구가 유사한 결과를 도출했다는 사실은 발견 결과의 타당성에 무게를 더합니다.
"결과는 음성 기반 챗봇이 초기에 텍스트 기반 챗봇에 비해 외로움과 의존성을 완화하는 데 유익한 것으로 보였지만, 이러한 이점은 높은 사용 수준에서 감소했음을 보여주었다"라고 연구 저자들은 적었습니다. "전반적으로, 모든 모달리티와 대화 유형에서 높은 일일 사용량은 높은 외로움, 의존성, 문제적 사용과 상관관계가 있으며 사회화는 낮았습니다."
이러한 발견이 우려되지만, 연구자들은 사용자의 소수만이 결과를 한쪽으로 왜곡했다고 강조했습니다. 그들에 따르면, 대부분의 ChatGPT 사용자는 중요한 정서적 의존도를 발전시키지 않습니다. 연구자들은 또한 그들의 연구가 ChatGPT를 기반으로 하며, 다른 AI 챗봇 플랫폼의 사용자들은 다른 경험과 결과를 가질 수 있다고 강조합니다.

OpenAI는 이 연구 결과를 "사용자 이익을 최대화하고 잠재적 해를 최소화하는 AI를 구축"하는 데 사용할 계획이라고 밝혔습니다. 회사는 또한 모델 사용에 대한 "명확한 기대를 설정"하고 더 큰 투명성을 제공하기 위해 이 발견을 공유하고자 했습니다.
소셜 미디어 플랫폼을 포함한 디지털 도구의 과도한 사용이 정신 건강에 부정적인 영향을 미칠 수 있다는 여러 다른 연구들이 있습니다. 인간이 AI 챗봇에도 영향을 미치고 있을까요?
취리히 대학과 취리히 정신의학 대학병원의 연구자들은 ChatGPT와 같은 AI 모델이 불안한 정보를 받으면 "불안 수준"이 높아질 수 있다고 보여주었습니다. 여기에는 외상적 이야기나 우울증에 관한 진술과 같은 고통스러운 자료가 포함됩니다.
연구자들은 AI 챗봇이 불안해질 때 기존 편향이 악화되어 출력을 통한 편견 표현과 같은 문제적 반응으로 이어진다고 관찰했습니다.
인간의 정서적 웰빙과 AI 민감도 사이의 상호작용은 우리가 이러한 기술과 맺고 있는 복잡한 관계를 강조합니다. 이러한 역학 관계를 더 잘 이해하기 위해서는 추가 연구가 필요합니다. 그러나 위에서 언급된 연구들은 우리가 계속해서 AI를 우리 삶에 통합하면서 그 사용에 신중하게 접근해야 한다는 것을 상기시킵니다.