인공지능(AI)은 단순한 기술적 혁신이 아니다. 이는 인간 교류의 모든 측면을 바꾸는 사회적 혁명이다. AI 시스템이 사람들의 일상과 소통에 스며들면서 인간관계, 감정, 집단적 이해는 미묘하게 '재설계'되고 있다. AI가 불러온 변화의 비용은 이익이나 생산성이 아니라 훨씬 더 가치 있는 요소들, 즉 공감, 연결, 그리고 사실로 측정된다. AI 기반 변화의 중심에는 의사소통의 표준화가 있다. 대규모언어모델(LLM)로 구동되는 플랫폼은 인간이 기계처럼 말하는 법을 가르친다. 사람들이 효율적이고, 명확하며, 감정 없이 말하도록 만든다. 직장에서 AI 기반 소통 방식으로 말하는 것에 적응할수록 사람들 간 대화에는 감정적 깊이와 문화 차이가 사라지고 있다.
제스 호언스타인 코넬대 연구원의 리서치는 이를 뒷받침한다. 그의 연구에 따르면 AI 어시스턴트가 작성한 메시지는 덜 협조적인 것으로 인식된다. 독일 막스플랑크연구소는 AI 생성 언어가 사람들의 대화 방식에 영향을 미친다는 점을 발견했다. AI 생성 언어는 인간이 사용하는 단어와 문장 구조에 미묘한 변화를 불러오고 있다.
AI의 영향력이 가장 우려되는 부문은 정치적 담화다. 사용자들의 참여를 극대화하도록 설계된 소셜미디어 알고리즘은 분열을 이끌고 감정을 자극하는 콘텐츠를 증폭시킨다. 이 안에서는 본질보다 분노가 돈이 된다.
사회 전반에 걸쳐 직접적이고, 효율적이지만, 감정이 없는 AI 기반 소통이 표준화되고 있다. 사람들은 기계를 더 인간처럼 말하도록 훈련시키고 있는 동시에 본인은 기계처럼 소통하는 과정을 거치고 있다.
이는 외교, 의료처럼 미묘한 차이를 알아채는 것이 중요한 위험도가 높은 환경에 큰 영향을 미친다. AI의 경직된 소통 방식은 해당 상황에서 필요한 감성지능이 배제돼 있다. 예를 들어 병원에서 사람이 작성한 환자에 대한 보고서가 아닌 AI의 판단으로 비상벨이 울린다면, 인간의 직관보다 알고리즘에 기반한 결정을 우선시하게 된다.
AI의 이점도 있다. 인공지능은 정보의 접근성을 향상시켰고, 글로벌 협업을 가능케 했으며, 의사소통에 장애가 있는 사람들을 지원해 왔다. AI로 언어장벽이 허물어졌고, 복잡한 자료를 요약할 수 있으며, 인간이 놓칠 수 있는 대화 속 패턴을 발견할 수 있다. 하지만 여기에는 윤리적 위험성이 따른다. 특히 AI 시스템이 잘못 사용될 경우 더욱 리스크가 크다.
관건은 AI가 사람들 사이의 교류를 바꿀 것인가가 아니다. 이런 변화는 이미 진행되고 있다. 핵심은 AI로 발생할 수 있는 피해를 돌이킬 수 없기 전에 인간이 이를 완화할 수 있는 조치를 취할 수 있는지다.
이에 대한 해결책은 존재한다. 하지만 해결책을 실행하기 위해서는 공동의 노력이 필요하다. 정부는 AI의 영향을 단순 기술 트렌드가 아닌, 정책적 위기로 인식해야 한다. AI의 안전성에 투자하고, AI로 인한 사회적 영향에 대한 연구자금을 지원하며, 명확한 규제 체계를 마련해야 한다. 기업 입장에서는 인간 중심적 소통을 유지하는 것이 경쟁우위가 될 수 있다. 단기적 효율성에 집착하는 기업들은 종종 최고의 인재를 잃는다. 반면 감성지능, 신뢰, 창의성에 투자하는 곳은 알고리즘이 복제할 수 없는 가치를 얻는다. AI는 본질적으로 해롭지 않다. 인공지능은 도구다. 하지만 인간이 사회생활의 많은 부분을 알고리즘에 맡길수록 공감, 연결 등 '인간적 요소'들을 잃을 위험에 처한다. 지금 행동하지 않으면 대화, 배려, 공동체가 기본적 권리가 아닌 세상을 맞이할 수도 있다.