[Neo 커뮤니케이션] 내 생각과 선택 유도하는 ‘필터 버블’ 함정 조심
‘스피커형 인공 비서’ ‘스마트폰 속 인공지능(AI)’ 등 다양한 형태와 모양의 가상 비서는 어느 순간부터 우리 일상에 깊숙이 들어와 자리 잡고 있습니다. 하지만 기술이 빠르게 성장하는 만큼 일각에서는 이에 대한 우려의 목소리도 커지고 있습니다.
플레시먼힐러드가 올해 전 세계 소비자를 대상으로 실시한 ‘진정성 갭(Authenticity Gap)’ 조사 결과에 따르면 소비자들이 혁신적 기술과 이노베이션만을 기대하는 것은 아니라는 것을 확인할 수 있습니다. 소비자의 81.6%는 제품 개발과 제조 등 전 과정의 투명성을 제품 가치 평가의 중요 요소로 꼽았으며, 73%는 기업이 법과 규정을 지키는 것에서 더 나아가 사회적 이슈에 대해 윤리적·도덕적 의사 결정을 하기를 기대한다고 답했습니다.
나의 마음을 추측해서 제안하는 대로 좋다고 편하다고 익숙해지면 ‘필터 버블(Filter bubble)’의 함정에 빠져 심한 편식자가 될 수 있습니다. 머신러닝의 근간인 데이터는 편향성이 있기 때문에, 머신러닝은 객관적이거나 윤리적일 수 없고, 상업적 용도로 다양하게 각색되어 내게 접근할 수도 있습니다. 쉐리 터클 MIT 교수 역시 도저히 의심하기 힘든 ‘귀여운 외모’로 접근하는 인공 비서를 내 공간에 들이기 전에 한번 더 생각하라고 조언 합니다.
이제 우리는 현명한 질문을 던져야 할 때 입니다. 언론·전문가·기업·정부·국회가 함께 최대한 많은 질문을 꺼내 놓고 투명하고 솔직한 대화로 타협점을 찾아야 합니다. 5세대 통신 상용화를 위해 업계와 정부가 함께 투자하고 열정을 쏟는 것처럼 알고리즘이 더 투명하고 스마트한 의사 결정을 하도록 집단 지성을 발휘해야 할 때 입니다.
더 자세한 내용은 중앙SUNDAY 기고 원문을 참고해 주시기 바랍니다.