새로운 연구에 따르면 YouTube와 같은 플랫폼에서 콘텐츠를 선별하는 개인화된 추천 시스템도 사람들의 학습 방식을 방해할 수 있다고 합니다. 연구에 따르면 알고리즘이 학습 과제 중에 어떤 정보가 나타날지 결정할 때 해당 주제에 대한 배경 지식이 없는 참가자는 표시된 정보의 작은 부분에만 집중하는 경향이 있는 것으로 나타났습니다.
사용 가능한 자료를 덜 탐색했기 때문에 이러한 참가자는 나중에 테스트에서 질문에 잘못 대답하는 경우가 많았습니다. 틀렸음에도 불구하고 그들은 자신의 답변에 대해 높은 자신감을 표현했습니다.
오하이오 주립대학교에서 심리학 박사 논문의 일부로 이 연구를 수행한 박기원은 이러한 결과가 우려를 낳고 있다고 말했습니다.
알고리즘은 사전 지식 없이도 편향을 일으킬 수 있음
개인화된 알고리즘에 대한 기존 연구의 대부분은 사람들이 이미 어느 정도 알고 있는 정치나 사회 문제에 대한 의견에 알고리즘이 어떻게 영향을 미치는지 조사합니다.
“그러나 우리 연구는 당신이 어떤 주제에 대해 아무것도 모르는 경우에도 이러한 알고리즘이 즉시 편견을 형성하기 시작하고 현실에 대한 왜곡된 견해로 이어질 수 있다는 것을 보여줍니다.”라고 현재 펜실베니아 주립 대학의 박사후 연구원인 Bahg는 말했습니다.
연구 결과는 실험 심리학 저널: 일반.
연구 공동 저자이자 오하이오 주립대 심리학 교수인 브랜든 터너(Brandon Turner)는 이번 결과는 사람들이 알고리즘이 제공하는 제한된 정보를 신속하게 받아들이고 광범위하고 종종 근거 없는 결론을 도출할 수 있음을 시사한다고 말했습니다.
Turner는 “사람들은 알고리즘을 따를 때 정보를 놓치지만, 자신이 알고 있는 정보가 환경의 다른 기능과 부분에 일반화된다고 생각합니다.”라고 Turner는 말했습니다.
영화 추천 예시
이러한 편견이 어떻게 나타날 수 있는지 설명하기 위해 연구자들은 간단한 시나리오를 설명했습니다. 특정 국가의 영화를 본 적이 없는 사람이 영화를 보기로 결정하는 것입니다. 주문형 스트리밍 서비스는 추천을 제공합니다.
시청자는 액션 스릴러가 목록 상단에 나타나기 때문에 선택합니다. 그런 다음 알고리즘은 시청자가 계속 선택하는 더 많은 액션 스릴러를 홍보합니다.
저자들은 “명시적이든 암묵적이든 이 사람의 목표가 실제로 이 나라 영화의 전반적인 상황을 이해하는 것이라면 알고리즘 추천은 결국 그 사람의 이해를 심각하게 편향시키는 결과를 낳게 됩니다.”라고 썼습니다.
한 장르만 보면 다른 카테고리의 강력한 영화를 간과할 수 있습니다. 또한 그들은 해당 영화에 등장하는 문화나 사회에 대해 부정확하고 지나치게 광범위한 가정을 형성할 수도 있다고 저자는 지적했습니다.
테스트 알고리즘 가상의 생물에 대한 효과
Bahg와 그의 연구팀은 346명의 온라인 참가자를 대상으로 이 아이디어를 실험적으로 탐구했습니다. 누구도 사전 지식을 가져오지 않도록 하기 위해 연구자들은 완전히 허구적인 학습 과제를 사용했습니다.
참가자들은 여러 유형의 수정 같은 외계인을 연구했는데, 각 유형은 범주에 따라 다양한 6가지 특징으로 정의되었습니다. 예를 들어, 외계인의 정사각형 모양 부분 중 하나는 일부 유형에서는 짙은 검정색으로 나타나고 다른 유형에서는 옅은 회색으로 나타날 수 있습니다.
목표는 얼마나 많은 유형이 존재하는지 알지 못한 채 각 외계 유형을 식별하는 방법을 배우는 것이었습니다.
알고리즘이 학습을 안내하는 방법
실험에서 외계인의 모습은 회색 상자 뒤에 숨겨져 있었습니다. 한 가지 조건에서는 참가자들이 각 외계인에 대한 전체 정보 세트를 보려면 모든 기능을 클릭해야 했습니다.
또 다른 조건에서는 참가자가 검사할 기능을 선택하고 개인화 알고리즘이 가장 자주 샘플링할 항목을 선택했습니다. 이 알고리즘은 시간이 지남에 따라 동일한 기능을 반복적으로 검사하도록 유도했습니다. 원하는 기능은 무엇이든 볼 수 있지만 다른 기능을 완전히 건너뛰는 것도 허용되었습니다.
결과는 개인화된 알고리즘에 의해 안내된 사람들이 전체적으로 더 적은 수의 특징을 확인했으며 패턴화되고 선택적인 방식으로 그렇게 했다는 것을 보여주었습니다. 나중에 이전에 본 적이 없는 새로운 외계 표본에 대한 테스트를 받았을 때 그들은 자주 잘못 정렬했습니다. 그럼에도 불구하고 참가자들은 자신의 답변에 자신감을 유지했습니다.
Bahg는 “그들은 자신의 선택이 옳았을 때보다 실제로 선택이 틀렸을 때 훨씬 더 확신을 갖고 있었는데, 이는 그들이 지식이 적었기 때문에 우려되는 일”이라고 말했습니다.
어린이와 일상 학습에 대한 시사점
Turner는 이러한 발견이 실제적인 의미를 갖는다고 지적했습니다.
“세상에 대해 진심으로 배우려고 노력하는 어린 아이가 있고, 사용자가 더 많은 콘텐츠를 소비하도록 하는 것을 우선시하는 온라인 알고리즘과 상호 작용하고 있다면 어떤 일이 일어날까요?” 터너가 말했다.
“유사한 콘텐츠를 소비하는 것은 학습과 일치하지 않는 경우가 많습니다. 이는 사용자와 궁극적으로 사회에 문제를 일으킬 수 있습니다.”
오하이오 주립대 심리학 교수인 Vladimir Sloutsky도 공동 저자였습니다.
출처: https://www.sciencedaily.com/releases/2025/11/251125081912.htm

답글 남기기