아마존은 라스베이거스에서 열린 ‘리마스(re:MARS)’ 컨퍼런스에 알렉사 신기능을 발표했다. 알렉사의 신 기술은 약 1분 정도 사람의 목소리를 입력하면 필터를 통해 그 사람의 목소리 필터를 통해 알렉사가 음성으로 대답할 수 있다는 내용이다.
키노트 시연 영상에서 침대 머리맡에 놓인 테이블 위에 놓인 에코닷은 “알렉사, 할머니가 ‘오즈의 마법사’를 다 읽어주실 수 있나요?”라는 과제를 완성해 달라는 요청을 받았다.
알렉사의 전형적으로 명랑한 목소리가 팬더 디자인의 스마트 스피커에서 터져 나왔다: “좋아요!” 그리고 알렉사는 용기를 구걸하는 겁쟁이 사자의 장면을 나레이션을 사람의 목소리로 읽어주기 시작했다.
알렉사의 인공지능 수석 부사장이자 수석 과학자인 로히트 프라사드는 “책을 읽고 있는 소리는 알렉사가 아니라 아이의 할머니 목소리입니다”라고 수요일 라스베이거스에서 열린 기조연설에서 흥분해서 설명했다.
이 데모는 알렉사의 최신 기능을 처음으로 엿볼 수 있는 것이었는데, 음성 비서는 아직 개발 중이지만 짧은 오디오 클립에서 사람들의 목소리를 복제할 수 있었다. 프라사드는 인공지능에 ‘공감과 영향’이라는 인간의 속성을 불어넣어 사용자와 더 큰 신뢰를 쌓는 것이 목표라고 말했다.
프라사드는 이 새로운 기능이 “사랑하는 사람들의 기억을 오래도록 만들 수 있다”고 말했다. 그러나 죽은 친척의 목소리를 들을 수 있다는 전망은 심금을 울릴 수도 있지만, 그것은 또한 수많은 안보와 윤리적인 우려를 불러일으킨다고 전문가들은 말했다.
워싱턴포스트는 보도를 통해 이 기술의 위험을 경고했다. 샌프란시스코에 본부를 둔 Social Proof Security의 최고 경영자인 Rachel Tobac은 “나는 우리 세계가 사용자 친화적인 음성 복제 기술을 위한 준비가 되어 있다고 생각하지 않습니다.”라고 워싱턴 포스트에 말했다. 그녀는 그러한 기술은 가짜 오디오나 비디오 클립을 통해 대중을 조종하는 데 사용될 수 있다고 덧붙였다. “사이버 범죄자가 작은 음성 샘플로 다른 사람의 목소리를 쉽고 믿을 수 있게 복제할 수 있다면, 그들은 다른 개인을 사칭하기 위해 그 음성 샘플을 사용할 수 있습니다”라고 사이버 보안 전문가인 토박은 덧붙였다. “그 나쁜 행위자는 다른 사람을 속여 자신이 가장하고 있는 사람이라고 믿게 만들 수 있으며, 이는 사기, 데이터 손실, 계정 탈취 등으로 이어질 수 있습니다.”
호주 커틴 대학의 인터넷학 교수인 타마 리버는 “사람과 기계 사이의 경계를 모호하게 만들 위험이 있다”고 말했다. 이어 “할머니나 할아버지의 목소리, 또는 잃어버린 사랑하는 사람의 목소리와 이야기를 나누면 아마존의 깊은 곳과 데이터 수집 서비스를 떠올릴 수 없을 것입니다. 어떤 면에서는, 그것은 ‘블랙 미러’의 한 에피소드와 같다”고 말했다.