By 박동수 2018.11.12
'자비스'가 현실로 나타났다
지난 5월 구글은
본사가 있는 캘리포니아주 마운틴뷰에서
개발자를 위한 연례 행사인
'구글 I/O(Input /Output) 2018'를 열고,
새로운 기술과 하드웨어,
그리고 신규 서비스를 공개하였습니다.
(I/O 2018 ⓒ구글)
구글은 최근 몇 년간 이 행사를 통해
회사의 정체성과 목표가
"모바일 우선(mobile-fisrt)"에서
"인공지능 우선(AI-first)"으로
바뀌었음을 밝혔고,
*인공지능(AI: Artificial Intelligence)
올해는
"모두를 위한 AI(AI for everyone)"란
주제로 구글의 새로운 AI 서비스들을
발표하고 시연하는 시간을 가졌습니다.
AI를 통한 사회적 문제 해결 및
구글 제품의 편의성을 높여주는 AI 기술 등
AI와 관련된 새로운 기술과
서비스가 다양하게 소개 되었지만,
사람들의 이목을 가장 많이 끈 것은
순다 피차이 구글 CEO가 직접 시연을 한
'구글 듀플렉스(Google Duplex)'였습니다.
(ⓒ구글)
이날 피차이 CEO는
기존엔 단순한 대화 서비스에 불과했던
구글 어시스턴트가,
'알파고'를 만든 구글 딥마인드팀과 개발한
웨이브넷 모델을 통해 더욱 자연스러운
목소리를 만들어내는 기술이 추가되어
획기적으로 진화한 모습을 보여주었습니다.
인공지능이 진짜 비서 또는
사람처럼 미용실에 전화를 하고
예약까지 잡는 모습을 시연한 것입니다.
다음은 AI, 구글 듀플렉스가
실제로 미용실 주인과
대화를 나눈 내용입니다.
어떠셨나요?
미용실 직원은 예약을 받고
전화를 끊는 순간까지
전화를 건 상대방이 사람이라고 생각했지
전혀 AI일꺼라고 생각을 못했다고 합니다.
사실상 튜링 테스트를 통과한
구글 듀플렉스
여러분은 혹시
튜링 테스트(Turing Test)를 아시나요?
튜링 테스트는 1950년
영국의 수학자 앨런 튜링이 제안한 모델로,
기계가 인간과 얼마나 비슷하게
대화할 수 있는가를 기준으로
기계에 지능이 있는지를
판별하는 테스트입니다.
(컴퓨터 시스템의 기초를 세우며 인류의 역사를 바꾼 업적을 세워지만 동성애로 인한 핍박으로 자살한 비운의 수학자 앨런 튜링의 삶은 영화로도 제작되었다. ⓒ위키피디아, 네이버 영화)
이 테스트의 핵심은
사용자가 컴퓨터의 반응을
인간과 구별할 수 없다면,
확실히 그 컴퓨터는
생각(사고, Thinking)할 수 있는
능력이 있다고 간주해야 한다는 것입니다.
2014년 6월 영국의 레딩 대학은
'유진 구스트만'이라는 슈퍼 컴퓨터에서
작동한 프로그램 '유진'이
튜링 테스트를 통과했다고 발표했습니다.
5분간 유진과 실제 사람간의
텍스트 대화를 통해
심사위원 중 33% 이상에게
'유진은 진짜 사람'이라고 판단하게 했다고
레딩 대학의 케빈 워릭 교수가 밝힌 것이죠.
(슈퍼 컴퓨터 '유진 구스트만'에서 작동되는 '유진' ⓒ위키피디아)
그러나 이 발표에 대해
많은 전문가가
회의적인 반응을 보이고 있습니다.
그 이유는 '유진'이라는 프로그램이
상대방의 문장에 반응하고 추론하는
인공지능이라기보다는
미리 만들어진 규칙(알고리즘)에 의거하여,
입력한 문장에 따라
정해진 대답을 하는 방식으로
작동했기 때문입니다.
이는 스스로 생각해서 자율적으로 대응하는
인공지능과는 거리가 멀죠.
(쉽게 생각해서 심심이 같은 프로그램이었던 것입니다. ⓒ심심이)
또한 사전에 '유진'을 일반 어른이 아닌
우크라이나에 사는
13세의 아이라고 설정하여,
'유진'이 대답을 잘 못 하더라도
평가자로 하여금 충분히 납득할 수 있는
여지를 주기도 했습니다.
진짜가 나타났다!
이렇게 튜링 테스트를 통과하기가
쉽지 않았던 상황에서,
구글은 자사 행사를 통해
참석자 아니 어쩌면 전 세계를 대상으로
튜링 테스트를 진행했고
사실상 성공한 것으로 인정받고 있습니다.
게다가 '유진'은 채팅처럼 텍스트를
주고 받는 형태였지만 '구글 듀플렉스'는
음성으로 대화를 주고 받았습니다.
심지어 "으흠(mm-hmm)"이라는
추임새까지 활용하여
상대방 및 보는 사람들로 하여금
전혀 위화감을 못 느끼게 했죠.
(사람처럼 추임새를 넣는 구글 듀플렉스 ⓒ구글)
이렇듯 기술적으로는 놀라운 발전을
보여준 구글과 구글 어시스턴트이지만,
한편에서는 비윤리적이라는
비판이 쏟아지고 있습니다.
우선 사람과 같은 목소리와 억양을 가진
AI가 스스로 AI라는 것을 밝히지 않고
대화하는 것이 정당하느냐는 것입니다.
이에 구글은 AI를 업무에 적용했을 때
"상대방이 AI라는 것을 알면 바로
전화를 끊어버릴 것"이라면서
사람과 닮은 AI의 필요성을 주장했지만,
논란이 계속 되자 "전화를 걸 때,
이 통화는 AI가 하는 것이고
그 내용은 녹음된다는 사실을
먼저 알리겠다"고 한 발짝 물러났습니다.
그리고 남은 윤리적 문제점
이렇듯 불과 몇 년 사이에
AI의 발전 속도가 예상보다 빨라지자
세계적으로 AI 윤리와 관련된
지침의 필요성이 대두되고 있고,
이에 선진 국가와 기업들을 중심으로
AI와 윤리에 대한 논의를 진행 중입니다.
유럽에서는 유럽연합(EU)의 주도하에
상용화된 AI에 적용할 수 있는
윤리 지침을 논의하고 있는데,
AI에 인권을 부여할 수 있는지,
법적인 책임은 어디까지 인지가
주요 쟁점입니다.
또한 미국의 대표적인 IT 기업인
구글, 아마존, MS 및 페이스북 등을 포함한
10개 국가 70개 이상의 기업들이 모여
비영리단체 '파트너십 온 AI'을 설립하여,
AI가 인류사회에 어떤 영향을 미치는지
논의하고 관련된 윤리 문제에 대한
해결책을 공동 연구하고 있습니다.
(Partnership on AI, 정식 명칭은 Partnership on Artificial Intelligence to Benefit People and Society, ⓒpartnershiponAI)
사람을 죽이도록 설계돼야 하는 인공지능
한편, 인공지능과 관련해서
또 하나 논의될 부분이 있습니다.
터미네이터나 매트릭스 같은 영화에서는
인공지능이 인류와 전쟁을 벌입니다.
아직까지 영화 같은 상황이 닥치진 않았지만
앞서 언급한 것처럼 인공지능의
윤리성과 규범에 대해서는
지금도 많은 논란이 야기되고 있는데요,
그중에서 가장 대표적인 이슈는
자율주행자동차에 관한 것입니다.
2015년 10월 22일,
메사추세츠 공과대학(MIT)에서는
충격적인 제목의 논문을 발표했습니다.
바로 "자율주행자동차가
누군가를 죽이도록 설계되어야 하는 이유
(Why Self-Driving Cars Must Be
Programmed to Kill)"라
댓글 0