알림마당

인공지능 ‘4대 거물’의 엇갈린 걸음 [유레카]
2023-05-08

 

1919년 양성자를 발견한 당대 최고의 핵물리학자 어니스트 러더퍼드는 1933년 9월11일 영국의 한 학회에서 “원자를 에너지원으로 삼으려는 시도는 모두 헛짓”이라고 연설했다. 헝가리의 물리학자 레오 실라르드는 연설이 실린 신문기사를 읽은 뒤 중성자 유도 핵 연쇄반응을 고안해냈다. 실라르드는 이듬해 비밀리에 원자로 특허를 출원했고 이는 핵무기의 출발점이 됐다. 스튜어트 러셀 버클리 캘리포니아대 교수는 기술 개발에서 경계선을 정하는 게 얼마나 위험한지, 핵개발을 사례로 든다.(스튜어트 러셀 <어떻게 인간과 공존하는 인공지능을 만들 것인가>

 

인공지능의 위험성 논의에 거론되는 핵물리학 사례가 챗지피티 논쟁에 다시 소환됐다. 인공신경망을 개발한 인공지능의 개척자이자 대부인 제프리 힌턴 토론토대학 교수가 “나의 일생을 후회한다”고 지난 1일 <뉴욕 타임스>와의 회견에서 술회했다. 힌턴은 인공지능의 위험성에 대해 자유롭게 말하기 위해서 10년 넘게 몸담아온 구글을 사직했다. 힌턴의 후회는 제2차 세계대전 중 로스앨러모스연구소장으로 원자폭탄 개발 맨해튼프로젝트를 지휘한 로버트 오펜하이머의 발언을 연상시킨다. 오펜하이머는 원폭 투하로 숱한 생명이 희생된 뒤 “나는 죽음의 신, 세상의 파괴자가 되었다”고 참회하며 이후 수소폭탄 개발에 끝내 참여하지 않았다.

 

힌턴은 국제적 규제를 도입하지 않으면 오픈에이아이(OpenAI)와 구글 등 거대 기술기업들이 벌이는 위험한 인공지능 기술 경쟁을 멈출 수 없을 것이라고 주장했다. 힌턴은 지난달 일론 머스크, 요슈아 벤지오, 유발 하라리 등이 ‘삶의 미래 연구소’(FLI)와 함께 발표한 “안전 규약을 만들기 위해 인공지능 연구개발을 6개월간 유예하자”는 성명에 참여하지 않았지만, 이번에 강력한 지지자로 가세한 셈이다.

 

힌턴의 참여로, 인공지능 4대 거물이 모두 성명의 찬반에 참여한 꼴이 됐다. 요슈아 벤지오 몬트리올대 교수와 제프리 힌턴은 현재 2만7천명 넘게 참여한 “인공지능 개발 유예” 성명에 가세했다. 페이스북의 인공지능 개발을 이끄는 얀 르쾽 뉴욕대 교수와 구글 자율주행차와 바이두의 인공지능 개발을 주도한 앤드루 응 스탠퍼드대 교수는 성명에 반대하며 “인공지능에 대한 규제가 필요할 뿐 개발 유예는 어리석은 일”이라고 뜻을 같이했다.

 

구본권 사람과디지털연구소장 [email protected]