호킹 “AI, 인류 문명사 최악 사건 될 수도”

호킹 “AI, 인류 문명사 최악 사건 될 수도”

김민희 기자
입력 2017-11-07 23:16
수정 2017-11-08 01:26
  • 기사 읽어주기
    다시듣기
  • 글씨 크기 조절
  • 댓글
    0

“인간 지능 뛰어넘을 수 있어… 잠재적 위험 인지·대비해야”

세계적 물리학자인 스티븐 호킹(75) 박사가 “인공지능(AI) 기술이 인류 문명사에서 최악의 사건이 될 수 있다”고 경고했다.
스티븐 호킹 박사. AP 연합뉴스
스티븐 호킹 박사.
AP 연합뉴스
호킹 박사는 6일(현지시간) 포르투갈 리스본에서 열린 ‘웹 서밋 기술 콘퍼런스’에서 “이론적으로는 컴퓨터가 인간의 지능을 모방하고 이를 뛰어넘을 수 있다”며 이같이 우려했다고 CNBC방송이 전했다. 그는 미래는 불확실하다고 인정하면서도 “우리가 AI에게 큰 도움을 받을지, 아니면 AI에 의해 무시당하거나 열외로 취급되거나 상상컨대 파괴될지 알 수 없다”고 말했다. 그는 이어 “우리가 (AI에) 대비하고 잠재적 리스크를 회피하는 방법을 배우지 않는다면 AI는 우리 문명사에서 최악의 사건이 될 수 있다”면서 “AI는 강력한 자동화무기 같은 위험을 초래하거나 소수가 다수를 압제할 수 있는 방법도 고안할 수 있다. AI는 우리 경제에 커다란 혼란을 야기할 수 있다”고 지적했다. 호킹 박사는 몇몇 전개가 희망을 주고 있다고 말하기도 했다. 최근 AI와 로봇 산업에 대한 새로운 규칙을 정하기 위해 유럽 의회에서 입법 작업이 진행되고 있는 것이 좋은 예다. 이를 언급하면서 호킹 박사는 “나는 낙관주의자다. 우리가 세계에 도움이 되는 AI를 만들 수 있다고 믿고 있다. 다만 우리는 위험을 인지하고 미리 결과에 대비하는 것이 필요하다”고 말했다.

그가 AI의 위험성을 경고한 것은 처음이 아니다. 지난 3월 영국 더타임스 인터뷰에서 호킹 박사는 기후변화와 AI를 인류가 직면한 새로운 도전이라고 정의하며 “우리는 이런 위협을 빨리 인지하고 그들이 조종 불능이 되기 전에 바로잡아야 한다”고 주장했다. 그는 이어 “이것은 새로운 형태의 세계정부일 수 있다. 그러나 이것은 독재가 될 수도 있다. 이 모든 것이 파국을 예측하는 것처럼 들리겠지만 나는 인류가 이런 도전에 응전할 수 있으리라고 본다”고 밝혔다.

최근 과학계와 정보기술(IT)업계 등에서는 AI에 대한 찬반양론이 거세다. 테슬라와 스페이스X의 최고경영자(CEO) 일론 머스크는 호킹 박사처럼 AI에 대해 우려하는 쪽이다. 그는 지난 9월 트위터를 통해 “북한 수소폭탄 실험은 사소한 위기에 불과하다. 현존 인류를 가장 위협하는 것은 국가 간 AI 경쟁이다. 이것은 3차 세계대전의 원인이 될 가능성이 크다”고 말하기도 했다. 반면 마크 저커버그 페이스북 CEO는 “AI의 미래에 대해 매우 낙관적”이라고 밝혔다.

김민희 기자 haru@seoul.co.kr

2017-11-08 27면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
close button
많이 본 뉴스
1 / 3
광고삭제
광고삭제
위로