2022년 11월 출시된 '챗GPT'는 인공지능에 기반해 질문에 답하거나 사용자가 요청하는 문장, 심지어 컴퓨터 코드까지 작성해 주는 챗봇이다. 챗GPT는 인터넷 애플리케이션 역사상 가장 빠르게 성장했고 불과 두 달 만에 활성 사용자 1억 명을 달성했다. 기술 모니터링 회사 '센서타운'에 따르면, 인스타그램 활성 사용자가 1억 명에 도달하기까지는 2년 반이 걸렸다.
마이크로소프트가 자금을 지원하고 오픈AI가 개발한 챗GPT는 엄청난 인기를 모은 동시에 인류의 미래에 대한 인공지능의 영향에 대해 격론을 촉발했다.
수십 명의 전문가들이 비영리기구 '인공지능안전센터'(Center for AI Safety) 웹사이트에 게시된 성명에 지지를 표했다. 성명에 따르면, "AI로 인한 멸종 위험을 완화하는 것이 전염병이나 핵 전쟁과 같은 사회적 규모의 다른 위협처럼 전 세계적 우선순위가 되어야 한다"는 것이다.
그러나, 우려가 과장됐다고 말하는 이들도 있다.
- 인간모방

챗GPT, 달리(DALL-E), 바드, 알파코드 등 AI가 생성하는 텍스트(에세이, 시, 농담은 물론 컴퓨터 코드까지)와 이미지(도표, 사진, 예술 작품 등)는 사람의 작업물과 구분하기 힘들 정도다.
학생들은 AI를 이용해 숙제를 하고, 정치인들은 연설문을 작성한다. 제이크 오킨클로스 민주당 하원의원은 미국 의회에서 관련 법안을 설명했다.
거대 테크기업 IBM은 AI가 대체할 수 있는 7800개의 일자리에서 채용을 중단하겠다고 밝혔다.
이 모든 변화에 놀랐다면, 앞으로 더 단단한 마음의 준비가 필요하다.
지금은 아직 AI 발전의 첫 단계에 불과하기 때문이다. 일부 과학자들은 앞으로 2단계, 3단계가 다가오면 인류의 생존이 위협받을 수 있다고 우려한다.
세가지 단계는 다음과 같다.
1.약인공지능
협소한 인공지능을 의미하는 '약인공지능'(NAI)은 특정 작업에 집중해 정해진 범위에서 반복 작업을 수행한다.

일반적으로 인터넷 등에서 많은 데이터를 학습하지만, 프로그래밍된 특정 영역을 벗어나지 않는다.
예를 들어, 체스 AI는 세계 챔피언을 이길 수 있지만 다른 작업은 수행하지 못한다.
스마트폰에는 이런 기술을 도입한 앱이 가득하다. 똑똑한 GPS 지도는 물론, 사용자의 취향을 파악해 음악이나 영상을 추천하는 앱도 있다.
자율주행이나 챗GPT는 더 정교해 보이지만, 약인공지능에 해당한다. 정해진 범위의 역할만 하므로, 스스로 결정을 내릴 수 없다.
하지만 일부 전문가들은 챗GPT나 오토GPT처럼 자동 학습이 프로그래밍된 시스템이 다음 단계로 발전할 수 있다고 생각한다.
2.범용인공지능
범용인공지능은 인간이 할 수 있는 모든 지적 작업을 기계가 수행할 수 있는 단계로, "강인공지능"이라고도 부른다.

2022년 3월, 1000명이 넘는 기술 전문가들이 "모든 AI 연구소가 (챗GPT 최신 버전) GPT-4보다 더 강력한 AI 시스템의 학습을 최소 6개월 동안 즉시 중단할 것"을 촉구했다.
애플의 공동 창립자 스티브 워즈니악은 테슬라 및 스페이스X의 소유주 일론 머스크를 비롯한 기술 거물들과 함께 "인간에 뒤지지 않는 지능을 갖춘 AI 시스템은 사회와 인류에 심각한 위험을 초래할 수 있다"고 썼다. 머스크는 오픈AI의 공동 창립자였으나, 경영진과 의견이 달라 이사회에서 사임했다.
이 전문가들은 비영리단체 '퓨쳐오브라이프 인스티튜트'(FLI) 이름의 서한을 통해 기업들이 프로젝트를 바로 중단하지 않는다면 안전 조치를 설계하고 시행할 수 있도록 "정부가 나서서 활동을 중단시켜야 한다"고 주장했다.
3.초인공지능
3단계 이론에 따르면, 강인공지능(AGI)에 도달한 다음에는 최종 단계인 "초인공지능"(ASI)에 진입하게 된다. 인공지능이 인간의 지능을 추월하는 단계다.

옥스퍼드 대학에서 근무하는 철학자 겸 AI 전문가 닉 보스트롬은 초지능을 "과학적 창의성, 범용적 지혜, 사회적 기술 등 거의 모든 분야에서 인류 최고의 두뇌를 크게 능가하는 지성"이라고 정의한다.
구티에레즈는 "사람이 엔지니어, 간호사, 변호사가 되려면 오랜 시간 공부해야 하지만 AGI는 짧은 시간 동안 스스로 계속 발전할 수 있다"며 "이런 식의 발전은 인간에겐 불가능하다"고 설명했다.
멸종인가 불멸인가
영국의 물리학자 스티븐 호킹은 심각한 경고를 전한 바 있다.
세상을 떠나기 4년 전, BBC와의 2014년 인터뷰에서 "완전한 인공지능의 개발은 인류 종말을 의미할 수 있다"고 말한 것이다.

당시 호킹은 이 정도의 지능을 갖춘 기계라면 "혼자 힘으로 도약해 점점 더 빠르게 스스로를 재설계할 것"이라고 말했다.
한편, AI를 가장 열렬히 지지하는 사람 중에는 레이 커즈와일이 있다. 커즈와일은 구글의 AI 연구원이자 실리콘밸리 싱귤래리티 대학의 공동 설립자로, 미래주의 발명가 겸 작가다.