'AI 위험 막는다'…챗GPT 개발사 오픈AI '대응 조직' 구축세 줄 요약이 뉴스 공유하기본문 글자 크기 조정

  28 10월 2023

오픈AI

[로이터 연합뉴스 자료사진. 재판매 및 DB 금지]

(샌프란시스코=연합뉴스) 김태종 특파원 = 인공지능(AI) 기술의 급속한 발전과 함께 위험성에 대한 우려가 제기되는 가운데 챗GPT 개발사 오픈AI가 AI가 가져올 위험에 대비하기 위한 조직을 신설했다.

오픈AI는 AI의 '재앙적 위험'을 줄이기 위해 자체 '대비팀'(preparedness team)을 구축했다고 27일(현지시간) 밝혔다.

이 조직은 AI가 야기할 수 있는 "치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표로 할 것"이라고 오픈AI는 설명했다.

또 AI가 핵무기 등의 무기에 사용되는 '화학적, 생물학적, 방사능적 위협'과 함께 AI가 스스로 복제하는 위험인 '자율 복제'에도 대응한다고 덧붙였다.

오픈AI는 "우리는 현재 가장 진보된 기존 모델의 기능을 뛰어넘는 프런티어 AI 모델이 인류에게 혜택을 줄 수 있는 잠재력이 있다고 믿는다"면서도 "하지만 이는 점점 더 심각한 위험을 초래할 수도 있다"고 우려했다.

이어 "이런 위험한 상황을 피하려면 새로운 AI 시스템의 위험한 기능을 예측하고 사람들을 보호할 수 있는 뼈대를 구축해야 한다"며 "이것이 새로운 팀의 임무 중 하나가 될 것"이라고 말했다.

이 조직은 현재 매사추세츠공대(MIT)의 머신러닝(기계학습) 센터장을 맡고 있는 알렉산더 매드리가 이끌게 된다. 조직 규모는 알려지지 않았다.

오픈AI의 최고경영자(CEO)인 샘 올트먼은 앞서 AI로 인한 재앙 가능성을 경고한 바 있다.

그는 지난 5월 다른 AI 연구자들과 함께 "AI로 인한 위험을 완화하는 것이 글로벌 우선순위가 돼야 한다"는 성명을 발표하고 인류의 절멸 가능성까지 언급하며 AI 기술 통제 필요성을 주장한 바 있다.

또 각국 정부가 AI를 핵무기처럼 "심각하게" 다뤄야 한다고 강조하기도 했다.

taejong75

면책 조항: 이 글의 저작권은 원저작자에게 있습니다. 이 기사의 재게시 목적은 정보 전달에 있으며, 어떠한 투자 조언도 포함되지 않습니다. 만약 침해 행위가 있을 경우, 즉시 연락해 주시기 바랍니다. 수정 또는 삭제 조치를 취하겠습니다. 감사합니다.