시사1 김기봉 기자 | 인공지능(AI) 기술의 사회적 파장을 둘러싼 논쟁이 거세지는 가운데, 샘 올트먼 오픈AI 최고경영자(CEO)가 다시 한 번 명확한 선택을 했다. 성적 콘텐츠 생성 기능 도입에 반대해 온 안전 담당 임원을 해고하고, 내부 정보 유출 방지에도 AI를 적극 활용하는 등 ‘성장과 실행’을 우선하는 리더십을 분명히 했다는 평가다.
13일 월스트리트저널(WSJ)을 비롯한 주요 외신에 따르면 오픈AI는 제품 정책팀을 이끌던 라이언 바이어마이스터 부사장을 지난달 초 해고했다. 회사는 성차별 문제를 사유로 들었지만, 바이어마이스터 전 부사장은 성애물 관련 기능 도입과 청소년·아동 보호 체계의 미비를 내부에서 강하게 문제 삼아 온 인물이다. 오픈AI는 그의 문제 제기와 해고는 무관하다고 밝혔지만, 업계에선 경영진과 안전 라인 간 충돌이 표면화된 사건으로 보고 있다.
이번 결정은 올트먼 CEO의 기존 인식과 맞닿아 있다. 그는 지난해 성인 이용자에 한해 성적 콘텐츠 이용을 허용하겠다는 방침을 밝히며 “우리는 선출된 도덕 경찰이 아니다”라고 말했다. 기술 기업이 모든 윤리적 판단의 최종 심판자가 될 수 없으며, 성인 이용자의 선택권 역시 존중돼야 한다는 논리다. 안전을 이유로 제품 확장을 늦추기보다, 명확한 기준 아래 실행을 택한 것이다.
내부 통제 방식에서도 같은 기조가 읽힌다. 오픈AI는 언론 보도에 대응해 내부 정보 유출자를 찾기 위해 특수 버전의 챗GPT를 활용하는 것으로 전해졌다. 내부 문서·메신저 접근 기록을 AI로 교차 분석하는 방식이다. 기술 혁신의 속도를 늦추는 내부 리스크를 기술로 관리하겠다는 판단이다.
물론 논란의 소지는 남는다. AI 기업의 사회적 책임과 안전성 확보는 여전히 핵심 과제다. 그러나 급변하는 글로벌 AI 경쟁 구도 속에서 올트먼 CEO는 모호한 중간 지대 대신, 방향성과 실행력을 택했다. 안전 논쟁을 ‘결단의 영역’으로 끌어올린 이번 선택은 오픈AI가 어디까지 나아가려는지 분명히 보여주는 신호로 읽힌다.










