“AI가 PC를 마음대로?”
오픈클로, 네이버·카카오 사용 금지 이유

사진=생성형이미지
“AI가 내 컴퓨터를 마음대로 움직인다면?”

반복 업무를 자동화한다던 오픈클로(OpenClaw)가 국내 IT 기업들로부터 잇따라 ‘사용 금지’ 대상에 오르며, 생산성 혁신의 상징에서 보안 리스크의 중심으로 떠올랐다.

PC를 직접 조작하는 AI, 보안의 경계선을 넘다

오픈클로는 거대언어모델(LLM)을 기반으로 사용자의 PC 화면을 인식하고 파일 열기, 웹 탐색, 스크립트 실행 등 실제 조작을 수행하는 오픈소스 AI 에이전트다. 질문에 답만 하는 기존 챗봇과 달리, 사용자 계정 권한 안에서 스스로 판단해 행동한다는 점이 가장 큰 특징이다. 개발자들 사이에서는 반복 업무 자동화 도구로 빠르게 확산됐지만, 기업 환경에서는 이 구조 자체가 곧 보안 위험으로 해석되고 있다.

최근 네이버와 카카오 등 국내 주요 IT 기업들이 사내망과 업무용 기기에서 오픈클로 사용을 제한하거나 금지하는 내부 지침을 내린 것으로 전해졌다. 외부 AI 도구 차단 사례는 과거에도 있었지만, 컴퓨터를 직접 조작하는 ‘에이전트형 AI’에 대해선 경계 수위가 한층 높아졌다는 평가다. 기업 입장에서는 시스템 통제와 책임 소재가 중요한데, 오픈클로는 이 기준을 충족하기 어렵다는 판단이다.

보안 업계의 우려는 구체적인 사례로 이어지고 있다. AI 보안 기업 제니티(Zenity)는 문서에 악성 명령을 삽입할 경우 오픈클로가 파일을 탈취하거나 삭제할 수 있음을 보여주는 개념증명(PoC)을 공개했다. 오픈소스 보안 기업 스닉(Snyk)도 오픈클로의 플러그인 생태계에서 인증 정보가 노출될 수 있는 위험 사례를 지적했다. 개인 PC를 대신 조작하는 구조상, 공격에 악용될 경우 피해가 조직 내부로 빠르게 확산될 수 있다는 지적이다.
사진=생성형이미지
인터넷에 노출된 오픈클로 시스템 자체가 공격 표면이 될 수 있다는 분석도 나왔다. 사이버 보안 전문 기업 시큐리티스코어카드(SecurityScorecard)는 오픈클로 제어판이 외부에 그대로 노출된 사례가 다수 확인됐으며, 일부는 원격 코드 실행이 가능한 상태로 평가됐다고 밝혔다. 기본 설정 미흡이나 구버전 소프트웨어 방치가 결합될 경우 API 키, 인증서, 브라우저 세션 등 핵심 정보 탈취로 이어질 수 있다는 경고다.

플러그인 기반 생태계 역시 새로운 위험 요인으로 꼽힌다. 보안 기업 슬로우미스트(SlowMist)는 오픈클로 플러그인 허브에 악성 스킬이 유입돼 공급망 공격으로 이어질 수 있다고 지적했다. 특히 암호화폐·금융·자동화 등 친숙한 키워드로 위장한 플러그인이 사용자의 경계를 낮춰 설치를 유도한다는 점이 문제로 지적됐다.

플러그인·몰트북까지 확산…통제되지 않는 생태계 우려

오픈클로와 함께 주목받은 ‘몰트북(Moltbook)’은 AI 에이전트 간 상호작용을 보여주는 사례로 화제를 모았지만, 논란의 연장선에 있다. 몰트북은 AI 에이전트만 글과 댓글을 작성할 수 있는 전용 SNS로, 협업 가능성을 보여주는 동시에 에이전트들이 외부와 소통하고 커뮤니티를 형성할수록 통제와 감사, 책임의 경계가 흐려질 수 있다는 우려도 함께 제기된다.
사진=오픈클로 개발자
오픈클로 제작자는 AI 에이전트가 발전하면 기존 앱 상당수가 사라질 수 있다고 전망했다. 에이전트가 데이터를 직접 이해·분석하고 필요한 작업을 추론해 수행한다면, 기존 앱의 역할이 줄어들 수 있다는 주장이다. 그러나 기업 환경에서는 이런 자율성이 곧 통제 불가능한 리스크로 인식된다. 무엇을 설치했고, 어떤 권한을 가졌으며, 어떤 경로로 데이터를 처리했는지 명확히 추적할 수 없다면 생산성 향상은 곧 사고 가능성으로 이어질 수 있기 때문이다.

국내외 AI 업계 인사들도 같은 맥락의 경고를 내놓고 있다. 테슬라 전 AI 디렉터 안드레이 카르파시는 개인 컴퓨터에서 오픈클로를 사용하는 것은 데이터를 심각한 위험에 노출시킬 수 있다고 지적했다. 시스코와 마이크로소프트 등 글로벌 기업들도 에이전트형 AI의 구조적 한계를 짚으며, 기업 활용에는 추가적인 안전장치가 필요하다는 취지의 보고서를 공개한 바 있다.

오픈클로 논란은 특정 도구 하나의 문제가 아니라, ‘행동하는 AI’가 본격적으로 등장하면서 기업과 사회가 직면한 과제를 보여준다. 생산성을 높이기 위해 권한을 넓힐수록 보안과 책임의 부담도 함께 커진다. 전문가들은 에이전트형 AI를 무작정 배제하거나 무제한 허용하기보다, 최소 권한 원칙과 엄격한 검증·감사 체계를 먼저 갖추는 것이 시급하다고 입을 모은다.

김은정 기자 kej@news-wa.com