AI가 보안 허점을 찾는 능력이 향상되는 방법

AI가 보안 허점을 찾는 능력이 향상되는 방법

널리 사용되는 사이버 인프라를 유지 관리하는 개발자에 따르면 지난 몇 달 동안 AI 모델은 환각을 생성하는 것에서 소프트웨어의 보안 결함을 찾는 데 효과적이게 되었습니다. 이러한 소프트웨어는 무엇보다도 운영 체제에 전원을 공급하고 인터넷에 연결된 사물에 대한 데이터를 전송합니다.

이러한 새로운 기능은 개발자가 소프트웨어를 더욱 안전하게 만드는 데 도움이 될 수 있지만 해커와 국가가 정보와 돈을 훔치거나 중요한 서비스를 방해하기 위해 무기화할 수도 있습니다.

AI 사이버 기능의 최신 개발은 화요일 AI 연구소 Anthropic이 “사이버 보안을 재편성”할 수 있다고 믿는 강력한 새 모델을 개발했다고 발표하면서 이루어졌습니다. 최신 모델인 Mythos Preview는 “모든 주요 운영 체제와 웹 브라우저의 일부를 포함하여 심각도가 높은 취약점”을 발견할 수 있었다고 밝혔습니다. 그뿐만 아니라, 모델은 발견한 취약점을 악용하는 방법을 더 잘 찾아내는데, 이는 악의적인 행위자가 목표를 더 효과적으로 달성할 수 있음을 의미합니다.

현재 회사는 “세계에서 가장 중요한 소프트웨어를 보호하기 위한 노력의 일환으로” 약 50개의 선별된 회사 및 조직으로 모델에 대한 액세스를 제한하고 있습니다. 그들은 투명한 날개를 가진 나비 종의 이름을 따서 프로젝트 글래스윙(Project Glasswing)이라고 명명했습니다.

Anthropic은 발표에 따르면 오용 위험이 너무 높아 이 특정 모델을 일반 대중에게 출시할 계획은 없지만 다른 관련 모델을 출시할 예정이라고 밝혔습니다. “우리의 최종 목표는 사용자가 Mythos급 모델을 대규모로 안전하게 배포할 수 있도록 하는 것입니다.”라고 회사는 썼습니다.

여전히 보안 전문가들은 잠재적인 위험은 사이버 보안 전문가에게 있는 것이지 일반 사람들에게 있는 것이 아니라고 말합니다. 사이버 보안 회사인 Proofpoint의 위협 연구 담당 부사장인 Daniel Blackford는 “일반 컴퓨터 사용자가 근본적으로 이 문제에 대해 걱정할 필요는 없다고 생각합니다.”라고 말했습니다. “비밀번호를 알려주지 않는 것에 대해 훨씬 더 걱정해야 합니다. 그런 일은 하루 종일, 매일 일어나는 일이기 때문입니다.”

오픈 소스 Linux 커널을 호스팅하는 Linux Foundation의 CEO인 Jim Zemlin은 Mythos Preview가 이전 모델보다 개발자의 취약점 수정을 돕는 더 나은 기능을 제공할 수도 있다고 말했습니다. 커널은 하드웨어가 소프트웨어와 통신할 수 있게 해주는 인터페이스이며, Linux 커널은 Android를 비롯해 세계에서 가장 강력한 500대 슈퍼컴퓨터를 비롯한 가장 널리 사용되는 운영 체제를 구동합니다. 이 재단은 Project Glasswing의 일부이며 Zemlin은 관리자로 알려진 Linux 커널 작업의 핵심 그룹이 새로운 모델을 사용하는 가장 효과적인 방법을 찾기 위해 새로운 모델을 실험하기 시작했다고 말했습니다.

Zemlin은 “이러한 유지관리자는 AI 이전에 이미 과중한 업무를 수행하고 있습니다.”라고 말했습니다. “이것은 그들의 삶을 훨씬 더 좋게 만듭니다.”

Mythos Preview가 제한적으로 출시되기 전에도 사이버 보안 커뮤니티는 이미 상업적으로 이용 가능한 가장 발전된 AI 모델의 성능을 파악하기 위해 고군분투하고 있습니다. 개발자들은 해커들이 AI로 신고한 보안 취약점을 패치하기 위해 경쟁하고 있습니다. 보안 전문가들은 이러한 역량이 가드레일 없이 확산된다면 앞으로 어떤 일이 벌어질지 걱정하고 있습니다.

해커들은 AI를 사용하여 버그를 찾는 데 도움을 주고 있습니다. 지금까지는 작동하지 않았습니다.

Daniel Stenberg는 AI 모델의 기능 향상이 2026년 초에 눈에 띄게 나타났다고 말했습니다. 그는 자동차, 의료 기기 등 인터넷 연결에 널리 사용되는 30년 된 오픈 소스 데이터 전송 도구인 cURL의 수석 소프트웨어 개발자입니다. 이러한 변화는 2025년 후반에 새로운 최첨단 모델이 출시된 이후에 이루어졌습니다.

소프트웨어 커뮤니티의 많은 사람들과 마찬가지로 Stenberg는 소프트웨어의 기능과 보안을 유지하기 위해 보안 연구원으로부터 도움을 받습니다. 소위 “화이트 햇” 해커는 개발자에게 비공개적으로 보안 결함을 신고하고 그 대가로 “버그 현상금”으로 알려진 보상금을 받거나 보안 결함을 획득하여 자랑할 권리를 얻기도 합니다. 자신의 이름을 딴. 모든 버그는 소프트웨어 기능에 영향을 미치지만 일부 버그만 보안 취약점을 나타냅니다.

그러나 그 과정은 지난해부터 무너지기 시작했다. Stenberg의 팀은 AI에 의해 생성되었다고 확신하는 가짜 보고서가 넘쳐났습니다. Stenberg는 “우리는 일년 내내 185개의 보고서를 받았는데 그 중 5% 미만이 실제로 보안 관련 문제였습니다.”라고 말했습니다.

2024년부터 2025년까지 보고서 양이 두 배로 늘어났음에도 불구하고 Stenberg는 결국 더 적은 수의 보안 취약점을 발견하고 수정했습니다. 슬롭 보고서가 너무 나빠서 Stenberg는 cURL 도구에 대한 버그 포상금 지급을 중단했습니다.

그에게 보고서를 제출하는 해커는 대개 익명이며 보고서가 AI로 작성되었는지 여부에 대해서는 논의하지 않는다고 Stenberg는 말했습니다. 그러나 Stenberg는 AI가 독특한 글쓰기 스타일을 가지고 있다고 말했습니다. “그들은 매우 정교하고 설명적인 경향이 있습니다. 인간이 제시하는 데 50줄이 필요한 내용을 400줄의 보고서로 얻을 수 있습니다.”

Stenberg가 보안 보고를 관리하기 위해 사용하는 플랫폼인 HackerOne은 2025년 여름 해커를 대상으로 설문조사를 실시한 결과 거의 60%의 응답자가 AI를 사용하거나 학습하거나 AI 또는 기계 학습 시스템 감사 방법을 배우고 있는 것으로 나타났습니다.

“LLM은 이제 버그 찾기에 있어 인간의 능력을 우회했습니다.”

올해 상황이 극적으로 변했습니다. 신고 건수는 2025년보다 훨씬 많았지만 지금까지 대부분은 합법적인 문제를 발견했다고 Stenberg는 말했습니다. “이제 거의 모든 나쁜 (보고)이 사라졌습니다.”

그는 보고서 중 약 10개 중 1개가 보안 취약점이고 나머지는 대부분 실제 버그라고 추정합니다. 2026년이 된 지 불과 3개월 만에 Stenberg가 이끄는 cURL 팀은 이전 2년보다 더 많은 취약점을 발견하고 수정했습니다.

외부 보안 연구원의 보고 외에도 Stenberg는 AI를 사용하여 스스로 취약점을 찾아냅니다. 클릭 한 번으로 AI는 “거의 마법 같은 방식으로” 인간과 기존 코드 분석가의 검토를 거친 코드에서 100개 이상의 버그를 표시했습니다.

Stenberg의 경험은 독특한 것이 아닙니다. 유지관리자 Linux 커널에는 버그 보고서의 품질에도 비슷한 변화가 있습니다. 인류학 연구 과학자인 니콜라스 칼리니(Nicholas Carlini)는 다음을 발견할 수 있었습니다. 리눅스 커널의 취약점 오래된 Anthropic 모델과 상대적으로 간단한 프롬프트를 사용합니다. Carlini는 또한 AI를 사용하여 20년 된 또 다른 오픈 소스 프로젝트에서 첫 번째 중요한 취약점을 발견했습니다.

AI 소프트웨어 보안 회사인 Corridor의 최고 보안 책임자인 Alex Stamos는 “LLM은 이제 인간의 버그 찾기 능력을 우회했습니다.”라고 말했습니다. 보안 연구 보고서의 품질이 향상되었습니다. Anthropic의 모델 Opus 4.5 이전에 Yahoo와 Facebook의 보안 책임자였던 Stamos는 11월에 이렇게 말했습니다. 너무 많은 상용 소프트웨어에 오픈 소스 구성 요소가 포함되어 있기 때문에 오픈 소스 프로젝트에서 발생하는 일은 인터넷에 더 광범위한 영향을 미친다고 Stamos는 말했습니다.

AI가 발견한 버그와 보안 취약점을 패치할 수 있나요?

Stenberg는 현재 모든 사람이 사용할 수 있는 AI 모델이 버그를 찾는 데 더 도움이 된다는 점을 높이 평가하지만, 오픈 소스 소프트웨어를 유지 관리하는 개발자에게 더 강력한 모델이 가져올 미래에 대해서도 경계합니다. “이미 여러 면에서 과부하, 인력 부족, 급여 및 자금 부족을 겪고 있는 모든 유지관리자의 과부하입니다.”

Stenberg는 Project Glasswing의 일부가 아니며 “실제로 인터넷의 초석이 되는 것”과 같은 중요한 프로젝트가 많이 제외되었다고 말했습니다.

Anthropic은 NPR의 논평 요청에 응답하지 않았습니다.

그러나 지금까지의 경험을 바탕으로 Stenberg는 AI가 버그와 보안 결함을 찾는 것만큼 수정하는 데 능숙하지 않다고 말합니다.

그 이유 중 하나는 버그나 수정 사항이 완벽하지 않기 때문입니다. 소프트웨어 개발의 다른 많은 측면과 마찬가지로 판단을 내리는 데에는 실제로 코드를 작성하는 것보다 시간이 더 걸립니다. Stenberg는 “일단 문제를 식별하고 이것이 문제라는 점에 동의하면 실제로 문제를 해결하는 것은 그다지 어렵지도 않고 시간도 많이 걸리지 않습니다. 그 단계까지의 전체 프로세스에 시간과 에너지가 더 많이 소요됩니다”라고 말했습니다.

다른 사람들은 다르게 생각합니다. HackerOne이라는 회사는 현재 취약점을 보다 자율적으로 찾아 수정하는 에이전트 AI 제품을 개발하고 있습니다.

AI는 사이버 보안에서 공격과 방어 사이의 줄다리기를 어떻게 고려합니까?

Stamos는 “버그를 찾는다고 해서 버그가 악용될 수 있는 것은 아닙니다.”라고 말했습니다. “우리가 킬 체인이라고 부르는 것의 첫 번째 부분은 결함을 발견하는 것입니다. 다음 단계는… (실제로) 무기를 만드는 것입니다. 그리고 기초 모델은 그렇게 하지 않습니다.”

기초 모델은 Anthropic, OpenAI, Google Deepmind와 같은 최첨단 AI 연구소에서 만든 모델입니다. 해당 연구실에서는 해당 모델이 악의적으로 사용될 수 있는 소프트웨어를 생성하지 못하도록 가드레일을 설치했습니다. 이러한 모델은 매우 독점적이며 내부 작동 방식은 공개되지 않습니다.

그러나 대중이 더 쉽게 접근할 수 있는 소위 개방형 모델이 가장 진보된 AI 연구소의 모델을 따라잡으면 모든 베팅은 취소됩니다. 악의적인 행위자는 복사본을 만들고 맬웨어에 대한 가드레일을 제거할 수 있습니다.

Stamos는 “그러면 해당 모델에 버그를 찾는 것뿐만 아니라 시스템을 해킹할 수 있는 익스플로잇 코드를 생성하도록 요청할 수 있기 때문에 우리는 정말 문제에 봉착하게 됩니다”라고 말했습니다. 가장 발전된 개방형 중량 모델은 가장 진보된 폐쇄형 중량 모델보다 1년도 채 걸리지 않습니다.

Stamos는 “또한 인류가 미국 전체에 위험을 초래한다고 국방부가 말하는 것이 얼마나 어리석은 일인지 보여줍니다”라고 덧붙였습니다. 미 국방부는 Anthropic이 정부에 자사의 기술을 자율 무기 및 대량 감시에 사용하지 말 것을 요청했기 때문에 “공급망 위험”으로 분류했습니다. 이 라벨은 정부 기관 및 계약자가 Anthropic과 협력하는 것을 금지합니다. Anthropic은 현재 법정에서 라벨에 대해 이의를 제기하고 있습니다.

대부분의 개방형 모델은 중국에 본사를 둔 회사에서 제조되었으며, 미국은 AI 우위를 향한 경쟁에서 중국을 주요 경쟁자로 간주합니다. Stamos는 Mythos Preview를 공개적으로 공개하지 않음으로써 Anthropic이 소프트웨어 개발자들과 미국에게 방어력을 강화할 시간을 주고 있다고 말했습니다.