AI가 보안을 위협하지 않도록 하는 방법
- PAGO Networks

- 10월 10일
- 2분 분량
몇 달 전, 보안 연구자들은 한 해커 그룹이 AI 시스템을 훈련시켜 스스로 랜섬웨어 공격을 수행하도록 만든 사실을 밝혀냈습니다. 그 시스템은 공격 대상을 선택하고, 어떤 데이터를 탈취할지 결정했으며, 협상 과정에서 피해자의 반응에 따라 어조를 조정했습니다.

이제 AI는 공격자에게 매우 강력한 무기가 되었습니다.이번 사건은 AI가 단순히 보안 담당자를 돕는 도구가 아니라, 공격자의 의사결정을 수행하는 존재가 될 수 있다는 것을 보여주었습니다. 오늘날 보안팀이 사용하는 경보 우선순위 분석이나 사고 보고서 요약을 돕는 동일한 기술이, 공격자의 손에 들어가면 정교한 공격 전략을 자동화하는 도구로 변할 수 있습니다.한때 방어를 돕던 속도와 유연성이 이제는 양쪽 모두를 강화하는 시대가 된 것입니다.
수년 동안 기업들은 자동화가 인력 부족 문제를 해결할 것이라는 이야기를 들어왔습니다. 많은 조직이 대형 언어 모델(LLM)을 서둘러 SOC 환경에 도입했습니다.이 시스템들은 로그를 분석하고, 경보를 분류하며, 대응 티켓의 초안을 작성합니다. 그리고 그 과정에서 매일 민감한 데이터에 접근합니다.
문제는 이 과정이 명확한 보안 관리 없이 진행된 경우가 많다는 점입니다.내부 프롬프트가 기밀 정보를 노출한다면 어떤 일이 일어날지 검토한 팀은 거의 없습니다.또한 모델이 어떻게 결정을 내리는지 추적하는 경우도 매우 드뭅니다. AI는 업무를 단순화할 수 있지만, 그만큼 높은 수준의 관리가 필요합니다.AI는 과거 사람이 엄격하게 접근 통제하던 정보를 다루며, 감독 없이 데이터를 처리할 경우 단 하나의 오류가 새로운 내부 위협이 될 수 있습니다.
성숙한 보안 조직으로 발전하기 위한 다음 단계는 AI 자체를 보호하는 것입니다.이를 위해 다음과 같은 노력이 필요합니다.
모델이 제한된 정보를 유출하도록 유도될 수 있는지 검증하는 내부 레드팀 훈련을 수행하기
AI의 모든 출력 결과를 검토하여 데이터 노출, 신뢰성, 편향 여부를 점검하기
자동화 시스템이 생성한 모든 권고나 조치에 대한 세부 기록을 남기기
이 과정의 목표는 혁신을 늦추는 것이 아니라 혁신을 신뢰할 수 있게 만드는 것입니다.진정한 방어력은 투명성과 책임감에서 나옵니다.AI는 앞으로도 보안 운영의 일부로 남겠지만, 그 가치는 얼마나 책임감 있게 관리하느냐에 달려 있습니다. 모델을 ‘살아있는 시스템’으로 보고 지속적인 관리와 감시를 수행하는 팀이 결국 다른 조직의 모범이 될 것입니다.
그래서 PAGO MDR 팀은 맥락을 이해하는 AI 활용과 지속적인 인력 교육을 핵심으로 삼고 있습니다.
AI는 인간의 판단력을 대체할 수 없다
사이버 보안은 단순히 속도의 문제가 아니라, 결국 판단의 문제입니다.기계는 방대한 데이터를 분석하고 패턴을 찾아낼 수 있지만, 그 안에 담긴 맥락을 온전히 이해하기는 어렵습니다.또한 대응 방안을 제시할 수는 있어도, 잘못된 결정이 초래할 결과의 무게를 느끼거나 그 책임을 인식하지는 못합니다.
숙련된 분석가의 직관은 수천 번의 실제 경험 속에서 다듬어진 결과입니다.이전 침해 사고의 기억과, 위기 상황에서 들려오는 고객의 긴장된 목소리, 그리고 로그상으로는 이상이 없어 보이지만 왠지 불안하다는 감각 같은 요소들이 쌓여 만들어진 것입니다.이런 인간의 경험은 알고리즘이 결코 복제할 수 없습니다.
AI는 이러한 인간의 판단력을 대체하는 것이 아니라, 확장하고 보완해야 하는 존재입니다.앞으로의 SOC는 자동화와 인간의 사고가 유기적으로 순환하는 구조로 발전해야 하며, 기계는 규모와 속도를 담당하고 인간은 그 안에서 의미와 방향을 찾아야 합니다.
최고의 보안팀은 다음과 같은 원칙을 지킵니다.
AI가 방대한 데이터를 정리하고 요약하더라도, 최종적인 판단은 반드시 분석가가 내린다.
AI는 통계적 확률이 아닌 인간의 피드백을 통해 성장한다.
사람은 AI의 결정을 맹목적으로 따르지 않고, 언제나 질문하고 검증하는 태도를 유지한다.
이처럼 미래의 SOC는 AI와 인간의 협업에서 진정한 힘을 얻게 될 것입니다.AI는 패턴을 누구보다 빠르게 인식할 수 있지만, 그중 어떤 패턴이 실제 위협인지를 구분하고 우선순위를 정하는 일은 여전히 인간의 몫입니다. 사이버 보안의 역사는 언제나 기술을 통해 인간이 써 내려온 이야기였습니다.그리고 그 진실은 지능형 기계의 시대가 오더라도 변하지 않을 것입니다.



