6
🚀 Module 6 · AI 보안 기초 (8H) · 벤더 중립 실무 과정
Module 6.
AI 보안 기초
AI는 SOC의 속도와 가시성을 넓혀 주지만, 최종 판단을 대신하지 않는다.
대상
SOC 초급 분석가 / 보안 입문자 / SIEM 운영자 / 탐지·분석 자동화에 관심 있는 실무자
핵심 키워드
AI/ML, Anomaly Detection, Feature Engineering, UEBA, Risk Score, GenAI, Human-in-the-loop
오늘의 목표
AI가 보안에서 잘하는 일과 못하는 일을 구분하고, 로그를 feature와 risk score 관점으로 설명할 수 있게 만들기
Logs
Features
Model
Risk
Analyst
SOAR
(주)아울네스트 · 한국인터넷진흥원 발주
AI/ML · 이상탐지 · Feature Engineering · UEBA · GenAI · Human-in-the-loop
AI/MLAnomaly DetectionUEBAGenAIRisk Score
🚀 오프닝 및 학습 프레임
왜 지금 SOC가 AI를 배워야 하는가
로그와 이벤트는 폭증했지만, 분석가의 시간과 집중력은 늘 한정되어 있다.
핵심 개념
Part 00 · 오프닝 및 학습 프레임
로그와 이벤트는 폭증했지만, 분석가의 시간과 집중력은 늘 한정되어 있다.
Signal Volume ↑
VS
Analyst Capacity ↔
Need for Prioritization

공격 표면 확대

클라우드, SaaS, 원격근무, API, 아이덴티티 중심 환경으로 신호량이 증가

운영 압박

SIEM에는 이벤트가 많지만 실제로 우선순위를 올려야 할 사건은 극소수

기존 한계

룰과 수동 상관분석만으로는 미세한 이상행위나 저속 공격을 놓치기 쉽다

AI의 역할

탐지 자체를 모두 바꾸기보다 '우선순위화·요약·후속 질문 생성'에서 큰 가치를 낸다

실무 포인트

숫자 암기보다 '신호는 늘고 사람의 시간은 그대로'라는 구조를 직관적으로 이해시키는 데 집중하세요.

학습 요소
Alert FatiguePrioritizationTriageScalability

수강생에게 'AI가 왜 필요한가'에 대한 운영적 납득이 선행되어야 이후 기술 파트가 살아납니다.

다음 연결

다음 슬라이드에서는 AI를 보안에 쓰는 문제와 AI 시스템을 지키는 문제를 분리해서 봅니다.

🚀 오프닝 및 학습 프레임
AI for Security vs Security for AI
AI를 보안에 활용하는 것과 AI 시스템 자체를 보호하는 것은 연결되지만 다른 문제다.
핵심 개념
Part 00 · 오프닝 및 학습 프레임
AI를 보안에 활용하는 것과 AI 시스템 자체를 보호하는 것은 연결되지만 다른 문제다.
AI for Security
Security for AI

AI for Security

이상탐지, UEBA, 로그 요약, 쿼리 작성 보조, 보고서 자동화처럼 SOC 효율을 높이는 영역

Security for AI

프롬프트 인젝션, 데이터 유출, 모델 도난, 데이터 중독, 에이전트 오남용처럼 AI 시스템 자체를 지키는 영역

이번 모듈의 중심

보안을 위한 AI 활용에 초점을 두되, 마지막 파트에서 AI 시스템 보안 리스크도 함께 다룬다

실무 포인트

둘을 혼동하면 운영팀은 기대치를 잘못 잡고, 통제 항목도 빠뜨리기 쉽다

실무 포인트

초반에 이 구분을 해 두면 이후 GenAI 파트와 리스크 파트가 훨씬 매끄럽게 연결됩니다.

학습 요소
AI for SecuritySecurity for AIPrompt InjectionData Poisoning

두 영역이 동시에 중요하지만 오늘은 SOC 운영 적용이 주력이라는 점을 반복해 주세요.

다음 연결

이제 수강생이 수업을 통해 실제로 무엇을 할 수 있게 되는지 목표를 분명히 제시합니다.

🚀 오프닝 및 학습 프레임
학습 목표와 수강 완료 후 기대 역량
이 수업의 목표는 AI 용어를 아는 수준이 아니라, SOC 언어로 해석하고 적용하는 수준에 도달하는 것이다.
핵심 개념
Part 00 · 오프닝 및 학습 프레임
이 수업의 목표는 AI 용어를 아는 수준이 아니라, SOC 언어로 해석하고 적용하는 수준에 도달하는 것이다.
Concept
+
Data
+
Operations
+
Labs

개념 이해

지도/비지도/반지도학습, anomaly score, risk score, baseline 같은 용어를 SOC 맥락에서 설명할 수 있다

데이터 관점

Linux, 네트워크, 웹 로그를 feature로 바꾸는 사고 과정을 이해하고 예시를 만들 수 있다

운영 관점

UEBA, AI+SIEM, GenAI 보조 분석이 각각 어디에서 가치와 리스크를 만드는지 말할 수 있다

실습 산출물

이상행위 해석, 분석 메모, 탐지 아이디어, 프롬프트 초안, 운영 체크리스트까지 작성할 수 있다

실무 포인트

수강생이 '실무에 바로 연결된다'는 감각을 받게 하려면 산출물 중심으로 말하는 것이 효과적입니다.

학습 요소
Learning OutcomesBaselineRisk ScorePrompt

이 모듈의 결과물이 단순 지식이 아니라 설명력과 문서화 능력이라는 점도 강조하세요.

다음 연결

다음에는 8시간 수업 전체를 한 장의 운영 맵으로 보여 줍니다.

🚀 오프닝 및 학습 프레임
8시간 운영 맵
이론, 사례, 실습을 반복해 '이해 → 적용 → 검증'의 루프로 학습한다.
구조/프레임
Part 00 · 오프닝 및 학습 프레임
이론, 사례, 실습을 반복해 '이해 → 적용 → 검증'의 루프로 학습한다.
Theory 4H
Cases 2H
Labs 2H

이론 4H

기존 보안 한계, AI/ML 기본, 이상탐지, Feature Engineering, UEBA, AI+SIEM, GenAI

사례 2H

로그인 이상, Flow 이상, 웹 공격 자동 분류, C2 Beaconing의 4개 시나리오

실습 2H

이상행위 식별, GenAI 분석 프롬프트 설계, 탐지 룰 초안 작성

모든 파트의 종료 질문

'이 신호를 사건으로 올릴 것인가, 어떤 근거와 다음 액션을 제시할 것인가?'

실무 포인트

시간표를 보여 주되, 각 파트가 독립된 섬이 아니라 하나의 운영 체인이라는 느낌을 주는 것이 중요합니다.

학습 요소
RoadmapTheoryCasesLabs

분석과 실습이 모두 보고 문장과 다음 액션으로 닫힌다는 점을 반복해 주세요.

다음 연결

이제 앞선 모듈들과 이번 모듈이 어떻게 연결되는지 통합 관점으로 설명합니다.

🚀 오프닝 및 학습 프레임
Module 1~5와의 연결
이번 모듈은 앞선 모듈에서 배운 로그와 위협 해석을 AI 관점으로 재구성하는 통합 파트다.
핵심 개념
Part 00 · 오프닝 및 학습 프레임
이번 모듈은 앞선 모듈에서 배운 로그와 위협 해석을 AI 관점으로 재구성하는 통합 파트다.
Module1~5 Logs & TTPs
AI Layer
Prioritized Cases

Module 1

SOC 운영 흐름과 SIEM/SOAR 구조를 AI 보조 분석 관점으로 다시 본다

Module 2

Linux 로그는 계정·프로세스·권한 사용의 feature source가 된다

Module 3

네트워크/패킷 로그는 flow, beaconing, rarity, periodicity feature의 재료가 된다

Module 4

웹 로그는 공격 분류와 행위 기반 분류 모델의 대표 입력 데이터가 된다

Module 5

ATT&CK은 AI가 제시한 신호를 공격 행동 언어로 정리하는 공통 프레임이 된다

실무 포인트

이 슬라이드는 '새로운 과목'이 아니라 '기존 SOC 자산의 재활용'이라는 감각을 주는 데 목적이 있습니다.

학습 요소
IntegrationFeature SourceATT&CKAI Layer

앞선 모듈을 복습시키는 연결 멘트를 넣으면 수강생의 맥락 회복에 큰 도움이 됩니다.

다음 연결

다음 슬라이드에서 오늘 모듈을 관통하는 운영 원칙을 한 줄로 정리합니다.

🚀 오프닝 및 학습 프레임
오늘의 운영 원칙: Human + AI
좋은 AI SOC는 사람을 제거하는 조직이 아니라, 사람이 더 빨리 더 정확히 판단하도록 만드는 조직이다.
핵심 개념
Part 00 · 오프닝 및 학습 프레임
좋은 AI SOC는 사람을 제거하는 조직이 아니라, 사람이 더 빨리 더 정확히 판단하도록 만드는 조직이다.
AI Assistant
+
Analyst Judgment
Trusted SOC Outcome

AI의 역할

요약, 우선순위화, 이상치 제안, 질의 초안, 보고서 초안 같은 보조 업무 가속

분석가의 역할

맥락 확인, 근거 검증, 환경 특성 반영, 차단/격리/보고의 최종 의사결정

탐지 엔지니어의 역할

모델 출력을 룰/상관분석/자동화에 안전하게 연결

조직의 역할

승인 체계, 감사 로그, 품질 측정, 개인정보 통제 같은 거버넌스 확보

실무 포인트

수강생이 AI에 과도한 기대를 갖지 않게 하는 가장 중요한 슬라이드입니다.

학습 요소
Human-in-the-loopVerificationGovernanceQuality

이후 모든 파트에서 'AI 제안, 사람 검증' 프레임을 반복적으로 상기시켜 주세요.

다음 연결

이제 전통적인 룰 기반 보안이 어디까지 잘하고 어디서 막히는지부터 시작합니다.

🚀 오프닝 및 학습 프레임
Check Point · Part 0
오프닝 및 학습 프레임 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 00 · 오프닝 및 학습 프레임
오프닝 및 학습 프레임 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

Module 6. AI 보안 기초

AI 기반 보안 …: 대상: SOC 초급 분석가 / 보안 입문자 / SIEM 운영자 / 탐지·분석 자동화에 관심 있는 실무자

포인트 2

AI for Security vs Security f…: AI for Security: 이상탐지, UEBA, 로그 요약, 쿼리 작성 보조, 보고서 자동화처럼 SOC 효율을 높이는 영역

8시간 운영 맵

이론 4H: 기존 보안 한계, AI/ML 기본, 이상탐지, Feature Engineering, UEBA, AI+SIEM, GenAI

오늘의 운영 원칙

Human + AI: AI의 역할: 요약, 우선순위화, 이상치 제안, 질의 초안, 보고서 초안 같은 보조 업무 가속

실무 포인트

오프닝 및 학습 프레임 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
Risk ScoreAI/MLAnomaly DetectionUEBAGenAI

AI for Security vs Security f…: AI for Security: 이상탐지, UEBA, 로그 요약, 쿼리 작성 보조, 보고서 자동화처럼 SOC 효율을 높이는 영역

다음 연결

이제 전통적인 룰 기반 보안이 어디까지 잘하고 어디서 막히는지부터 시작합니다.

01
기존 보안 한계와 룰 기반 탐지의 경계
대부분의 SOC는 오랫동안 정해진 조건을 만족하면 경보를 올리는 방식으로 운영돼 왔다.
🧭 원고 008–016 · 9장 구성
시작 슬라이드
기존 방식: 로그 → 룰 → Alert
마무리 슬라이드
정리: 룰은 필요하지만, 룰만으로는 부족하다
핵심 키워드
BaselineRule-based DetectionAlertSIEM
🧭 기존 보안 한계와 룰 기반 탐지의 경계
기존 방식: 로그 → 룰 → Alert
대부분의 SOC는 오랫동안 정해진 조건을 만족하면 경보를 올리는 방식으로 운영돼 왔다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
대부분의 SOC는 오랫동안 정해진 조건을 만족하면 경보를 올리는 방식으로 운영돼 왔다.
Log
Rule
Alert
Analyst

입력

endpoint, auth, firewall, proxy, web, cloud 로그가 SIEM으로 수집된다

탐지 논리

IOC 매칭, 특정 문자열, 임계치 초과, 알려진 패턴 조합이 룰로 구현된다

출력

룰이 조건을 만족하면 Alert가 생성되고, 분석가는 큐에서 이를 검토한다

장점과 한계

구조는 단순하고 설명은 쉽지만, 정의되지 않은 공격은 애초에 보이지 않는다

실무 포인트

처음부터 룰의 한계만 말하면 현업 수강생이 방어적으로 받아들일 수 있으므로, 장점부터 균형 있게 설명하세요.

학습 요소
Rule-based DetectionAlertSIEMWorkflow

이 슬라이드는 전통적 SOC의 기본 골격을 빠르게 복기하는 용도입니다.

다음 연결

다음은 먼저 룰 기반 탐지가 여전히 강한 영역부터 인정하고 출발합니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
룰 기반 탐지가 잘하는 일
룰은 알려진 공격과 정책 위반을 빠르고 재현성 있게 잡는 데 강하다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
룰은 알려진 공격과 정책 위반을 빠르고 재현성 있게 잡는 데 강하다.
Known Pattern
Deterministic Alert

결정적 패턴

해시, 도메인, IP, 특정 프로세스, 특정 명령어 조합처럼 명확한 시그니처에 강하다

감사·컴플라이언스

'이 조건이면 경보'라는 설명 가능성이 높아 정책 통제가 쉽다

운영 안정성

동일 조건에서 동일 결과가 나오므로 튜닝과 검증이 비교적 직관적이다

즉시성

계산이 단순해 대용량 환경에서도 빠르게 실행되며, 초급 분석가도 이해하기 쉽다

실무 포인트

AI를 강조하더라도 룰은 사라지지 않는다는 메시지를 분명히 하세요.

학습 요소
DeterministicSignatureComplianceReproducibility

보안 운영의 기초 체력은 여전히 좋은 룰과 좋은 데이터라는 점을 덧붙이면 좋습니다.

다음 연결

이제 왜 룰만으로는 충분하지 않은지 현실적인 한계를 보여 줍니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
룰 기반 탐지의 사각지대
정의되지 않은 행동, 미세한 이상행위, 느리게 움직이는 공격자는 룰 기반 체계에서 쉽게 빠져나간다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
정의되지 않은 행동, 미세한 이상행위, 느리게 움직이는 공격자는 룰 기반 체계에서 쉽게 빠져나간다.
No Rule
No Alert

Zero-day와 변형 공격

시그니처가 준비되기 전까지는 탐지 논리 자체가 없다

Living-off-the-land

정상 도구와 정상 계정을 악용하면 룰의 구분력이 약해진다

저속 공격

작은 이상이 여러 번 반복될 때 단건 기준 룰은 위험을 과소평가한다

맥락 부족

개별 이벤트는 정상처럼 보이지만, 사용자·호스트·시간 맥락을 합치면 비정상일 수 있다

실무 포인트

수강생이 '모든 문제를 룰 추가로 해결할 수는 없다'는 사실을 받아들이게 만드는 슬라이드입니다.

학습 요소
Zero-dayLOLBinsSlow BurnContext

탐지 불가를 '룰이 나쁘다'가 아니라 '정의되지 않은 행동은 구조적으로 약하다'로 설명하세요.

다음 연결

다음은 운영 관점에서 룰 콘텐츠가 왜 점점 무거워지는지 보여 줍니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
룰 관리 비용이 커지는 이유
환경이 복잡해질수록 룰의 개수보다 더 무서운 것은 유지보수 난이도다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
환경이 복잡해질수록 룰의 개수보다 더 무서운 것은 유지보수 난이도다.
More Systems
More Rules
More Tuning

콘텐츠 스프롤

유사한 룰이 늘어나고 소유자·목적·튜닝 이력이 분산된다

필드 변화

로그 스키마 변경, 제품 교체, 새 서비스 도입이 룰 파손으로 이어진다

예외 관리

부서별 정상행위와 운영성 이벤트를 제외하다 보면 규칙이 점점 취약해진다

검증 부담

새 룰은 만들어도 실제 운영에서 얼마나 소음이 나는지 지속적으로 점검해야 한다

실무 포인트

탐지 엔지니어의 시간이 룰 생성보다 룰 유지에 더 많이 쓰이는 현실을 예시와 함께 설명해 주세요.

학습 요소
Content SprawlSchema DriftExceptionsValidation

한 줄 룰의 수보다 운영 맥락과 소유권 관리가 어렵다는 점을 강조하는 것이 핵심입니다.

다음 연결

이제 수강생이 가장 공감하기 쉬운 오탐과 알림 피로 문제로 연결합니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
False Positive와 Alert Fatigue
좋지 않은 탐지는 놓치는 것만큼이나, 너무 많이 울리는 것으로 조직을 지치게 만든다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
좋지 않은 탐지는 놓치는 것만큼이나, 너무 많이 울리는 것으로 조직을 지치게 만든다.
Many Alerts
Analyst Fatigue
Missed High Risk

낮은 정밀도

분석가가 대부분의 경보를 '정상'으로 닫으면 탐지에 대한 신뢰가 떨어진다

큐 적체

진짜 중요한 사건이 소음 속에 묻혀 MTTD와 MTTR이 함께 악화된다

운영 부작용

반복되는 오탐은 차단 자동화 도입을 주저하게 만들고, 탐지 확장도 늦춘다

AI 적용 포인트

모델은 경보를 없애기보다 먼저 순위를 재배치하고 검토 우선순위를 바꾸는 데 유리하다

실무 포인트

AI의 첫 번째 가치가 '탐지 추가'보다 '우선순위화'라는 점을 여기서 심어 주면 이후 구조가 자연스럽습니다.

학습 요소
False PositiveAlert FatigueMTTDMTTR

단순히 오탐이 많다보다, 오탐이 조직의 자동화 전략까지 막는다는 운영적 결과를 강조하세요.

다음 연결

다음 슬라이드에서는 환경 자체가 계속 변하는 문제를 다룹니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
환경 변화와 Drift에 취약한 전통 탐지
보안 환경은 고정돼 있지 않다. 그래서 어제의 정상과 오늘의 정상은 다를 수 있다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
보안 환경은 고정돼 있지 않다. 그래서 어제의 정상과 오늘의 정상은 다를 수 있다.
Yesterday Baseline
Today Baseline

클라우드·SaaS 확장

새 애플리케이션과 계정 흐름이 자주 추가되며 정상 패턴도 달라진다

업무 변화

월말 결산, 신규 프로젝트, 원격근무 정책 변화처럼 업무 상황이 로그 모양을 바꾼다

기술 변화

에이전트 버전, 프록시 정책, 인증 정책이 바뀌면 이벤트 분포도 함께 변한다

운영 메시지

Drift를 모르면 룰은 소음을 늘리고, 모델도 재학습과 재평가 없이는 금방 낡는다

실무 포인트

Drift는 AI만의 문제가 아니라 룰과 모델 모두의 문제라는 점을 균형 있게 짚어 주세요.

학습 요소
DriftCloudSaaSBaseline Change

정상 패턴도 변한다는 감각을 주면 baseline 개념 도입이 훨씬 쉬워집니다.

다음 연결

이제 시그니처 중심 관점에서 행동 중심 관점으로 시야를 전환합니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
IOC 중심 탐지에서 행동 중심 탐지로
이제 중요한 질문은 '무엇을 맞췄는가'보다 '어떤 행동이 평소와 달랐는가'가 된다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
이제 중요한 질문은 '무엇을 맞췄는가'보다 '어떤 행동이 평소와 달랐는가'가 된다.
Indicators
VS
Behaviors over Time

IOC 중심

이미 알려진 지표를 찾는 방식으로 빠르지만 수명이 짧고 회피가 쉽다

행동 중심

사용자, 호스트, 애플리케이션, 세션의 baseline 대비 차이를 본다

행동 중심 탐지의 강점

공격자가 지표를 바꿔도 절차와 습관, 이동 방식은 흔적을 남긴다

AI 연결점

모델은 행위의 빈도, 순서, 조합, 희귀성 같은 패턴을 수치화하는 데 적합하다

실무 포인트

ATT&CK에서 procedure와 analytics를 설명하듯, 행위는 지표보다 오래 남는다는 점을 연결해 주세요.

학습 요소
IOCBehavior AnalyticsBaselineRarity

행동 중심이라고 해서 IOC를 버리는 것이 아니라, 상위 계층에서 함께 쓰는 것임을 강조하세요.

다음 연결

다음에서는 룰과 AI가 대립이 아니라 혼합 스택이라는 점을 정리합니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
정답은 교체가 아니라 하이브리드 스택
좋은 SOC는 룰, 상관분석, AI, 사람의 판단을 서로 대체재가 아니라 계층형 보완재로 쓴다.
핵심 개념
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
좋은 SOC는 룰, 상관분석, AI, 사람의 판단을 서로 대체재가 아니라 계층형 보완재로 쓴다.
Rule
+
Correlation
+
AI
+
Human Judgment

명확한 시그니처와 정책 위반을 즉시 잡는다

상관분석

여러 이벤트를 묶어 단건으로 보이지 않던 의미를 만든다

AI

우선순위, 이상치, 요약, 분류, 질의 초안을 제공한다

사람

비즈니스 맥락과 환경 특성을 반영해 사건 여부를 확정한다

실무 포인트

수강생이 'AI가 룰을 대체하나?'라는 질문을 더 이상 하지 않도록 답을 고정해 주는 슬라이드입니다.

학습 요소
Hybrid DetectionCorrelationAI AssistanceJudgment

탐지 성숙도는 새 기술을 추가하는 것이 아니라 계층을 잘 연결하는 데서 나온다고 설명하세요.

다음 연결

이제 AI/ML 개념을 수학이 아니라 SOC 언어로 풀어 보겠습니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
정리: 룰은 필요하지만, 룰만으로는 부족하다
알려진 것을 잡는 능력과 알려지지 않은 것을 의심하는 능력이 함께 있어야 현대 SOC가 된다.
정리/체크
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
알려진 것을 잡는 능력과 알려지지 않은 것을 의심하는 능력이 함께 있어야 현대 SOC가 된다.
Known
+
Unknown Signals
Hybrid SOC

포인트 1

룰은 설명 가능성과 속도가 뛰어나므로 여전히 필수다

포인트 2

하지만 미세한 이상행위, 정상 도구 악용, 저속 공격, 환경 변화에는 구조적 약점이 있다

포인트 3

AI는 이 빈틈을 메우는 보조 계층으로서 baseline, score, ranking, summarization에 강하다

포인트 4

따라서 다음 질문은 'AI가 필요한가?'가 아니라 '어떤 문제를 어떤 방식으로 맡길 것인가?'다

실무 포인트

이 슬라이드는 다음 파트로 넘어가기 전 인식 전환을 마무리하는 역할입니다.

학습 요소
Known vs UnknownHybrid SOCBaselineRanking

수강생에게 'AI는 만능이 아니라 특정 병목을 풀기 위한 도구'라는 문장을 남겨 주세요.

다음 연결

이제 AI/ML 용어를 보안 운영 언어로 번역해 보겠습니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
Check Point · Part 1
기존 보안 한계와 룰 기반 탐지의 경계 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
기존 보안 한계와 룰 기반 탐지의 경계 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

기존 방식

로그 → 룰 → Alert: 입력: endpoint, auth, firewall, proxy, web, cloud 로그가 SIEM으로 수집된다

룰 관리 비용이 커지는 이유

콘텐츠 스프롤: 유사한 룰이 늘어나고 소유자·목적·튜닝 이력이 분산된다

IOC 중심 탐지에서 행동 중심 탐지로

IOC 중심: 이미 알려진 지표를 찾는 방식으로 빠르지만 수명이 짧고 회피가 쉽다

정리

룰은 필요하지만, 룰만으로는 부족하다: 룰은 설명 가능성과 속도가 뛰어나므로 여전히 필수다

실무 포인트

기존 보안 한계와 룰 기반 탐지의 경계 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
BaselineRule-based DetectionAlertSIEMWorkflow

룰 관리 비용이 커지는 이유: 콘텐츠 스프롤: 유사한 룰이 늘어나고 소유자·목적·튜닝 이력이 분산된다

다음 연결

이제 AI/ML 용어를 보안 운영 언어로 번역해 보겠습니다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
현업 적용 포인트 · 룰과 AI를 병행하는 출발점
기존 룰을 버리지 않고, 우선순위화·이상 후보·후속 질문 생성 계층을 추가하는 방식이 가장 현실적이다.
현업 적용
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
기존 룰을 버리지 않고, 우선순위화·이상 후보·후속 질문 생성 계층을 추가하는 방식이 가장 현실적이다.
현업 적용실무 포인트

룰 유지

IOC·정책 위반·결정적 패턴은 deterministic rule로 계속 운영한다.

AI 보강

low-and-slow·희귀 조합·분류 애매 구간은 risk ranking과 anomaly candidate로 보완한다.

성과 지표

Alert 개수보다 triage 시간·queue 품질·중요 사건의 발견 속도를 먼저 본다.

도입 방식

기존 SIEM 위에 score·summary·correlation을 얹는 작은 pilot부터 시작한다.

실무 포인트

AI를 룰 대체재로 소개하지 말고, 판단 보조 계층으로 설명하는 것이 수강생 수용성을 높인다.

학습 요소
Hybrid StackPriority QueuePilotTriage Time

AI 보강: low-and-slow·희귀 조합·분류 애매 구간은 risk ranking과 anomaly candidate로 보완한다.

다음 연결

다음 파트에서는 AI/ML 용어를 SOC 언어로 번역해 실제 운영 용어로 연결한다.

🧭 기존 보안 한계와 룰 기반 탐지의 경계
오탐·운영 주의 · 룰 시대의 관성에서 벗어나기
룰 중심 운영 경험이 길수록, 모든 문제를 룰 추가로 해결하려는 관성이 남기 쉽다.
운영 주의
Part 01 · 기존 보안 한계와 룰 기반 탐지의 경계
룰 중심 운영 경험이 길수록, 모든 문제를 룰 추가로 해결하려는 관성이 남기 쉽다.
운영 주의운영 주의

콘텐츠 스프롤

유사 룰이 늘수록 소유권·튜닝 이력·예외 관리가 흩어진다.

Schema drift

필드 변경과 신규 서비스 도입이 룰 파손과 소음을 빠르게 키운다.

Alert fatigue

낮은 정밀도는 자동화 확장을 막고 중요한 사건의 발견 속도를 늦춘다.

해법 오해

AI 도입의 1차 목표는 alert 제거가 아니라 priority reorder와 review 품질 개선이다.

운영 주의

룰을 비판하기보다, 구조적으로 약한 영역을 보완하는 방향으로 말해 주는 것이 중요하다.

학습 요소
Content SprawlSchema DriftAlert FatiguePriority Reorder

Schema drift: 필드 변경과 신규 서비스 도입이 룰 파손과 소음을 빠르게 키운다.

다음 연결

룰의 한계를 이해한 뒤에야 AI/ML 용어가 왜 필요한지 자연스럽게 받아들일 수 있다.

02
AI/ML 개념을 SOC 언어로 이해하기
보안에서의 AI는 보통 스스로 결정을 내리는 기계가 아니라, 패턴을 학습해 점수와 후보를 제시하는 엔진에 가깝다.
🧠 원고 017–027 · 11장 구성
시작 슬라이드
보안에서 말하는 AI/ML이란 무엇인가
마무리 슬라이드
분석가 피드백 루프가 모델을 운영 시스템으로 만든다
핵심 키워드
Noisy LabelsModelInputOutput
🧠 AI/ML 개념을 SOC 언어로 이해하기
보안에서 말하는 AI/ML이란 무엇인가
보안에서의 AI는 보통 스스로 결정을 내리는 기계가 아니라, 패턴을 학습해 점수와 후보를 제시하는 엔진에 가깝다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
보안에서의 AI는 보통 스스로 결정을 내리는 기계가 아니라, 패턴을 학습해 점수와 후보를 제시하는 엔진에 가깝다.
Data
Model
Score / Rank / Summary / Class

입력

로그, 이벤트, 엔티티 컨텍스트, 위협 인텔리전스, 케이스 이력 같은 관측 데이터

출력

분류 결과, 이상 점수, 위험 순위, 요약 문장, 추천 질의, 추천 조치처럼 사람이 활용할 신호

핵심 관점

보안 모델의 목적은 '정답 선언'보다 '검토 순서를 바꾸고 분석 속도를 높이는 것'인 경우가 많다

포인트 4

따라서 모델 이해의 핵심은 수학 공식보다 입력, 출력, 품질 측정, 운영 통제다

실무 포인트

보안 수강생에게는 '모델이 무엇을 대신 결정하는가'보다 '무엇을 제안하는가'가 더 이해하기 쉽습니다.

학습 요소
ModelInputOutputOperationalization

AI를 인텔리전스 증폭 장치로 소개하면 과도한 기대나 반감을 줄일 수 있습니다.

다음 연결

이제 가장 익숙한 지도학습부터 시작합니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
지도학습: 라벨이 있을 때 배우는 방식
지도학습은 이미 이름이 붙은 사례를 보고 새로운 입력의 클래스를 예측하는 방식이다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
지도학습은 이미 이름이 붙은 사례를 보고 새로운 입력의 클래스를 예측하는 방식이다.
Labeled Data
Classifier
Predicted Class

예시 문제

피싱 메일 분류, 악성/정상 파일 분류, 웹 요청의 공격 유형 분류 같은 작업

장점

목표가 분명하고 성능을 정량화하기 쉬워 운영 설계가 비교적 명확하다

한계

좋은 라벨이 충분히 있어야 하며, 공격자의 변화 속도를 따라가지 못하면 금방 낡는다

SOC 관점

분류기는 triage 보조나 특정 use case 자동 라벨링에 특히 유용하다

실무 포인트

정답이 많고 문제 정의가 명확할 때 지도학습이 강하다는 점을 짚어 주세요.

학습 요소
Supervised LearningLabelClassificationUse Case

하지만 보안의 대부분 문제는 이 이상으로 깔끔하지 않다는 점을 자연스럽게 연결하면 좋습니다.

다음 연결

다음은 보안에서 더 자주 등장하는 비지도학습으로 넘어갑니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
비지도학습: 라벨 없이 패턴을 찾는 방식
비지도학습은 정답표가 없어도 데이터의 구조와 군집, 희귀성을 스스로 드러내게 하는 접근이다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
비지도학습은 정답표가 없어도 데이터의 구조와 군집, 희귀성을 스스로 드러내게 하는 접근이다.
Unlabeled Data
Patterns / Clusters / Outliers

대표 목적

이상탐지, 군집화, 유사 행위 그룹 식별, outlier 찾기

보안 적합성

실제 침해 사례 라벨은 적고 noisy하므로 정상 분포를 먼저 이해하는 것이 더 현실적일 때가 많다

장점

새로운 패턴을 발견할 여지가 있고, 환경별 baseline을 만들기 좋다

한계

이상치가 곧 공격은 아니므로 운영 검증과 해석 체계가 반드시 필요하다

실무 포인트

보안에서는 라벨이 없어서 비지도를 쓰는 것이 아니라, 라벨 품질이 불균일하기 때문에 비지도가 실용적이라는 설명이 좋습니다.

학습 요소
Unsupervised LearningOutlierClusterBaseline

수강생이 '비지도 = 자동 탐지'로 오해하지 않게 이상은 후보라는 점을 계속 남겨 주세요.

다음 연결

그 사이 어딘가에 있는 반지도학습도 SOC에서 꽤 실용적입니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
반지도학습과 약한 감독(Weak Supervision)
현실의 보안 데이터는 완전한 라벨도 없고 완전한 무라벨도 아니어서, 중간 지대를 잘 활용하는 설계가 많다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
현실의 보안 데이터는 완전한 라벨도 없고 완전한 무라벨도 아니어서, 중간 지대를 잘 활용하는 설계가 많다.
Few Trusted Labels
+
Many Weak Signals
Practical Model

반지도학습

소수의 라벨과 다수의 무라벨 데이터를 함께 써서 모델의 일반화를 높이는 접근

약한 감독

분석가의 휴리스틱, 기존 룰, 케이스 종료 상태 같은 불완전한 신호를 임시 라벨로 활용

실무 가치

실제 SOC는 '완벽한 데이터셋'보다 '쓸 수 있는 신호를 섞는 방식'이 더 흔하다

주의점

약한 라벨은 편향과 노이즈를 모델에 그대로 전파할 수 있으므로 검증 루프가 필수다

실무 포인트

SOC 현업자는 이 슬라이드에서 큰 공감을 합니다. '데이터셋이 없다'는 현실을 인정해 주기 때문입니다.

학습 요소
Semi-supervisedWeak SupervisionNoisy LabelsPracticality

약한 감독은 만능이 아니라 시작점이라는 점을 강조하면 균형이 좋습니다.

다음 연결

이제 왜 보안에서 라벨 부족이 구조적 문제인지 좀 더 직접적으로 설명합니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
왜 보안 데이터에는 정답이 부족한가
보안은 드문 사건을 다루고, 사건이 맞는지조차 사람이 나중에 판단하는 분야라 라벨 확보가 본질적으로 어렵다.
구조/프레임
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
보안은 드문 사건을 다루고, 사건이 맞는지조차 사람이 나중에 판단하는 분야라 라벨 확보가 본질적으로 어렵다.
Huge Normal Data
+
Tiny True Incidents
+
Noisy Labels

희소성

진짜 침해는 전체 로그 중 극히 일부이며, 대부분은 정상 이벤트다

불완전 종료

케이스가 '오탐'으로 닫혀도 실제로는 근거 부족일 수 있고, 반대로 놓친 침해도 존재한다

환경 의존성

한 조직에서 공격인 것이 다른 조직에서는 정상 관리 행위일 수 있다

시간 변화

공격자 TTP와 조직 환경이 변하면 과거 라벨의 유효기간도 짧아진다

실무 포인트

정답 부족을 이해하면 왜 baseline, anomaly, ranking이 중요한지 수강생이 자연스럽게 받아들입니다.

학습 요소
Class ImbalanceNoisy LabelsEnvironment DependencyChange Over Time

라벨 부족은 기술 미비가 아니라 문제 특성이라는 점을 강조하세요.

다음 연결

이제 학습과 검증, 추론이 각각 무엇인지 운영 프로세스 관점에서 봅니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
학습, 검증, 추론은 무엇이 다른가
모델은 한 번 만들고 끝나는 것이 아니라, 배우고 시험하고 운영에 투입되는 세 단계를 반복한다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
모델은 한 번 만들고 끝나는 것이 아니라, 배우고 시험하고 운영에 투입되는 세 단계를 반복한다.
Train
Validate
Infer
Feedback

학습(Training)

과거 데이터로 패턴을 익히는 단계이며, 좋은 feature와 데이터 품질이 핵심이다

검증(Validation/Test)

과적합 여부, 경보량, 재현율, 정밀도 같은 품질을 확인하는 단계다

추론(Inference)

실제 운영 데이터에 점수나 분류 결과를 부여하는 단계로, 지연시간과 안정성이 중요하다

SOC 메시지

모델 성능만큼 운영 방식도 중요하며, 운영 중 피드백은 다시 학습으로 돌아간다

실무 포인트

분석가에게는 모델 수학보다 '언제 점수가 붙는가'가 훨씬 중요합니다.

학습 요소
TrainingValidationInferenceLifecycle

라이프사이클 사고가 없으면 모델을 운영 시스템이 아니라 연구 실험으로만 보게 됩니다.

다음 연결

다음은 추론이 언제 어떻게 돌아가는지 배치와 스트리밍 관점으로 설명합니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
Batch 추론과 Streaming 추론
어떤 문제는 매분 판단해야 하고, 어떤 문제는 하루 단위 점수만으로도 충분하다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
어떤 문제는 매분 판단해야 하고, 어떤 문제는 하루 단위 점수만으로도 충분하다.
Streaming Alerts
+
Batch Risk Review

Streaming

로그인 이상, 프록시 접속 이상처럼 즉시 대응이 필요한 use case에 적합하다

Batch

일일 사용자 risk score, 주간 peer group 비교, 월간 이상 자산 랭킹처럼 누적 평가에 적합하다

설계 포인트

지연시간, 비용, feature 계산 난이도, 오탐 시 피해를 함께 고려해야 한다

현실적인 운영

많은 SOC는 실시간 탐지와 일간/주간 위험 랭킹을 병행한다

실무 포인트

모든 AI를 실시간으로 돌려야 한다는 오해를 풀어 주세요.

학습 요소
StreamingBatchLatencyCost

실시간 탐지는 강력하지만 비용과 오탐 책임도 크기 때문에 use case 선택이 중요합니다.

다음 연결

이제 모델이 실제로 어떤 형태의 출력을 내는지 살펴봅니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
모델 출력은 '정답'보다 '신호'인 경우가 많다
보안 모델의 출력은 클래스 하나가 아니라 점수, 순위, 요약, 추천 다음 행동일 때가 많다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
보안 모델의 출력은 클래스 하나가 아니라 점수, 순위, 요약, 추천 다음 행동일 때가 많다.
Class
Score
Rank
Summary

Class

예를 들어 웹 요청을 benign / SQLi / XSS / brute force 후보로 분류할 수 있다

Score

사용자, 호스트, 세션에 0~100 risk score 또는 anomaly score를 부여할 수 있다

Rank

오늘 가장 이상한 상위 20개 계정이나 자산을 정렬해 검토 순서를 정할 수 있다

Summary

GenAI는 로그와 케이스를 읽고 핵심 근거와 조사 방향을 문장으로 요약할 수 있다

실무 포인트

수강생이 모델 출력의 형태를 넓게 이해해야 이후 anomaly score, risk score, GenAI 요약을 하나의 흐름으로 묶을 수 있습니다.

학습 요소
ClassScoreRankSummary

분류기만 AI가 아니라 ranking과 summarization도 운영 가치가 크다는 점을 강조하세요.

다음 연결

다음은 이 출력이 좋은지 나쁜지를 어떻게 측정할지 품질 지표로 넘어갑니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
Precision, Recall, F1을 SOC 언어로 읽기
보안에서 좋은 모델은 숫자가 높은 모델이 아니라, 실제 운영 부담과 탐지 가치를 균형 있게 만드는 모델이다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
보안에서 좋은 모델은 숫자가 높은 모델이 아니라, 실제 운영 부담과 탐지 가치를 균형 있게 만드는 모델이다.
Precision ↔ Recall
+
Analyst Load

Precision(정밀도)

경보가 울렸을 때 실제로 의미 있는 사건일 확률에 가깝다

Recall(재현율)

실제 중요한 사건 중 얼마나 놓치지 않고 잡았는가에 가깝다

Trade-off

재현율을 올리면 소음이 늘고, 정밀도를 올리면 놓침 위험이 커질 수 있다

SOC 실무

숫자만 볼 것이 아니라 케이스 볼륨, analyst 시간, 중요한 자산 보호 수준까지 함께 봐야 한다

실무 포인트

지표는 수학이 아니라 운영 경제성과 직접 연결된다는 점을 분명히 해 주세요.

학습 요소
PrecisionRecallF1Trade-off

특히 초급 분석가에게는 precision을 '내가 열어볼 가치가 있는 경보 비율'로 설명하면 이해가 빠릅니다.

다음 연결

다음에서는 혼동행렬을 실제 경보 큐 관점으로 해석해 줍니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
혼동행렬을 케이스 큐로 번역하기
True Positive와 False Positive는 숫자가 아니라 분석가의 시간과 놓친 침해라는 현실로 바뀐다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
True Positive와 False Positive는 숫자가 아니라 분석가의 시간과 놓친 침해라는 현실로 바뀐다.
Predicted
x
Actual
TP / FP / FN / TN

True Positive

실제 침해나 의미 있는 이상행위를 발견해 대응으로 이어진 경우

False Positive

시간을 써서 조사했지만 정상으로 결론 난 경우

False Negative

경보가 없거나 낮은 점수로 묻혀 실제 사건을 놓친 경우

True Negative

별도 조치 없이 지나가도 되는 정상 이벤트로, 대규모 환경에서는 대부분을 차지한다

실무 포인트

혼동행렬은 데이터 과학 용어가 아니라 SOC 운영 보고서의 핵심이라는 인식을 주는 것이 중요합니다.

학습 요소
Confusion MatrixTPFPFN

False Negative는 보이지 않기 때문에 더 위험하다는 점을 꼭 짚어 주세요.

다음 연결

마지막으로 SOC의 피드백이 어떻게 모델 개선으로 연결되는지 다룹니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
분석가 피드백 루프가 모델을 운영 시스템으로 만든다
좋은 모델은 한 번 학습된 모델이 아니라, 현업의 피드백을 먹고 계속 조정되는 모델이다.
핵심 개념
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
좋은 모델은 한 번 학습된 모델이 아니라, 현업의 피드백을 먹고 계속 조정되는 모델이다.
Analyst Disposition
Model Tuning
Better Prioritization

포인트 1

케이스 종료 상태, 오탐 사유, 자산 중요도, 예외 정보는 재학습과 임계치 조정의 재료가 된다

포인트 2

분석가가 남긴 investigation note는 feature 추가나 프롬프트 개선에 직접 활용될 수 있다

포인트 3

Human-in-the-loop 구조가 없으면 모델은 현실 맥락을 반영하지 못하고 신뢰를 잃는다

포인트 4

따라서 AI 운영의 핵심은 모델 자체보다 feedback capture와 evaluation discipline이다

실무 포인트

이 슬라이드는 AI 운영의 본질이 '기술 배포'가 아니라 '학습하는 운영체계'라는 점을 보여 줍니다.

학습 요소
Feedback LoopDispositionTuningHuman-in-the-loop

피드백을 기록하지 않는 조직은 모델을 가져와도 성숙도가 쉽게 올라가지 않는다고 설명해 주세요.

다음 연결

이제 본격적으로 이상탐지가 무엇인지, 그리고 왜 SOC에서 중요한지 살펴봅니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
Check Point · Part 2
AI/ML 개념을 SOC 언어로 이해하기 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
AI/ML 개념을 SOC 언어로 이해하기 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

보안에서 말하는 AI/ML이란 무엇인가

입력: 로그, 이벤트, 엔티티 컨텍스트, 위협 인텔리전스, 케이스 이력 같은 관측 데이터

포인트 2

반지도학습과 약한 감독(Weak Supervision): 반지도학습: 소수의 라벨과 다수의 무라벨 데이터를 함께 써서 모델의 일반화를 높이는 접근

모델 출력은 '정답'보다 '신호'인 경우가 많다

Class: 예를 들어 웹 요청을 benign / SQLi / XSS / brute force 후보로 분류할 수 있다

포인트 4

분석가 피드백 루프가 모델을 운영 시스템으로 만든다: 케이스 종료 상태, 오탐 사유, 자산 중요도, 예외 정보는 재학습과 임계치 조정의 재료가 된다

실무 포인트

AI/ML 개념을 SOC 언어로 이해하기 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
Noisy LabelsModelInputOutputOperationalization

반지도학습과 약한 감독(Weak Supervision): 반지도학습: 소수의 라벨과 다수의 무라벨 데이터를 함께 써서 모델의 일반화를 높이는 접근

다음 연결

이제 본격적으로 이상탐지가 무엇인지, 그리고 왜 SOC에서 중요한지 살펴봅니다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
현업 적용 포인트 · AI 성능을 SOC KPI로 읽는 법
정밀도와 재현율은 모델 수학이 아니라, 분석가 시간과 놓친 침해의 비용으로 읽어야 한다.
현업 적용
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
정밀도와 재현율은 모델 수학이 아니라, 분석가 시간과 놓친 침해의 비용으로 읽어야 한다.
현업 적용실무 포인트

Precision 해석

경보가 울렸을 때 실제로 열어볼 가치가 있는 사건 비율로 설명한다.

Recall 해석

실제 중요한 사건을 얼마나 놓치지 않았는지로 해석한다.

운영 선택

batch는 일일 risk review에, streaming은 즉시 대응 use case에 맞춘다.

피드백 루프

종료 상태·오탐 사유·추가 조사 메모를 다음 튜닝 자산으로 저장한다.

실무 포인트

숫자를 암기시키기보다, KPI가 analyst workload와 어떻게 연결되는지 말해 주는 편이 효과적이다.

학습 요소
PrecisionRecallStreamingFeedback Loop

Recall 해석: 실제 중요한 사건을 얼마나 놓치지 않았는지로 해석한다.

다음 연결

이제 baseline과 deviation 관점에서 이상탐지를 구체적으로 다룬다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
운영 주의 · AI 용어를 오해할 때 생기는 실수
지도·비지도·반지도·precision·recall을 기술 용어로만 이해하면 운영 설계가 엉뚱한 방향으로 흐를 수 있다.
운영 주의
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
지도·비지도·반지도·precision·recall을 기술 용어로만 이해하면 운영 설계가 엉뚱한 방향으로 흐를 수 있다.
운영 주의운영 주의

라벨 환상

보안 데이터에 완전한 정답표가 있을 것이라고 기대하면 도입 속도가 멈춘다.

지표 오독

높은 F1이 곧 좋은 운영을 뜻하지 않으며, analyst workload와 함께 봐야 한다.

추론 오해

실시간 inference가 무조건 우수한 것이 아니라 비용·지연·오탐 책임을 함께 따져야 한다.

피드백 누락

disposition과 note를 구조화하지 않으면 모델은 같은 실수를 반복한다.

운영 주의

기술 용어를 SOC 문장으로 번역해 주는 순간 수강생의 저항이 크게 줄어든다.

학습 요소
Noisy LabelsMetricsInference CostDisposition

지표 오독: 높은 F1이 곧 좋은 운영을 뜻하지 않으며, analyst workload와 함께 봐야 한다.

다음 연결

이제 실제로 anomaly가 무엇이고 어떻게 다뤄야 하는지로 넘어간다.

🧠 AI/ML 개념을 SOC 언어로 이해하기
실무 적용 예시 · 모델 성능을 운영 선택으로 바꾸기
동일한 모델이라도 조직의 analyst capacity와 중요한 자산의 보호 수준에 따라 threshold와 bucket 설계가 달라진다.
적용 예시
Part 02 · AI/ML 개념을 SOC 언어로 이해하기
동일한 모델이라도 조직의 analyst capacity와 중요한 자산의 보호 수준에 따라 threshold와 bucket 설계가 달라진다.
적용 예시적용 예시

상황

재현율을 높였더니 하루 40건이던 review queue가 180건으로 늘어 Tier1 적체가 심해졌다.

판단

precision 저하를 감수할 가치가 있는 고위험 자산 use case인지부터 다시 분리한다.

조정

privileged user·critical asset·recent change 조합만 high bucket으로 승격하고 나머지는 batch review로 이동한다.

결론

좋은 모델은 높은 점수표가 아니라, 조직이 소화 가능한 형태로 위험을 정렬해 주는 모델이다.

실무 포인트

운영 볼륨을 고려하지 않은 성능 비교는 현업 설득력이 떨어진다는 점을 예시로 강조하자.

학습 요소
Threshold TuningHigh BucketAnalyst CapacityRisk-based Design

판단: precision 저하를 감수할 가치가 있는 고위험 자산 use case인지부터 다시 분리한다.

다음 연결

다음 파트에서는 이런 score와 baseline이 anomaly detection에서 어떻게 쓰이는지 구체적으로 본다.

03
이상탐지(Anomaly Detection) 핵심
이상탐지는 '정상처럼 보이지 않는 것'을 찾아내는 기술이지, 자동으로 공격 확정판정을 내리는 기술은 아니다.
📈 원고 028–039 · 12장 구성
시작 슬라이드
이상탐지란 무엇인가
마무리 슬라이드
결론: 이상은 단서이지 판결문이 아니다
핵심 키워드
BaselineSeasonalityPeer GroupThreshold
📈 이상탐지(Anomaly Detection) 핵심
이상탐지란 무엇인가
이상탐지는 '정상처럼 보이지 않는 것'을 찾아내는 기술이지, 자동으로 공격 확정판정을 내리는 기술은 아니다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
이상탐지는 '정상처럼 보이지 않는 것'을 찾아내는 기술이지, 자동으로 공격 확정판정을 내리는 기술은 아니다.
Baseline
Deviation
Review / Alert

핵심 정의

baseline에서 크게 벗어난 이벤트, 엔티티, 시퀀스, 집합 패턴을 찾는 것

보안 가치

정답 데이터가 부족한 환경에서도 새로운 이상행위 후보를 드러낼 수 있다

운영 역할

최종 판정 도구가 아니라 triage와 hunting의 출발점으로 쓰는 것이 현실적이다

실무 원칙

anomaly는 alert일 수도 있고 review queue의 후보일 수도 있으며, 품질 설계가 중요하다

실무 포인트

수강생이 '이상 = 공격'으로 단순화하지 않도록 첫 문장을 강하게 설명해 주세요.

학습 요소
Anomaly DetectionBaselineDeviationReview

이상탐지의 목적을 '후보 제시'로 두면 오탐 문제도 더 현실적으로 이해됩니다.

다음 연결

다음은 이상의 종류를 세 가지로 나눠 보면 이해가 쉬워집니다.

📈 이상탐지(Anomaly Detection) 핵심
Point / Contextual / Collective Anomaly
이상은 한 점의 크기만으로도 나타나고, 맥락이나 집합 패턴에서만 드러나기도 한다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
이상은 한 점의 크기만으로도 나타나고, 맥락이나 집합 패턴에서만 드러나기도 한다.
Point
Contextual
Collective

Point anomaly

단일 값이 유난히 크거나 작은 경우, 예를 들어 갑작스러운 대용량 전송

Contextual anomaly

같은 행위라도 새벽 3시, 해외 IP, 미등록 장치처럼 맥락이 달라질 때 이상해지는 경우

Collective anomaly

개별 이벤트는 평범하지만 여러 이벤트를 합치면 이상한 경우, 예를 들어 fail→success→sudo 연쇄

SOC 포인트

공격자는 단건보다 연쇄와 맥락에서 더 자주 드러난다

실무 포인트

이 슬라이드는 이후 UEBA와 상관분석으로 넘어가는 다리 역할을 합니다.

학습 요소
Point AnomalyContextualCollectiveSequence

개별 로그보다 맥락과 연쇄가 중요하다는 메시지를 강하게 남겨 주세요.

다음 연결

이제 baseline이 어떻게 만들어지고 왜 계절성까지 봐야 하는지 설명합니다.

📈 이상탐지(Anomaly Detection) 핵심
Baseline과 Seasonality
정상을 모르면 이상도 모른다. 그리고 정상은 시간과 업무 맥락에 따라 주기적으로 변한다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
정상을 모르면 이상도 모른다. 그리고 정상은 시간과 업무 맥락에 따라 주기적으로 변한다.
Behavior over Time
+
Baseline Band

개인 baseline

특정 사용자의 평소 로그인 시간, 위치, 디바이스, 접근 자원 패턴

집단 baseline

같은 부서, 같은 직무, 같은 서버군처럼 peer group 차원의 정상 범위

주기성

월말, 백업 시간, 야간 배치, 주말 유지보수처럼 반복되는 업무 패턴을 구분해야 한다

실무 함정

seasonality를 무시하면 정상 업무를 반복적으로 이상으로 오탐지한다

실무 포인트

baseline을 개인과 집단 두 축으로 설명해 두면 UEBA 파트가 훨씬 쉬워집니다.

학습 요소
BaselineSeasonalityPeer GroupCyclic Pattern

정상 범위가 고정선이 아니라 움직이는 띠라는 이미지로 설명해 주세요.

다음 연결

이제 가장 간단한 통계 기반 접근부터 차례대로 봅니다.

📈 이상탐지(Anomaly Detection) 핵심
통계 기반 이상탐지
가장 단순한 접근은 평균, 분산, 분위수처럼 기본 통계에서 크게 벗어나는 값을 찾는 것이다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
가장 단순한 접근은 평균, 분산, 분위수처럼 기본 통계에서 크게 벗어나는 값을 찾는 것이다.
Metric
VS
Expected Range

예시 지표

로그인 실패 수, 분당 요청 수, 전송 바이트 수, DNS 질의 수 같은 수치형 데이터

장점

직관적이고 설명 가능성이 높아 운영자 설득이 쉽다

한계

다변량 관계와 복잡한 순서 패턴을 잘 반영하지 못한다

사용 팁

초기 파일럿에서는 z-score, percentile, moving average만으로도 충분히 가치가 나올 수 있다

실무 포인트

처음부터 복잡한 모델로 가지 말고, 단순 통계도 강력한 출발점이 될 수 있다는 자신감을 주세요.

학습 요소
StatisticsThresholdPercentileExplainability

설명 가능한 모델이 초기 도입에는 유리하다는 현실도 함께 이야기해 주세요.

다음 연결

다음은 거리 기반 접근으로 넘어가서 유사한 이웃과 얼마나 다른지 봅니다.

📈 이상탐지(Anomaly Detection) 핵심
거리 기반 접근: KNN 직관
비슷한 이웃들과 거리가 멀수록 '이상할 가능성'이 커진다고 보는 방법이다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
비슷한 이웃들과 거리가 멀수록 '이상할 가능성'이 커진다고 보는 방법이다.
Nearest Neighbors
Distance Score

아이디어

사용자나 세션을 여러 feature 공간에 놓고, 주변 이웃과 얼마나 떨어져 있는지 측정한다

유용한 경우

다변량 패턴을 함께 보아야 할 때, 예를 들어 시간·위치·실패횟수·디바이스 신규 여부를 동시에 반영할 때

장점

baseline을 단일 평균이 아니라 주변 행위 집단으로 볼 수 있다

한계

데이터 크기가 커지면 비용이 올라가고, feature scaling 설계가 매우 중요하다

실무 포인트

KNN은 수학보다 '친한 이웃과 얼마나 멀리 떨어져 있나'라는 이미지로 설명하면 충분합니다.

학습 요소
KNNDistanceFeature SpaceScaling

feature scaling을 무시하면 시간과 바이트처럼 큰 값이 모델을 왜곡할 수 있다는 점을 짚어 주세요.

다음 연결

다음은 비슷한 행위끼리 묶어 보는 클러스터링 관점입니다.

📈 이상탐지(Anomaly Detection) 핵심
클러스터링: K-means 직관
클러스터링은 데이터를 비슷한 그룹으로 나누고, 그룹 중심에서 멀리 떨어진 대상을 이상 후보로 보는 접근이다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
클러스터링은 데이터를 비슷한 그룹으로 나누고, 그룹 중심에서 멀리 떨어진 대상을 이상 후보로 보는 접근이다.
Cluster Centers
+
Outliers

활용 예

사용자 행동을 몇 개의 업무 패턴 군집으로 나눈 뒤, 어느 군집에도 잘 맞지 않는 행위를 찾는다

장점

환경 전체의 큰 구조를 이해하는 데 유용하고, peer group 생성에도 힌트를 준다

한계

군집 수 선택, 초기값, 비구형 데이터 구조에 민감할 수 있다

SOC 메시지

군집 결과를 보안 라벨로 곧바로 해석하지 말고, 운영 분류 가설로 활용하는 것이 안전하다

실무 포인트

클러스터링은 탐지기보다 데이터 구조 이해 도구로 설명하면 과장 없이 전달할 수 있습니다.

학습 요소
ClusteringK-meansPeer GroupStructure

peer group을 자동으로 만드는 출발점으로 연결해 주면 UEBA와 자연스럽게 이어집니다.

다음 연결

다음은 보안 현장에서 자주 언급되는 Isolation Forest로 넘어갑니다.

📈 이상탐지(Anomaly Detection) 핵심
Isolation Forest
Isolation Forest는 이상치를 '다른 점보다 더 쉽게 분리되는 점'으로 본다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
Isolation Forest는 이상치를 '다른 점보다 더 쉽게 분리되는 점'으로 본다.
Random Splits
Easy Isolation = Higher Anomaly

직관

정상 데이터는 서로 비슷해 분리하려면 여러 번 나눠야 하지만, 이상치는 몇 번의 분할만으로도 고립된다

보안 적합성

고차원 feature와 대규모 데이터에서 비교적 실용적으로 쓰이기 쉽다

장점

outlier 탐지에 강하고 구현 난이도가 상대적으로 낮다

주의점

설명 가능성이 아주 직관적이진 않으므로 어떤 feature가 점수에 영향을 줬는지 보완 설명이 필요하다

실무 포인트

Isolation Forest는 이름 때문에 어려워 보이지만 '고립되기 쉬운 점'이라는 직관만 이해해도 충분합니다.

학습 요소
Isolation ForestOutlierHigh DimensionInterpretation

운영팀에는 점수의 이유를 함께 보여 주는 보조 설명이 중요하다고 덧붙여 주세요.

다음 연결

더 복잡한 패턴을 표현할 수 있는 Autoencoder도 개념 수준으로 살펴봅니다.

📈 이상탐지(Anomaly Detection) 핵심
Autoencoder의 직관
Autoencoder는 정상 패턴을 압축했다가 복원하는 데 익숙해지고, 낯선 입력을 잘 복원하지 못하는 특성을 이용한다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
Autoencoder는 정상 패턴을 압축했다가 복원하는 데 익숙해지고, 낯선 입력을 잘 복원하지 못하는 특성을 이용한다.
Input
Encode
Decode
Reconstruction Error

핵심 아이디어

정상 데이터로 학습하면 정상은 잘 재현하지만, 이상 데이터는 재구성 오차가 커질 수 있다

장점

복잡한 비선형 관계를 표현할 수 있어 다변량 이상탐지에 활용 가능하다

한계

왜 이상인지 설명하기 어려울 수 있고, 학습 데이터에 이상치가 많이 섞이면 기준이 흐려진다

SOC 포인트

강력해 보이지만 초기 도입에는 explainability와 운영 검증 체계를 먼저 생각해야 한다

실무 포인트

Autoencoder는 '고급 알고리즘' 소개가 아니라 explainability trade-off를 이해시키는 용도로 다루는 것이 좋습니다.

학습 요소
AutoencoderReconstruction ErrorNonlinearExplainability

수강생에게 모델 복잡도가 높아질수록 운영 통제가 더 중요해진다는 메시지를 남겨 주세요.

다음 연결

이제 시간 흐름 자체를 보는 시계열 관점으로 넘어갑니다.

📈 이상탐지(Anomaly Detection) 핵심
시계열 이상탐지
많은 보안 행위는 개별 값보다 시간 축의 패턴으로 이해해야 한다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
많은 보안 행위는 개별 값보다 시간 축의 패턴으로 이해해야 한다.
Time
Pattern Shift / Periodicity / Burst

예시 문제

분당 DNS 요청 급증, 일정 주기의 beaconing, 특정 시간대 로그인 폭증, 주기적 실패-성공 전환

핵심 요소

추세(trend), 계절성(seasonality), 변동성(volatility), 급격한 변화(change point)

보안 가치

공격자는 종종 시간 간격과 반복성에서 흔적을 남긴다

주의점

운영성 배치 작업과 정기 유지보수도 시계열상 이상처럼 보일 수 있으므로 맥락이 필수다

실무 포인트

beaconing처럼 '모양'이 중요한 사례를 언급하면 시계열 개념이 훨씬 직관적으로 전달됩니다.

학습 요소
Time SeriesTrendSeasonalityChange Point

정상 배치 작업과의 구분을 꼭 이야기해 실무 감각을 더해 주세요.

다음 연결

다음은 점수를 실제 Alert로 바꿀 때 필요한 threshold와 risk score 설계입니다.

📈 이상탐지(Anomaly Detection) 핵심
Threshold와 Risk Score 설계
모델이 점수를 주는 것만으로는 부족하고, 그 점수를 언제 어떻게 조치로 바꿀지 설계해야 한다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
모델이 점수를 주는 것만으로는 부족하고, 그 점수를 언제 어떻게 조치로 바꿀지 설계해야 한다.
Anomaly Score
Risk Bucket
Action

단일 임계치

anomaly score가 일정 값 이상이면 review 또는 alert로 승격한다

다중 조건

점수 + 자산 중요도 + 관리자 계정 여부 + first-seen 여부를 합쳐 우선순위를 정할 수 있다

버킷 전략

High/Medium/Low로 구간화해 서로 다른 playbook과 SLA를 적용한다

운영 팁

threshold는 한 번 정하고 끝내지 말고, 경보량·정밀도·놓침 사례를 보며 계속 조정해야 한다

실무 포인트

점수는 기술 산출물이고, threshold는 운영 결정이라는 구분을 꼭 말해 주세요.

학습 요소
ThresholdRisk ScorePrioritizationSLA

자산 중요도와 계정 권한 같은 business context가 risk score를 바꾼다는 점이 핵심입니다.

다음 연결

이제 실제 SOC에서 어떤 use case가 이상탐지에 잘 맞는지 정리합니다.

📈 이상탐지(Anomaly Detection) 핵심
이상탐지가 특히 잘 맞는 SOC use case
정답이 적고 정상 패턴의 범위를 먼저 이해해야 하는 문제에서 이상탐지는 특히 강하다.
핵심 개념
Part 03 · 이상탐지(Anomaly Detectio…
정답이 적고 정상 패턴의 범위를 먼저 이해해야 하는 문제에서 이상탐지는 특히 강하다.
Identity
Network
Web
Endpoint

아이덴티티

비업무 시간 로그인, 새로운 국가/ASN, 새로운 장치, 실패-성공 연쇄

네트워크

unusual bytes out, rare destination, periodic connection, 갑작스러운 포트 스캔 성향

웹/애플리케이션

갑작스러운 에러율 변화, 비정상 요청 속도, 희귀 URI 접근, user-agent 이상

엔드포인트

rare process, uncommon parent-child chain, 평소와 다른 권한 사용 흐름

실무 포인트

수강생이 '어디에 써야 하나'를 한눈에 떠올릴 수 있도록 도메인별 예시를 빠르게 쏘아 주세요.

학습 요소
Use CasesIdentityNetworkRare Events

각 use case가 사실상 이전 모듈의 데이터와 연결되어 있다는 점도 상기시키면 좋습니다.

다음 연결

하지만 모든 이상이 보안 사고는 아니라는 마지막 경계선을 분명히 해야 합니다.

📈 이상탐지(Anomaly Detection) 핵심
결론: 이상은 단서이지 판결문이 아니다
이상탐지의 성패는 모델보다도, 이상을 어떻게 조사 질문으로 번역하느냐에 달려 있다.
정리/체크
Part 03 · 이상탐지(Anomaly Detectio…
이상탐지의 성패는 모델보다도, 이상을 어떻게 조사 질문으로 번역하느냐에 달려 있다.
Anomaly
Questions
Evidence-based Decision

질문 1

이 행위는 baseline 대비 왜 드문가

질문 2

이 엔티티는 고위험 자산이나 관리자 계정인가

질문 3

같은 시간대에 연관된 인증, 네트워크, 웹, 엔드포인트 신호가 있는가

질문 4

운영성 변화나 정상 업무 이벤트로 설명 가능한가

포인트 5

따라서 SOC는 anomaly score를 끝이 아니라 조사 시작점으로 취급해야 한다

실무 포인트

이 슬라이드는 초급 분석가에게 가장 실전적인 메시지를 남기는 부분입니다.

학습 요소
Investigation QuestionsContextEvidenceDecision

점수에 감탄하기보다 질문을 잘하는 것이 좋은 분석가라는 점을 분명히 해 주세요.

다음 연결

이제 모델 입력의 핵심인 feature engineering으로 넘어갑니다.

📈 이상탐지(Anomaly Detection) 핵심
Check Point · Part 3
이상탐지(Anomaly Detection) 핵심 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 03 · 이상탐지(Anomaly Detectio…
이상탐지(Anomaly Detection) 핵심 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

이상탐지란 무엇인가

핵심 정의: baseline에서 크게 벗어난 이벤트, 엔티티, 시퀀스, 집합 패턴을 찾는 것

거리 기반 접근

KNN 직관: 아이디어: 사용자나 세션을 여러 feature 공간에 놓고, 주변 이웃과 얼마나 떨어져 있는지 측정한다

시계열 이상탐지

예시 문제: 분당 DNS 요청 급증, 일정 주기의 beaconing, 특정 시간대 로그인 폭증, 주기적 실패-성공 전환

결론

이상은 단서이지 판결문이 아니다: 질문 1: 이 행위는 baseline 대비 왜 드문가

실무 포인트

이상탐지(Anomaly Detection) 핵심 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
BaselineSeasonalityPeer GroupThresholdExplainability

거리 기반 접근: KNN 직관: 아이디어: 사용자나 세션을 여러 feature 공간에 놓고, 주변 이웃과 얼마나 떨어져 있는지 측정한다

다음 연결

이제 모델 입력의 핵심인 feature engineering으로 넘어갑니다.

📈 이상탐지(Anomaly Detection) 핵심
현업 적용 포인트 · anomaly score를 조사 질문으로 바꾸기
이상탐지의 가치는 자동 유죄 판정이 아니라, baseline에서 벗어난 신호를 조사 질문으로 전환하는 데 있다.
현업 적용
Part 03 · 이상탐지(Anomaly Detectio…
이상탐지의 가치는 자동 유죄 판정이 아니라, baseline에서 벗어난 신호를 조사 질문으로 전환하는 데 있다.
현업 적용실무 포인트

질문 1

개인·peer group·seasonality 기준 중 무엇에서 가장 크게 벗어났는가?

질문 2

rare event가 privileged account·critical asset·new device와 결합됐는가?

질문 3

단건 이상인지, 시퀀스·집합 패턴 이상인지 시간축으로 다시 확인했는가?

질문 4

alert로 승격할지 review queue에 둘지 threshold와 blast radius를 같이 보았는가?

실무 포인트

점수 자체보다 질문 순서가 중요하다는 메시지를 반복하면 초급 분석가가 흔들리지 않는다.

학습 요소
BaselinePeer GroupThresholdReview Queue

질문 2: rare event가 privileged account·critical asset·new device와 결합됐는가?

다음 연결

이상 신호를 더 잘 읽기 위해서는 raw log를 feature로 바꾸는 과정이 필요하다.

📈 이상탐지(Anomaly Detection) 핵심
운영 주의 · 이상탐지를 유죄 판정기로 쓰지 않기
anomaly score가 높다는 이유만으로 사건을 확정하면, 오탐과 과잉 대응이 빠르게 누적된다.
운영 주의
Part 03 · 이상탐지(Anomaly Detectio…
anomaly score가 높다는 이유만으로 사건을 확정하면, 오탐과 과잉 대응이 빠르게 누적된다.
운영 주의운영 주의

Rare ≠ Malicious

희귀성은 강한 단서지만, 정상 업무 변화나 신규 배포도 rare하게 보일 수 있다.

Seasonality 무시

월말 정산·배치 작업·주말 유지보수를 고려하지 않으면 정상 업무를 반복 오탐한다.

Threshold 경직

임계치를 한 번 정하고 고정하면 drift와 환경 변화에 대응하지 못한다.

단건 숭배

point anomaly만 보고 collective anomaly와 post-activity를 놓치면 사건성 판단이 흔들린다.

운영 주의

score worship을 경계시키고, 질문 순서를 훈련시키는 것이 이 파트의 핵심이다.

학습 요소
Rare ≠ MaliciousSeasonalityThreshold DriftCollective Anomaly

Seasonality 무시: 월말 정산·배치 작업·주말 유지보수를 고려하지 않으면 정상 업무를 반복 오탐한다.

다음 연결

이상 신호를 더 잘 설명하려면 feature engineering이 왜 핵심인지 이해해야 한다.

📈 이상탐지(Anomaly Detection) 핵심
실무 적용 예시 · anomaly triage 질문 프레임
같은 anomaly score 82라도, 어떤 맥락과 후속 행위가 붙는지에 따라 사건성은 크게 달라진다.
적용 예시
Part 03 · 이상탐지(Anomaly Detectio…
같은 anomaly score 82라도, 어떤 맥락과 후속 행위가 붙는지에 따라 사건성은 크게 달라진다.
적용 예시적용 예시

관찰 신호

off-hours login, rare destination, bytes_out spike가 동시에 관찰되었다.

확인 질문

이 엔티티는 privileged user인가, peer group에서도 같은 패턴이 나타나는가, 최근 환경 변화가 있었는가?

판단 문장

이상 신호는 강하지만 업무성 배치 가능성이 남아 있어 review queue 승격 후 추가 evidence를 요청한다.

대응 원칙

단건 anomaly는 confirm보다 question을 만들기 위한 시작점으로 사용한다.

실무 포인트

후속 질문과 추가 evidence 요구까지 한 문장으로 닫는 예시를 보여 주면 실무 감각이 살아난다.

학습 요소
Review QueuePeer GroupEnvironment ChangeQuestion-first

확인 질문: 이 엔티티는 privileged user인가, peer group에서도 같은 패턴이 나타나는가, 최근 환경 변화가 있었는가?

다음 연결

이상 신호를 더 잘 만드는 재료가 바로 feature engineering이다.

04
로그 Feature Engineering
로그는 사람에게는 읽히지만, 모델에게는 그대로 넣기 어려운 반정형 텍스트인 경우가 많다.
🧩 원고 040–049 · 10장 구성
시작 슬라이드
왜 raw log만으로는 모델이 잘 작동하지 않는가
마무리 슬라이드
Feature 품질 체크리스트
핵심 키워드
ExplainabilityRaw LogFeature EngineeringSemi-structured
🧩 로그 Feature Engineering
왜 raw log만으로는 모델이 잘 작동하지 않는가
로그는 사람에게는 읽히지만, 모델에게는 그대로 넣기 어려운 반정형 텍스트인 경우가 많다.
핵심 개념
Part 04 · 로그 Feature Engineering
로그는 사람에게는 읽히지만, 모델에게는 그대로 넣기 어려운 반정형 텍스트인 경우가 많다.
Raw Logs
Structured Features

문제 1

필드가 제각각이고, 문자열 중심이라 거리나 유사도를 바로 계산하기 어렵다

문제 2

중요한 의미가 시간, 순서, 빈도, 희귀성처럼 파생 정보에 숨어 있다

문제 3

같은 사용자도 표기 방식이 달라 엔티티 연결이 깨질 수 있다

해결 방향

로그를 수치·범주·집계·시퀀스 feature로 바꿔 모델이 비교 가능한 형태로 만든다

실무 포인트

데이터 과학 이야기가 아니라 로그 품질과 필드 표준화의 연장선으로 설명하면 현업 저항이 줄어듭니다.

학습 요소
Raw LogFeature EngineeringSemi-structuredEntity Resolution

특히 '파생 정보가 더 중요하다'는 문장을 꼭 남겨 주세요.

다음 연결

다음은 parsing과 normalization이 왜 feature engineering의 첫 단계인지 설명합니다.

🧩 로그 Feature Engineering
Parsing, Normalization, Schema 정렬
좋은 feature engineering의 출발점은 화려한 모델이 아니라, 일관된 필드 체계를 만드는 것이다.
핵심 개념
Part 04 · 로그 Feature Engineering
좋은 feature engineering의 출발점은 화려한 모델이 아니라, 일관된 필드 체계를 만드는 것이다.
Parse
Normalize
Common Schema

Parsing

timestamp, user, src_ip, dst_ip, action, status, url, process, bytes 같은 기본 필드를 추출한다

Normalization

제품마다 다른 필드명을 공통 의미로 맞추고 시간대, 단위, 상태값 표현을 정리한다

Schema

인증, 네트워크, 웹, 엔드포인트 간 공통 키를 정의해 상관분석과 엔티티 결합이 가능하게 한다

운영 효과

스키마가 안정적일수록 룰·모델·대시보드·보고서가 모두 덜 깨진다

실무 포인트

스키마 정렬은 AI를 위한 전처리이자 SIEM 성숙도의 핵심이라는 점을 연결해 주세요.

학습 요소
ParsingNormalizationSchemaCommon Fields

필드 표준화가 안 된 상태에서 모델 성능 논의는 의미가 약하다는 것도 짚어 주세요.

다음 연결

이제 서로 다른 로그를 하나의 사용자와 자산으로 묶는 entity mapping으로 갑니다.

🧩 로그 Feature Engineering
Entity Mapping: 사용자·호스트·앱을 같은 이야기로 묶기
Feature engineering의 절반은 숫자를 만드는 것이 아니라, 누가 누구인지 끊기지 않게 연결하는 일이다.
핵심 개념
Part 04 · 로그 Feature Engineering
Feature engineering의 절반은 숫자를 만드는 것이 아니라, 누가 누구인지 끊기지 않게 연결하는 일이다.
Identity Hub
Host
App
Session
Geo
Criticality

사용자

이메일, 사번, 계정명, UPN, 로컬 계정명을 하나의 identity로 연결해야 한다

호스트/자산

hostname, asset id, cloud instance id, IP 변화를 같은 자산으로 추적해야 한다

애플리케이션/세션

app id, browser, device id, session id를 묶어 사용자 행동 단위를 만든다

보안 맥락

asset criticality, privileged flag, department, geo 정보가 risk score의 해석력을 키운다

실무 포인트

엔티티 연결이 깨지면 baseline도 깨지고 correlation도 깨지기 때문에 매우 중요한 슬라이드입니다.

학습 요소
Entity MappingIdentityAsset ContextEnrichment

Identity/Asset context가 붙어야 점수가 사건 우선순위로 바뀐다는 흐름을 강조하세요.

다음 연결

다음부터는 어떤 종류의 feature를 만들 수 있는지 유형별로 봅니다.

🧩 로그 Feature Engineering
시간(Time) feature
많은 보안 이상은 '무엇을 했는가'보다 '언제 했는가'에서 먼저 드러난다.
핵심 개념
Part 04 · 로그 Feature Engineering
많은 보안 이상은 '무엇을 했는가'보다 '언제 했는가'에서 먼저 드러난다.
Timestamp
Hour / Day / Delta / Off-hours

예시 feature

hour of day, day of week, holiday 여부, business hours 여부, last seen 이후 경과시간

파생 가치

같은 로그인이라도 평일 오전과 주말 새벽의 의미는 완전히 다를 수 있다

시계열 관점

burst, lull, change point, seasonal deviation 같은 시간 구조도 중요한 feature가 된다

실무 팁

시간대와 공휴일 처리, 글로벌 조직의 로컬 시간 변환을 틀리지 않는 것이 기본이다

실무 포인트

시간 feature는 가장 단순하지만 가장 자주 먹히는 feature 중 하나입니다.

학습 요소
Time FeaturesBusiness HoursRecencySeasonality

글로벌 조직이라면 로컬 시간과 UTC 혼선을 꼭 경고해 주세요.

다음 연결

다음은 개수와 빈도 기반 feature로 넘어갑니다.

🧩 로그 Feature Engineering
Count / Frequency / Window feature
단일 이벤트보다 일정 시간창 안에서 몇 번 반복됐는지가 더 강한 의미를 가질 때가 많다.
핵심 개념
Part 04 · 로그 Feature Engineering
단일 이벤트보다 일정 시간창 안에서 몇 번 반복됐는지가 더 강한 의미를 가질 때가 많다.
Events in Window
Count / Rate / Burst Score

예시

5분 내 로그인 실패 수, 30분 내 같은 국가 변경 수, 1시간 내 rare domain 접속 수

윈도우 설계

5분, 1시간, 24시간처럼 공격 속도와 업무 맥락에 맞는 창을 선택해야 한다

장점

brute force, scan, burst, 짧은 연쇄 이벤트를 잘 포착한다

주의점

지나치게 긴 창은 정상 업무를 섞어 버리고, 너무 짧은 창은 느린 공격을 놓칠 수 있다

실무 포인트

window feature는 SIEM 룰과 모델 사이를 잇는 매우 실전적인 개념입니다.

학습 요소
Window FeaturesCountRateBurst

공격 속도에 맞는 관찰 창을 선택해야 한다는 점을 예시와 함께 설명해 주세요.

다음 연결

이제 범주형 데이터와 rare event를 다루는 방식을 설명합니다.

🧩 로그 Feature Engineering
Categorical feature와 Rare Event feature
보안에서는 '처음 본 것'과 '매우 드문 것' 자체가 강력한 신호가 되는 경우가 많다.
핵심 개념
Part 04 · 로그 Feature Engineering
보안에서는 '처음 본 것'과 '매우 드문 것' 자체가 강력한 신호가 되는 경우가 많다.
Category
Frequency / First-seen / Rarity

범주형 예시

국가, ASN, user-agent, 브라우저, 프로세스명, 부모 프로세스, URI category

Rare feature 예시

first-seen device, rare command, uncommon destination, unusual MIME type

표현 방식

one-hot, count encoding, frequency ranking, first-seen flag 같은 방식으로 수치화할 수 있다

주의점

rare가 곧 malicious는 아니므로, rarity는 반드시 권한·자산·시간 맥락과 함께 봐야 한다

실무 포인트

보안 분석가는 희귀성을 직관적으로 이해하므로, 이를 수치화하는 관점만 연결해 주면 됩니다.

학습 요소
CategoricalRarityFirst-seenFrequency Encoding

rare feature가 많은 환경일수록 peer group과 baseline이 중요하다고 덧붙여 주세요.

다음 연결

다음은 순서와 체인을 feature로 만드는 시퀀스 관점입니다.

🧩 로그 Feature Engineering
Sequence와 Temporal Chain feature
공격은 단일 이벤트보다 단계적 흐름으로 드러나는 경우가 많아서, 순서를 feature로 만드는 것이 중요하다.
핵심 개념
Part 04 · 로그 Feature Engineering
공격은 단일 이벤트보다 단계적 흐름으로 드러나는 경우가 많아서, 순서를 feature로 만드는 것이 중요하다.
Event A
Event B
Event C

예시 체인

fail login → success login → privilege use / download → execution → beaconing

표현 방법

n-gram sequence, ordered event count, 단계 간 시간 간격, 전후 관계 flag

보안 가치

각각은 정상일 수 있는 이벤트도 순서가 맞물리면 침해 가능성이 커진다

운영 팁

sequence feature는 ATT&CK 절차와 상관분석 아이디어를 모델 친화적으로 바꿔 주는 다리다

실무 포인트

sequence feature를 설명할 때는 이전 모듈의 침해 시나리오를 다시 떠올리게 해 주세요.

학습 요소
SequenceTemporal ChainCorrelationProcedure

이 슬라이드는 AI와 ATT&CK/Correlation이 연결되는 핵심 포인트입니다.

다음 연결

다음은 네트워크와 웹, 텍스트 데이터에서 자주 쓰는 feature를 묶어 봅니다.

🧩 로그 Feature Engineering
네트워크·웹·텍스트 feature
도메인별로 중요한 feature는 조금씩 다르지만, 결국 목표는 행위의 빈도·형태·맥락을 숫자로 바꾸는 것이다.
핵심 개념
Part 04 · 로그 Feature Engineering
도메인별로 중요한 feature는 조금씩 다르지만, 결국 목표는 행위의 빈도·형태·맥락을 숫자로 바꾸는 것이다.
Network
Web/DNS
Text

네트워크/Flow

bytes in/out, duration, interval, distinct destination count, port rarity, periodicity

DNS/Web

query length, subdomain depth, status code mix, method ratio, URI rarity, response size 변화

텍스트/메시지

로그 메시지 키워드, alert title, ticket note는 embedding이나 keyword flag로 활용 가능하다

실무 원칙

가성비가 높은 단순 feature부터 시작하고, 이후에 고급 feature를 추가하는 편이 안전하다

실무 포인트

텍스트 embedding은 멋있어 보이지만, 먼저 structured feature로 충분한지 확인하라는 조언이 중요합니다.

학습 요소
Flow FeaturesHTTP FeaturesEmbeddingsPeriodicity

도메인별 feature가 달라도 설계 원리는 같다는 점을 반복해 주세요.

다음 연결

다음 슬라이드에서 실제 로그를 feature vector로 바꾸는 예를 한 번에 보여 줍니다.

🧩 로그 Feature Engineering
예시: auth.log와 access.log를 feature vector로 바꾸기
Feature engineering은 결국 로그를 '모델이 비교할 수 있는 표 형태'로 바꾸는 작업이다.
사례/시나리오
Part 04 · 로그 Feature Engineering
Feature engineering은 결국 로그를 '모델이 비교할 수 있는 표 형태'로 바꾸는 작업이다.
Raw Event
Feature Vector
+
Original Evidence

Auth 예시

user=kim time=03:12 src_ip=203.0.113.5 result=success device=new fail_count_30m=14 → hour=3, off_hours=1, new_device=1, fail_count_30m=14, country_rarity=0.92

Web 예시

POST /login 401 ua=python-requests body_len=982 → method=POST, login_uri=1, status_401=1, ua_rarity=0.97, body_len_z=2.3, same_ip_fail_rate_10m=18

해석 포인트

원문을 버리는 것이 아니라, 원문 의미를 비교 가능한 숫자와 flag로 재표현하는 것이다

운영 포인트

feature와 원문 로그를 함께 보존해야 analyst explainability가 살아난다

실무 포인트

실무자는 이 예시 슬라이드를 매우 좋아합니다. 복잡한 이론이 구체적인 감으로 바뀌기 때문입니다.

학습 요소
Feature VectorExplainabilityAuth LogWeb Log

feature가 원문 로그를 대체하는 것이 아니라 해석 보조라는 점을 꼭 강조해 주세요.

다음 연결

마지막으로 feature 품질을 점검하는 체크리스트로 마무리합니다.

🧩 로그 Feature Engineering
Feature 품질 체크리스트
모델 성능은 알고리즘보다 feature 품질과 데이터 운영 습관에 더 크게 좌우되는 경우가 많다.
정리/체크
Part 04 · 로그 Feature Engineering
모델 성능은 알고리즘보다 feature 품질과 데이터 운영 습관에 더 크게 좌우되는 경우가 많다.
체크리스트형 레이아웃원고 049

완전성

누락 필드, timestamp 오류, timezone 혼선, device id 공백 같은 데이터 결함이 없는가

안정성

배포나 제품 교체 이후에도 같은 의미의 feature가 지속적으로 계산되는가

설명 가능성

점수가 높아졌을 때 analyst가 원인 feature를 납득할 수 있는가

비용과 속도

계산 비용이 과도하지 않고, 필요한 지연시간 안에 생성 가능한가

데이터 누수 방지

미래 정보나 조사 결과가 feature에 섞여 모델이 '답을 미리 본' 상태가 아닌가

실무 포인트

feature engineering 파트의 결론은 '좋은 모델보다 좋은 데이터'입니다.

학습 요소
Data QualityStabilityExplainabilityLeakage

데이터 누수 개념은 초급자에게 생소할 수 있으니 미래 정보를 미리 넣으면 안 된다는 식으로 쉽게 설명해 주세요.

다음 연결

이제 feature를 엔티티 행동 분석으로 묶는 UEBA로 넘어갑니다.

🧩 로그 Feature Engineering
Check Point · Part 4
로그 Feature Engineering 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 04 · 로그 Feature Engineering
로그 Feature Engineering 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

포인트 1

왜 raw log만으로는 모델이 잘 작동하지 않는가: 문제 1: 필드가 제각각이고, 문자열 중심이라 거리나 유사도를 바로 계산하기 어렵다

시간(Time) feature

예시 feature: hour of day, day of week, holiday 여부, business hours 여부, last seen 이후 경과시간

포인트 3

Sequence와 Temporal Chain feat…: 예시 체인: fail login → success login → privilege use / download → execution → beaconing

Feature 품질 체크리스트

완전성: 누락 필드, timestamp 오류, timezone 혼선, device id 공백 같은 데이터 결함이 없는가

실무 포인트

로그 Feature Engineering 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
ExplainabilityRaw LogFeature EngineeringSemi-structuredEntity Resolution

시간(Time) feature: 예시 feature: hour of day, day of week, holiday 여부, business hours 여부, last seen 이후 경과시간

다음 연결

이제 feature를 엔티티 행동 분석으로 묶는 UEBA로 넘어갑니다.

🧩 로그 Feature Engineering
현업 적용 포인트 · 로그를 feature로 바꾸는 실전 감각
좋은 feature engineering은 화려한 모델보다, 비교 가능한 필드와 파생값을 안정적으로 만드는 데서 시작된다.
현업 적용
Part 04 · 로그 Feature Engineering
좋은 feature engineering은 화려한 모델보다, 비교 가능한 필드와 파생값을 안정적으로 만드는 데서 시작된다.
현업 적용실무 포인트

기본 전제

parsing·normalization·common schema가 먼저 갖춰져야 feature 품질이 살아난다.

가성비 feature

시간대·count/window·first-seen·rarity·sequence부터 시작하면 도입 난도가 낮다.

맥락 결합

user·host·asset criticality·privileged flag가 붙어야 risk 해석력이 커진다.

증거 보존

feature vector를 만들더라도 원문 로그와 연결성을 유지해야 explainability가 산다.

실무 포인트

초기 도입에는 단순하고 설명 가능한 feature부터 쌓아야 수강생이 실무 연결을 쉽게 이해한다.

학습 요소
NormalizationFirst-seenSequenceExplainability

가성비 feature: 시간대·count/window·first-seen·rarity·sequence부터 시작하면 도입 난도가 낮다.

다음 연결

이 feature들이 실제 사용자/엔티티 행동 분석에서 어떻게 쓰이는지 UEBA로 확장한다.

🧩 로그 Feature Engineering
운영 주의 · feature engineering에서 자주 망가지는 지점
feature가 많다고 좋은 모델이 되는 것은 아니며, 잘못 만든 feature는 오히려 설명 가능성과 품질을 해친다.
운영 주의
Part 04 · 로그 Feature Engineering
feature가 많다고 좋은 모델이 되는 것은 아니며, 잘못 만든 feature는 오히려 설명 가능성과 품질을 해친다.
운영 주의운영 주의

Timezone 혼선

UTC와 로컬 시간을 섞으면 off-hours·last-seen 계열 feature가 왜곡된다.

Entity 분절

같은 user·host가 여러 이름으로 들어오면 baseline과 correlation이 동시에 깨진다.

Feature leakage

미래 정보나 조사 결과를 feature에 섞으면 학습 결과가 비현실적으로 좋아 보인다.

Scaling 부재

바이트와 시간처럼 범위가 큰 값이 그대로 들어가면 거리 기반 방법이 치우친다.

운영 주의

화려한 feature보다 안정적인 feature 정의와 원문 증거 연결이 더 중요하다고 말해 주자.

학습 요소
TimezoneEntity ResolutionLeakageScaling

Entity 분절: 같은 user·host가 여러 이름으로 들어오면 baseline과 correlation이 동시에 깨진다.

다음 연결

이제 이런 feature를 실제 사용자 행동 분석에 올려 UEBA 관점으로 묶어 본다.

🧩 로그 Feature Engineering
실무 적용 예시 · raw log를 feature vector로 재구성하기
동일한 원문 로그도 어떤 파생값을 만들었는지에 따라 risk interpretation의 깊이가 달라진다.
적용 예시
Part 04 · 로그 Feature Engineering
동일한 원문 로그도 어떤 파생값을 만들었는지에 따라 risk interpretation의 깊이가 달라진다.
적용 예시적용 예시

원문

user=kim src_ip=203.0.113.5 time=03:12 result=success device=new 같은 인증 로그를 받는다.

변환

hour=3, off_hours=1, first_seen_device=1, fail_count_30m=14, country_rarity=0.92, peer_deviation=0.81로 재표현한다.

해석

성공 로그인 자체보다 new device·off-hours·preceding failures가 결합된 feature가 더 강한 의미를 만든다.

보존

analyst는 feature만 보지 말고 원문 로그와 enrichment를 함께 열람해야 설명 가능성이 유지된다.

실무 포인트

feature가 원문 로그를 대체하는 것이 아니라 해석을 돕는 보조층이라는 점을 분명히 하자.

학습 요소
Feature VectorOff-hoursRarityOriginal Evidence

변환: hour=3, off_hours=1, first_seen_device=1, fail_count_30m=14, country_rarity=0.92, peer_deviation=0.81로 재표현한다.

다음 연결

이제 이 feature들이 사용자와 엔티티 baseline 위에 올라가는 UEBA로 확장된다.

05
UEBA(User and Entity Behavior Analytics)
UEBA는 사용자의 행동을 단건 이벤트가 아니라 패턴과 baseline으로 이해하려는 접근이다.
👤 원고 050–060 · 11장 구성
시작 슬라이드
UEBA란 무엇인가
마무리 슬라이드
UEBA의 프라이버시·편향·거버넌스 이슈
핵심 키워드
UEBARisk ScoreService AccountFirst-seen Device
👤 UEBA(User and Entity Behavior Analytics)
UEBA란 무엇인가
UEBA는 사용자의 행동을 단건 이벤트가 아니라 패턴과 baseline으로 이해하려는 접근이다.
핵심 개념
Part 05 · UEBA(User and Entity …
UEBA는 사용자의 행동을 단건 이벤트가 아니라 패턴과 baseline으로 이해하려는 접근이다.
Identity Behaviors
Profile
Risk

정의

User and Entity Behavior Analytics는 사용자·자산·앱·서비스 계정의 평소 행태를 모델링하고 이상을 찾는다

왜 중요한가

공격자는 정상 계정과 정상 도구를 악용하므로, 로그인 성공 이후의 행동 차이가 핵심 단서가 된다

SOC 가치

인증 로그와 자산 맥락을 묶어 '왜 이 사용자가 지금 이상한가'를 설명하기 좋다

출력 형태

anomaly score, risk score, peer group deviation, unusual chain 같은 요약 신호로 제공된다

실무 포인트

UEBA는 단순 로그인 이상탐지보다 넓은 개념이라는 점을 먼저 명확히 해 주세요.

학습 요소
UEBAIdentityBehavior ProfileRisk Score

정상 계정 악용을 잡기 위한 관점이라는 말을 강하게 남기면 좋습니다.

다음 연결

다음은 사용자를 넘어서 어떤 엔티티까지 UEBA 대상으로 볼 수 있는지 확장합니다.

👤 UEBA(User and Entity Behavior Analytics)
UEBA의 대상은 사용자만이 아니다
현대 환경에서는 사람 계정뿐 아니라 서비스 계정, 디바이스, 애플리케이션도 행동 주체로 봐야 한다.
핵심 개념
Part 05 · UEBA(User and Entity …
현대 환경에서는 사람 계정뿐 아니라 서비스 계정, 디바이스, 애플리케이션도 행동 주체로 봐야 한다.
User
Service Account
Host
App

사용자 계정

직원, 관리자, 외주 계정처럼 사람이 직접 쓰는 계정

서비스 계정/워크로드 아이덴티티

자동화 작업과 시스템 간 통신을 수행하는 비인간 계정

디바이스/호스트

특정 자산이 언제 어디로 통신하고 어떤 프로세스를 실행하는지 자체가 baseline이 된다

애플리케이션/OAuth 앱

어떤 사용자에게 어떤 권한으로 연결되었는지, 갑자기 확장되었는지까지 볼 수 있다

실무 포인트

클라우드/SaaS 환경에서는 서비스 계정과 앱 권한이 인간 계정보다 더 위험할 수 있다는 점을 덧붙여 주세요.

학습 요소
Entity AnalyticsService AccountDeviceOAuth App

UEBA의 E가 Entity라는 사실을 잊지 않게 해 주세요.

다음 연결

이제 개인 baseline과 peer group baseline을 비교하는 이유를 설명합니다.

👤 UEBA(User and Entity Behavior Analytics)
개인 baseline vs Peer Group baseline
어떤 사용자는 자기 자신과 비교해야 하고, 어떤 사용자는 비슷한 역할 집단과 비교해야 더 정확하다.
핵심 개념
Part 05 · UEBA(User and Entity …
어떤 사용자는 자기 자신과 비교해야 하고, 어떤 사용자는 비슷한 역할 집단과 비교해야 더 정확하다.
Self Baseline
+
Peer Group Deviation

개인 baseline

특정 사용자의 평소 시간, 위치, 앱 사용 패턴과 비교한다

Peer group baseline

같은 부서, 같은 직무, 같은 서버군처럼 유사 역할 그룹의 분포와 비교한다

예시

야간 근무 운영자는 밤 로그인만으로 이상이 아니지만, 같은 팀에서도 특정 권한 사용은 여전히 outlier일 수 있다

실무 포인트

개인 baseline만 보면 특이하지만 정상인 사람을 과도하게 이상으로 볼 수 있고, peer group만 보면 개인 습관 차이를 놓칠 수 있다

실무 포인트

이 슬라이드를 잘 이해하면 UEBA 오탐의 상당 부분을 설명할 수 있습니다.

학습 요소
Peer GroupPersonal BaselineOutlierRole Context

직무와 업무 특성이 baseline 정의에 직접 들어간다는 점을 구체적으로 말해 주세요.

다음 연결

이제 UEBA에서 자주 쓰는 feature 군을 정리해 봅니다.

👤 UEBA(User and Entity Behavior Analytics)
UEBA에서 자주 쓰는 feature 그룹
UEBA는 결국 '이 사용자가 평소와 얼마나 다르게 행동했는가'를 여러 축으로 분해해 보는 일이다.
핵심 개념
Part 05 · UEBA(User and Entity …
UEBA는 결국 '이 사용자가 평소와 얼마나 다르게 행동했는가'를 여러 축으로 분해해 보는 일이다.
Time
Location
Device/App
Privilege/Resource

시간 축

off-hours, weekend access, 최근 미사용 후 갑작스러운 활성화

위치/네트워크 축

새로운 국가, 새로운 ASN, VPN 패턴 변화, unusual source IP

디바이스/애플리케이션 축

first-seen device, unusual browser, 신규 OAuth consent, MFA 변경

행동/권한 축

민감 데이터 접근 급증, 관리자 동작 증가, 비정상 파일 다운로드, 로그인 후 privilege chain

실무 포인트

수강생이 UEBA를 추상 개념이 아니라 조사 질문의 묶음으로 받아들이게 만드는 슬라이드입니다.

학습 요소
UEBA FeaturesOff-hoursFirst-seen DevicePrivilege Use

각 축을 개별로 보지 말고 조합 신호라는 점을 강조해 주세요.

다음 연결

이제 실제로 가장 흔한 시나리오인 '이상 로그인'을 사례로 봅니다.

👤 UEBA(User and Entity Behavior Analytics)
시나리오 1: 평소와 다른 로그인 시간과 위치
로그인 성공 자체는 정상처럼 보이지만, 시간·위치·장치 맥락을 합치면 침해 신호가 될 수 있다.
사례/시나리오
Part 05 · UEBA(User and Entity …
로그인 성공 자체는 정상처럼 보이지만, 시간·위치·장치 맥락을 합치면 침해 신호가 될 수 있다.
Who / When / Where / Device
VS
Usual Pattern

관찰 신호

새벽 03:00 로그인, 평소 없던 국가/ASN, first-seen device, 직전 실패 연쇄

보강 맥락

최근 비밀번호 재설정, MFA 등록 변경, 피싱 메일 수신, 고위험 자산 접근 여부

해석 포인트

단일 조건보다 '동시 발생' 여부가 risk score를 크게 끌어올린다

후속 질문

로그인 이후 어떤 자원 접근과 권한 사용이 이어졌는가

실무 포인트

Impossible travel 같은 유명 규칙에만 의존하지 말고, baseline과 후속 행동을 함께 보게 하세요.

학습 요소
Unusual LoginFirst-seen DeviceRisk SignalsPost-login Activity

로그인은 사건이 아니라 출발점이라는 메시지를 꼭 남겨 주세요.

다음 연결

다음은 로그인 이후 권한 사용으로 이어지는 더 위험한 시나리오를 봅니다.

👤 UEBA(User and Entity Behavior Analytics)
시나리오 2: 정상 계정의 비정상 권한 사용
공격자는 계정을 훔친 뒤 관리자처럼 보이지 않게 조용히 권한을 사용하려 한다.
사례/시나리오
Part 05 · UEBA(User and Entity …
공격자는 계정을 훔친 뒤 관리자처럼 보이지 않게 조용히 권한을 사용하려 한다.
Successful Login
Unusual Admin Action
High Risk

관찰 신호

평소 사용하지 않던 admin portal 접근, 그룹 멤버십 변경, 특권 명령 실행, 민감 설정 수정

핵심 연결

로그인 자체보다 로그인 후 privilege change와 configuration change가 더 위험한 의미를 가진다

UEBA 포인트

사용자의 직무와 평소 역할 대비 권한 동작이 얼마나 벗어났는지 본다

대응 질문

일시적 업무 변화인지, 자격 증명 탈취 이후 lateral movement 준비 단계인지 확인해야 한다

실무 포인트

정상 로그인보다 로그인 후 행동이 더 중요하다는 메시지를 이 슬라이드에서 확실히 굳혀 주세요.

학습 요소
Privilege UseAdmin ActionIdentity AbuseHigh Risk

ATT&CK의 Valid Accounts와 Account Manipulation 같은 연결도 언급하면 좋습니다.

다음 연결

다음 슬라이드에서는 휴면 계정과 서비스 계정처럼 더 까다로운 대상을 함께 묶어 봅니다.

👤 UEBA(User and Entity Behavior Analytics)
시나리오 3: Dormant Account와 Service Account Abuse
오랫동안 조용하던 계정이 갑자기 살아나거나, 사람이 쓰지 않아야 할 계정이 인간처럼 행동하면 특히 위험하다.
사례/시나리오
Part 05 · UEBA(User and Entity …
오랫동안 조용하던 계정이 갑자기 살아나거나, 사람이 쓰지 않아야 할 계정이 인간처럼 행동하면 특히 위험하다.
Dormant Reactivation
Service Account Acting Like a Human

Dormant account 신호

장기간 미사용 후 재활성화, 평소와 다른 IP/국가, 갑작스러운 대량 접근

Service account 신호

근무시간 패턴을 따름, 인터랙티브 로그인, 브라우저/사용자 세션 흔적, 인가되지 않은 자원 접근

위험성

비인간 계정은 모니터링이 약한 경우가 많고 권한은 높아 공격자에게 매력적이다

조사 포인트

계정 목적, 원래 실행 주기, 호출 주체, 최근 credential rotation과 변경 이력을 확인한다

실무 포인트

서비스 계정은 로그인 실패/성공만으로 보기보다 '행동의 인간성'을 보는 것이 중요하다고 설명해 주세요.

학습 요소
Dormant AccountService AccountNon-human IdentityAbuse

비인간 계정이야말로 AI 기반 행위 분석이 특히 유용한 영역입니다.

다음 연결

이제 이런 신호를 하나의 risk score로 합치는 방식을 설명합니다.

👤 UEBA(User and Entity Behavior Analytics)
UEBA Risk Score는 어떻게 만들어지는가
실제 운영에서는 하나의 이상치보다 여러 약한 신호를 합친 위험 점수가 더 쓸모 있다.
핵심 개념
Part 05 · UEBA(User and Entity …
실제 운영에서는 하나의 이상치보다 여러 약한 신호를 합친 위험 점수가 더 쓸모 있다.
Signals
+
Context Weights
Entity Risk Score

기본 신호

off-hours, new country, first-seen device, unusual resource, rare admin action 같은 개별 점수

가중치 요소

자산 중요도, 계정 권한 수준, 최근 인증 변화, peer group 대비 벗어난 정도

집계 방식

단일 이벤트 점수 + 일정 기간 누적 점수 + 연쇄 행동 점수를 함께 고려할 수 있다

실무 메시지

risk score는 수학보다 설계 철학이 중요하며, 어떤 신호를 더 무겁게 볼지 조직이 결정해야 한다

실무 포인트

risk score를 '마법 점수'가 아니라 신호 합산 결과로 이해시키는 것이 중요합니다.

학습 요소
Risk ScoreWeighted SignalsAggregationContext

자산 중요도와 계정 권한이 보안 점수에 미치는 영향은 반복해서 강조해 주세요.

다음 연결

다음은 이 점수가 SIEM과 어떻게 연결되어 케이스 우선순위를 만드는지 살펴봅니다.

👤 UEBA(User and Entity Behavior Analytics)
UEBA와 SIEM Correlation의 연결
UEBA는 혼자 쓰일 때보다 다른 로그와 상관분석될 때 사건성의 밀도가 크게 올라간다.
핵심 개념
Part 05 · UEBA(User and Entity …
UEBA는 혼자 쓰일 때보다 다른 로그와 상관분석될 때 사건성의 밀도가 크게 올라간다.
UEBA Risk
+
EDR/Proxy/Web/Auth
Case

예시 1

high UEBA score + 같은 사용자에 대한 EDR 의심 프로세스 실행 → 우선순위 급상승

예시 2

unusual login + proxy 상 rare domain 접속 + SaaS 권한 변경 → identity compromise 가능성 상승

예시 3

service account anomaly + firewall outbound spike → 자동화 계정 악용 가능성 검토

핵심

UEBA score는 사건을 닫는 신호가 아니라 correlation engine에 넘길 좋은 재료다

실무 포인트

UEBA 단독 Alert보다 multi-signal case가 더 강하다는 점을 운영적으로 설명해 주세요.

학습 요소
CorrelationUEBAMulti-signalCase Elevation

이 슬라이드는 AI와 SIEM이 실제로 만나는 지점을 보여 주는 핵심 연결고리입니다.

다음 연결

이제 high-risk identity가 떴을 때 분석가가 어떤 순서로 조사하면 되는지 플레이북으로 정리합니다.

👤 UEBA(User and Entity Behavior Analytics)
고위험 Identity 발생 시 조사 플레이북
좋은 UEBA 운영은 점수를 보는 것에서 끝나지 않고, 일관된 조사 질문으로 이어진다.
핵심 개념
Part 05 · UEBA(User and Entity …
좋은 UEBA 운영은 점수를 보는 것에서 끝나지 않고, 일관된 조사 질문으로 이어진다.
Auth
Context
Post-login Activity
Response

1단계

로그인 성공/실패, MFA 변경, 비밀번호 재설정, 최근 위협 알림을 먼저 확인한다

2단계

device, geo, ASN, browser, session pattern이 baseline과 얼마나 다른지 본다

3단계

이후의 권한 변경, 파일 접근, SaaS 활동, 프록시/네트워크 행위를 시간순으로 연결한다

4단계

사용자 확인, 강제 비밀번호 변경, 세션 종료, 토큰 폐기, 케이스 에스컬레이션 여부를 결정한다

실무 포인트

분석가가 막막하지 않도록 조사 순서를 명확히 제시해 주는 실전 슬라이드입니다.

학습 요소
PlaybookHigh-risk IdentityTimelineResponse

기술 설명보다도 조사 흐름을 몸에 익히게 하는 데 목적을 두세요.

다음 연결

마지막으로 UEBA 운영에서 쉽게 놓치는 프라이버시와 편향 문제를 짚고 넘어갑니다.

👤 UEBA(User and Entity Behavior Analytics)
UEBA의 프라이버시·편향·거버넌스 이슈
행동 분석은 강력하지만, 잘못 설계하면 감시 과잉과 편향된 의사결정으로 이어질 수 있다.
핵심 개념
Part 05 · UEBA(User and Entity …
행동 분석은 강력하지만, 잘못 설계하면 감시 과잉과 편향된 의사결정으로 이어질 수 있다.
Behavior Analytics
Privacy / Bias / Governance Controls

프라이버시

필요 이상으로 사용자 행동을 장기 보관하거나 민감한 속성을 결합하지 않도록 범위를 제한해야 한다

편향

특정 부서, 야간 근무자, 외주 계정처럼 구조적으로 다른 집단을 일괄 baseline에 넣으면 오탐이 커진다

투명성

왜 점수가 높았는지 설명 가능해야 사용자 문의와 내부 감사에 대응할 수 있다

통제

접근 권한, 보존 기간, 승인 절차, 모델 변경 이력, 피드백 로그를 함께 관리해야 한다

실무 포인트

UEBA가 기술적으로 가능하다는 것과 조직적으로 받아들여질 수 있다는 것은 다른 문제라는 점을 설명해 주세요.

학습 요소
PrivacyBiasGovernanceExplainability

이 슬라이드는 AI 도입이 결국 거버넌스 문제이기도 하다는 인식을 심어 줍니다.

다음 연결

이제 UEBA를 SIEM 구조 안에 넣어 실제 운영 아키텍처로 확장해 봅니다.

👤 UEBA(User and Entity Behavior Analytics)
Check Point · Part 5
UEBA(User and Entity Behavior Analytics) 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 05 · UEBA(User and Entity …
UEBA(User and Entity Behavior Analytics) 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

UEBA란 무엇인가

정의: User and Entity Behavior Analytics는 사용자·자산·앱·서비스 계정의 평소 행태를 모델링하고 이상을 찾는다

UEBA에서 자주 쓰는 feature 그룹

시간 축: off-hours, weekend access, 최근 미사용 후 갑작스러운 활성화

포인트 3

UEBA Risk Score는 어떻게 만들어지는가: 기본 신호: off-hours, new country, first-seen device, unusual resource, rare admin action 같…

UEBA의 프라이버시·편향·거버넌스 이슈

프라이버시: 필요 이상으로 사용자 행동을 장기 보관하거나 민감한 속성을 결합하지 않도록 범위를 제한해야 한다

실무 포인트

UEBA(User and Entity Behavior Analytics) 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
UEBARisk ScoreService AccountFirst-seen DevicePrivilege Use

UEBA에서 자주 쓰는 feature 그룹: 시간 축: off-hours, weekend access, 최근 미사용 후 갑작스러운 활성화

다음 연결

이제 UEBA를 SIEM 구조 안에 넣어 실제 운영 아키텍처로 확장해 봅니다.

👤 UEBA(User and Entity Behavior Analytics)
현업 적용 포인트 · UEBA 운영 시 가장 먼저 볼 것
UEBA는 정상 계정 악용을 찾는 도구이므로, 로그인 성공 이후의 행동 변화와 엔티티 누적 위험을 같이 봐야 한다.
현업 적용
Part 05 · UEBA(User and Entity …
UEBA는 정상 계정 악용을 찾는 도구이므로, 로그인 성공 이후의 행동 변화와 엔티티 누적 위험을 같이 봐야 한다.
현업 적용실무 포인트

우선 대상

privileged user, dormant account, service account, high-value asset owner를 먼저 본다.

조합 신호

off-hours·new country·first-seen device·privilege action이 동시에 나타나는지 본다.

누적 위험

단건 event risk보다 24시간 entity risk와 peer deviation 변화를 함께 확인한다.

대응 흐름

auth 확인 → context 검증 → post-login activity 추적 → low-impact action 우선 제안 순으로 간다.

실무 포인트

로그인 자체보다 로그인 이후 권한 사용과 자원 접근이 더 중요하다고 계속 상기시켜 달라.

학습 요소
UEBADormant AccountEntity RiskPrivilege Action

조합 신호: off-hours·new country·first-seen device·privilege action이 동시에 나타나는지 본다.

다음 연결

이제 UEBA 신호를 SIEM 상관분석과 운영 아키텍처에 어떻게 붙일지 본다.

👤 UEBA(User and Entity Behavior Analytics)
운영 주의 · UEBA 오탐과 프라이버시 이슈
행동 분석은 강력하지만, baseline 설계와 개인정보 통제가 약하면 오탐과 반발이 함께 커진다.
운영 주의
Part 05 · UEBA(User and Entity …
행동 분석은 강력하지만, baseline 설계와 개인정보 통제가 약하면 오탐과 반발이 함께 커진다.
운영 주의운영 주의

Peer group 오류

야간 근무자·외주 계정·특수 부서를 일반 집단과 섞으면 구조적 오탐이 커진다.

Service account 해석

비인간 계정은 인간 기준으로 보면 모두 이상해 보일 수 있으므로 목적 기반 baseline이 필요하다.

Risk score 신뢰

high score 하나만으로 차단하면 업무 영향이 커지므로 approval gate를 둔다.

Privacy 범위

장기 보관·민감 속성 결합·과도한 모니터링은 조직 수용성을 떨어뜨릴 수 있다.

운영 주의

행동 분석 가능성과 조직 수용성은 다른 문제라는 점을 꼭 함께 설명해야 한다.

학습 요소
Peer Group BiasService AccountApproval GatePrivacy

Service account 해석: 비인간 계정은 인간 기준으로 보면 모두 이상해 보일 수 있으므로 목적 기반 baseline이 필요하다.

다음 연결

이제 UEBA score를 SIEM case 구조에 어떻게 녹일지 본다.

👤 UEBA(User and Entity Behavior Analytics)
실무 적용 예시 · high-risk identity 조사 메모 예시
UEBA score를 받은 뒤에는 인증·맥락·권한 사용·대응 후보를 한 장의 메모로 구조화하는 습관이 중요하다.
적용 예시
Part 05 · UEBA(User and Entity …
UEBA score를 받은 뒤에는 인증·맥락·권한 사용·대응 후보를 한 장의 메모로 구조화하는 습관이 중요하다.
적용 예시적용 예시

요약

신규 국가·신규 장치에서 비업무 시간 로그인 후 관리자 포털 접근이 발생했고 recent MFA change가 확인되었다.

근거

off-hours, first-seen device, privileged user, admin action, peer deviation score가 동시에 높다.

추가 확인

mailbox rule 변경, OAuth consent, token issuance, same IP 활동, EDR process chain을 조회한다.

초기 대응

사용자 확인 → 세션 종료 제안 → 비밀번호 재설정 권고 → 유사 계정 search 순으로 진행한다.

실무 포인트

점수보다 조사 메모 구조를 보여 주면 수강생이 UEBA를 실제 운영 도구로 느끼기 쉽다.

학습 요소
High-risk IdentityAdmin ActionAdditional QueriesInitial Response

근거: off-hours, first-seen device, privileged user, admin action, peer deviation score가 동시에 높다.

다음 연결

이제 이런 identity risk를 SIEM case와 상관분석 구조에 올린다.

06
AI + SIEM 통합 구조
AI가 붙은 SIEM은 수집과 검색 기능이 사라지는 것이 아니라, 그 위에 score와 summary 계층이 하나 더 생기는 구조다.
🏗️ 원고 061–071 · 11장 구성
시작 슬라이드
전통적 SIEM vs AI가 보강된 SIEM
마무리 슬라이드
AI + SIEM 통합 아키텍처 청사진
핵심 키워드
TriageSIEMRisk ScorePrioritized Case
🏗️ AI + SIEM 통합 구조
전통적 SIEM vs AI가 보강된 SIEM
AI가 붙은 SIEM은 수집과 검색 기능이 사라지는 것이 아니라, 그 위에 score와 summary 계층이 하나 더 생기는 구조다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
AI가 붙은 SIEM은 수집과 검색 기능이 사라지는 것이 아니라, 그 위에 score와 summary 계층이 하나 더 생기는 구조다.
Traditional SIEM
VS
AI-Augmented SIEM

전통 구조

수집 → 정규화 → 룰/상관분석 → Alert → Analyst

확장 구조

수집 → 정규화 → Feature/Model → Risk Score → Correlation → Prioritized Case

실질적 변화

모든 이벤트를 Alert로 만들기보다, 검토 가치가 높은 신호를 앞쪽으로 끌어올린다

운영 효과

경보 수를 무조건 줄이기보다, 케이스 큐의 품질을 높이고 초기 triage 시간을 단축한다

실무 포인트

AI를 SIEM 대체재로 설명하지 말고, SIEM 상단의 보조 판단 계층으로 설명해 주세요.

학습 요소
SIEMRisk ScorePrioritized CaseTriage

중요한 변화는 Alert 개수보다 케이스 품질과 조사 순서라는 점을 강조하는 것이 핵심입니다.

다음 연결

다음은 AI 계층이 먹을 수 있는 데이터가 어디서 오는지 수집과 enrichment부터 봅니다.

🏗️ AI + SIEM 통합 구조
Data Collection과 Enrichment
모델의 힘은 알고리즘보다 어떤 컨텍스트를 함께 먹이느냐에서 크게 달라진다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
모델의 힘은 알고리즘보다 어떤 컨텍스트를 함께 먹이느냐에서 크게 달라진다.
Raw Events
+
Context Enrichment
Richer Signal

원천 로그

auth, endpoint, network flow, proxy, web, email, cloud audit, SaaS activity

Enrichment

geo, ASN, 자산 중요도, 사용자 부서/직무, privileged flag, 위협 인텔리전스, CMDB 정보

가치

같은 로그인 이벤트라도 관리자 계정인지, 중요 자산인지에 따라 전혀 다른 의미가 된다

실무 포인트

enrichment가 늦거나 부정확하면 risk score는 그럴듯해 보여도 운영 품질이 급격히 떨어진다

실무 포인트

보안 AI는 모델보다 enrichment가 더 큰 차이를 만드는 경우가 많다는 점을 말해 주세요.

학습 요소
EnrichmentAsset CriticalityGeoIdentity Context

자산 중요도와 권한 수준 같은 context가 없는 점수는 사건 우선순위화에 약하다는 것도 짚어 주세요.

다음 연결

이제 그 데이터를 공통 필드 체계로 맞추는 normalization의 중요성을 봅니다.

🏗️ AI + SIEM 통합 구조
Normalization과 Common Schema가 필요한 이유
AI 계층이 여러 소스를 함께 보려면 이벤트들이 같은 언어를 써야 한다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
AI 계층이 여러 소스를 함께 보려면 이벤트들이 같은 언어를 써야 한다.
Many Sources
Common Schema

공통 키

event_time, user, host, src_ip, dst_ip, action, outcome, resource, bytes, url 같은 핵심 필드 정렬

이유 1

룰, 대시보드, 탐지 모델, GenAI 요약이 같은 필드 체계를 공유해야 일관된 분석이 가능하다

이유 2

엔티티별 타임라인과 cross-source correlation을 만들기 쉬워진다

이유 3

나중에 모델이나 제품을 바꿔도 데이터 재사용성이 높아진다

실무 포인트

스키마 통합은 SIEM 팀과 데이터 팀, 보안 분석팀이 함께 해결해야 할 과제라는 점을 말해 주세요.

학습 요소
NormalizationCommon SchemaReusabilityCross-source

좋은 AI 도입은 사실상 좋은 데이터 플랫폼 도입과 겹친다는 인식을 심어 줄 수 있습니다.

다음 연결

다음은 feature를 계산하고 모델이 점수를 붙이는 inference layer로 이동합니다.

🏗️ AI + SIEM 통합 구조
Feature Store와 Inference Layer
AI가 실무에 들어오면 이벤트 저장소 옆에 '특징을 계산하고 점수를 붙이는 계층'이 추가된다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
AI가 실무에 들어오면 이벤트 저장소 옆에 '특징을 계산하고 점수를 붙이는 계층'이 추가된다.
Feature Store
Model Inference
Scores

Feature store 역할

재사용 가능한 baseline, 최근 24시간 실패 수, first-seen 여부, peer deviation 같은 파생값을 관리

Inference layer 역할

실시간 또는 배치로 모델을 호출해 anomaly score, class, summary를 생성

장점

같은 feature를 여러 모델과 use case에서 일관되게 재사용할 수 있다

주의점

feature 정의가 바뀌면 과거 점수와 현재 점수를 직접 비교하기 어려워지므로 버전 관리가 필요하다

실무 포인트

Feature store 개념이 생소할 수 있으니 '자주 쓰는 파생값 창고' 정도로 설명해도 좋습니다.

학습 요소
Feature StoreInferenceVersioningReuse

버전 관리가 왜 중요한지 운영 사례와 함께 간단히 언급해 주세요.

다음 연결

이제 이 점수가 이벤트 위험과 엔티티 위험으로 어떻게 쌓이는지 설명합니다.

🏗️ AI + SIEM 통합 구조
Event Risk와 Entity Risk
실제 운영에서는 이벤트 하나의 점수와 사용자/호스트 전체의 누적 위험을 분리해 보는 편이 유용하다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
실제 운영에서는 이벤트 하나의 점수와 사용자/호스트 전체의 누적 위험을 분리해 보는 편이 유용하다.
Event Scores
Entity Risk Accumulation

Event risk

지금 이 로그인, 지금 이 HTTP 요청, 지금 이 프로세스 실행이 얼마나 이상한지 나타낸다

Entity risk

일정 시간 동안 같은 사용자나 호스트에 누적된 위험을 반영한다

실무 효과

약한 이상 여러 개가 쌓여 entity risk가 높아지면 단건 Alert가 없어도 hunting 대상이 된다

운영 설계

event risk는 triage에, entity risk는 daily review와 상관분석에 특히 유리하다

실무 포인트

이 슬라이드는 low-and-slow 공격을 왜 누적 관점으로 봐야 하는지 이해시키는 데 중요합니다.

학습 요소
Event RiskEntity RiskAccumulationDaily Review

단건 경보가 없어도 위험 계정/호스트 리뷰가 필요하다는 메시지를 남겨 주세요.

다음 연결

이제 여러 점수를 케이스로 묶는 correlation engine으로 갑니다.

🏗️ AI + SIEM 통합 구조
Correlation Engine과 Case Score
AI가 진짜 힘을 내는 순간은 약한 신호 여러 개가 한 케이스로 묶일 때다.
사례/시나리오
Part 06 · AI + SIEM 통합 구조
AI가 진짜 힘을 내는 순간은 약한 신호 여러 개가 한 케이스로 묶일 때다.
Weak Signals
Correlation
High-value Case

예시

unusual login score + rare destination access + endpoint suspicious process score → 단일 사건 후보

Case score

이벤트별 점수를 시간순, 엔티티 기준, ATT&CK chain 기준으로 합쳐 케이스 우선순위를 만든다

장점

단일 이벤트 기준으로는 애매한 신호도 연쇄로 보면 훨씬 강한 의미를 가진다

주의점

신호를 과도하게 합치면 소음이 증폭될 수 있으므로 상관 기준과 시간창을 신중히 설계해야 한다

실무 포인트

Correlation은 룰 시대에도 있었지만, AI 점수와 결합되면 더 미세한 신호까지 끌어올릴 수 있다는 점을 설명해 주세요.

학습 요소
Correlation EngineCase ScoreWeak SignalsATT&CK Chain

시간창과 엔티티 기준이 중요하다는 운영 포인트를 꼭 남겨 주세요.

다음 연결

다음은 생성된 케이스를 실제 분석 큐에서 어떻게 우선순위화하는지 봅니다.

🏗️ AI + SIEM 통합 구조
Alert Queue가 아니라 Priority Queue로 보기
AI가 붙은 SOC의 목표는 더 많은 경보가 아니라, 더 좋은 순서의 검토 큐다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
AI가 붙은 SOC의 목표는 더 많은 경보가 아니라, 더 좋은 순서의 검토 큐다.
High
Medium
Low
Priority Queues

High bucket

즉시 triage가 필요한 케이스로 analyst queue 상단에 배치

Medium bucket

추가 enrichment나 자동 질문 생성 후 검토 대상으로 유지

Low bucket

hunting backlog, daily review, feedback 학습 데이터로 보관

운영 포인트

모든 것을 자동 차단하지 말고, 신뢰도에 따라 사람 개입 수준을 다르게 설계한다

실무 포인트

경보 수 절감보다 우선순위 정렬의 개선이 더 현실적인 KPI일 수 있다는 점을 설명해 주세요.

학습 요소
Priority QueueBucketAnalyst QueueTriage

낮은 점수는 버리는 것이 아니라 review와 학습 자산으로 쓰는 관점도 중요합니다.

다음 연결

이제 이런 케이스가 SOAR로 넘어갈 때 어떤 승인 구조가 필요한지 설명합니다.

🏗️ AI + SIEM 통합 구조
SOAR 연계와 Approval Gate
AI가 제안한 위험을 자동화에 연결할 때는 '행동의 강도'에 맞는 승인 체계가 필요하다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
AI가 제안한 위험을 자동화에 연결할 때는 '행동의 강도'에 맞는 승인 체계가 필요하다.
AI Recommendation
Approve?
SOAR Action

낮은 영향 자동화

추가 정보 수집, 사용자 확인 메일 생성, 관련 로그 수집, 케이스 템플릿 채우기

중간 영향 자동화

세션 강제 만료 제안, 비밀번호 변경 권고, 특정 토큰 검토 요청

높은 영향 조치

계정 잠금, 호스트 격리, 차단 정책 적용은 보통 사람 승인 후 실행하는 것이 안전하다

핵심 원칙

score가 높다고 곧바로 강한 조치를 실행하지 말고, confidence와 blast radius를 함께 보라

실무 포인트

자동화는 기술보다 책임 구조의 문제라는 점을 강조해 주세요.

학습 요소
SOARApproval GateBlast RadiusConfidence

특히 계정 잠금과 격리처럼 업무 영향이 큰 조치는 승인 게이트가 필요하다는 메시지가 중요합니다.

다음 연결

이제 사람이 남긴 결과가 어떻게 모델 개선으로 되돌아오는지 보겠습니다.

🏗️ AI + SIEM 통합 구조
분석가 피드백과 재학습 루프
운영이 성숙할수록 모델은 더 똑똑해지는 것이 아니라, 더 조직에 맞아진다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
운영이 성숙할수록 모델은 더 똑똑해지는 것이 아니라, 더 조직에 맞아진다.
Analyst Review
Feedback Store
Model / Rule / Prompt Improvement

수집해야 할 피드백

true/false positive, 조사 메모, 예외 승인 사유, asset context 오류, 잘못된 enrichment

활용 방식

threshold 조정, feature 개선, rule suppression, prompt 개선, 재학습 후보 선정

실무 포인트

피드백이 구조화되지 않으면 모델은 현장 학습을 하지 못하고 같은 실수를 반복한다

운영 메시지

AI 도입 성공은 모델 정확도만이 아니라 feedback discipline에 달려 있다

실무 포인트

사람이 모델을 학습시킨다는 감각을 주면 AI에 대한 통제감을 높일 수 있습니다.

학습 요소
FeedbackRetrainingSuppressionImprovement Loop

feedback discipline이 없는 조직은 같은 오탐을 되풀이하기 쉽다는 점을 강조하세요.

다음 연결

다음은 여러 소스를 함께 보는 통합 관점과 KPI를 정리합니다.

🏗️ AI + SIEM 통합 구조
멀티소스 통합과 KPI
AI 계층의 품질은 모델 성능만이 아니라, 어떤 소스를 얼마나 잘 결합했는지로도 결정된다.
핵심 개념
Part 06 · AI + SIEM 통합 구조
AI 계층의 품질은 모델 성능만이 아니라, 어떤 소스를 얼마나 잘 결합했는지로도 결정된다.
Many Sources
+
Detection/Operations/Risk KPIs

통합 소스

EDR, NDR/Flow, IdP, Email, Proxy, Web, Cloud audit, Ticketing 정보를 함께 볼수록 맥락이 깊어진다

핵심 KPI

case precision, alert reduction, analyst triage time, false positive rate, dwell time reduction

도입 KPI

신규 탐지 건수보다 '중요 사건을 더 빨리 찾았는가'와 '분석 시간을 얼마나 줄였는가'가 더 중요하다

리스크 KPI

자동 조치 오작동 수, 민감 정보 유출 건수, prompt misuse, 모델 drift 지표도 함께 본다

실무 포인트

성과 지표를 탐지 건수로만 잡으면 AI 도입의 가치가 왜곡될 수 있다는 점을 짚어 주세요.

학습 요소
KPIMulti-sourceTriage TimeDwell Time

운영 KPI와 리스크 KPI를 함께 보는 것이 성숙한 도입이라는 메시지를 남겨 주세요.

다음 연결

마지막으로 지금까지 설명한 구조를 한 장의 아키텍처 청사진으로 모아 봅니다.

🏗️ AI + SIEM 통합 구조
AI + SIEM 통합 아키텍처 청사진
핵심은 화려한 모델 하나가 아니라, 데이터·점수·상관분석·자동화·피드백이 닫힌 루프를 이루는 것이다.
구조/프레임
Part 06 · AI + SIEM 통합 구조
핵심은 화려한 모델 하나가 아니라, 데이터·점수·상관분석·자동화·피드백이 닫힌 루프를 이루는 것이다.
Data Sources
Data Layer
AI Layer
SOC Operations Layer

수집층

auth / endpoint / network / web / cloud / SaaS / email 로그 수집

데이터층

parsing, normalization, enrichment, entity mapping, feature store

분석층

anomaly detection, classification, UEBA, LLM summarization, risk scoring

운영층

correlation engine, analyst queue, SOAR, case management, feedback loop

도입 원칙

작은 use case부터 시작하고, 점수의 explainability와 운영 통제를 먼저 확보한다

실무 포인트

이 슬라이드는 지금까지의 내용을 시각적으로 정리하는 마무리 슬라이드입니다.

학습 요소
ArchitectureAI LayerSOC OperationsClosed Loop

작게 시작하고 닫힌 루프를 만드는 것이 핵심 도입 전략이라는 문장을 꼭 남겨 주세요.

다음 연결

이제 언어 기반 보조 엔진인 GenAI/LLM 활용으로 넘어갑니다.

🏗️ AI + SIEM 통합 구조
Check Point · Part 6
AI + SIEM 통합 구조 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 06 · AI + SIEM 통합 구조
AI + SIEM 통합 구조 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

전통적 SIEM vs AI가 보강된 SIEM

전통 구조: 수집 → 정규화 → 룰/상관분석 → Alert → Analyst

포인트 2

Feature Store와 Inference Layer: Feature store 역할: 재사용 가능한 baseline, 최근 24시간 실패 수, first-seen 여부, peer deviation 같은 파생값을…

SOAR 연계와 Approval Gate

낮은 영향 자동화: 추가 정보 수집, 사용자 확인 메일 생성, 관련 로그 수집, 케이스 템플릿 채우기

AI + SIEM 통합 아키텍처 청사진

수집층: auth / endpoint / network / web / cloud / SaaS / email 로그 수집

실무 포인트

AI + SIEM 통합 구조 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
TriageSIEMRisk ScorePrioritized CaseEnrichment

Feature Store와 Inference Layer: Feature store 역할: 재사용 가능한 baseline, 최근 24시간 실패 수, first-seen 여부, peer deviation 같은 파생값을…

다음 연결

이제 언어 기반 보조 엔진인 GenAI/LLM 활용으로 넘어갑니다.

🏗️ AI + SIEM 통합 구조
현업 적용 포인트 · AI + SIEM를 운영 플랫폼으로 묶기
AI가 붙은 SIEM의 핵심은 수집과 검색을 대체하는 것이 아니라, score·correlation·priority queue를 추가하는 것이다.
현업 적용
Part 06 · AI + SIEM 통합 구조
AI가 붙은 SIEM의 핵심은 수집과 검색을 대체하는 것이 아니라, score·correlation·priority queue를 추가하는 것이다.
현업 적용실무 포인트

데이터층

raw event에 enrichment·entity mapping·feature store를 더해 재사용 가능한 구조를 만든다.

분석층

event risk와 entity risk를 분리하고, correlation engine에서 case score로 다시 묶는다.

운영층

high/medium/low bucket을 나누고, 영향이 큰 자동화에는 approval gate를 둔다.

평가층

triage time, case precision, automation error, drift 지표를 함께 본다.

실무 포인트

아키텍처 설명에서는 작은 use case부터 닫힌 루프를 만드는 전략을 강조하면 이해가 빠르다.

학습 요소
Feature StoreCase ScoreApproval GateKPIs

분석층: event risk와 entity risk를 분리하고, correlation engine에서 case score로 다시 묶는다.

다음 연결

언어 기반 보조 엔진인 GenAI는 이 구조 위에서 요약과 쿼리 초안 역할을 맡는다.

🏗️ AI + SIEM 통합 구조
운영 주의 · AI + SIEM 통합에서 쉽게 놓치는 것
아키텍처를 화려하게 그리는 것보다, 데이터 품질과 승인 구조를 먼저 설계해야 실제 운영 품질이 나온다.
운영 주의
Part 06 · AI + SIEM 통합 구조
아키텍처를 화려하게 그리는 것보다, 데이터 품질과 승인 구조를 먼저 설계해야 실제 운영 품질이 나온다.
운영 주의운영 주의

Common schema 부재

필드 체계가 다르면 correlation, summary, model 모두 일관성을 잃는다.

All real-time 환상

모든 use case를 streaming으로 설계하면 비용과 오탐 책임이 과도해진다.

No approval zone

계정 잠금·격리 같은 high blast action에 사람 승인 없이 AI를 붙이면 위험하다.

KPI 편향

신규 탐지 건수만 보고 triage time, misuse, automation error를 안 보면 왜곡이 생긴다.

운영 주의

작게 시작해 닫힌 루프를 만드는 전략을 반복하면 수강생이 도입 우선순위를 잘 잡는다.

학습 요소
Common SchemaStreaming CostBlast RadiusBalanced KPIs

All real-time 환상: 모든 use case를 streaming으로 설계하면 비용과 오탐 책임이 과도해진다.

다음 연결

GenAI는 이 구조 위에서 특히 언어 기반 업무를 빠르게 만드는 데 힘을 낸다.

🏗️ AI + SIEM 통합 구조
실무 적용 예시 · AI + SIEM 엔드투엔드 운영 흐름
로그가 들어와 score가 붙고 case가 만들어져 SOAR 승인까지 이어지는 전체 루프를 한 번에 보는 슬라이드다.
적용 예시
Part 06 · AI + SIEM 통합 구조
로그가 들어와 score가 붙고 case가 만들어져 SOAR 승인까지 이어지는 전체 루프를 한 번에 보는 슬라이드다.
적용 예시적용 예시

입력

auth·proxy·EDR·cloud audit event가 common schema와 enrichment를 거쳐 feature store로 들어온다.

분석

event risk와 entity risk가 계산되고, correlation engine이 multi-signal case score를 만든다.

운영

high bucket은 analyst triage queue로, medium bucket은 batch review로, low bucket은 hunting backlog로 이동한다.

피드백

disposition과 note가 suppression·threshold·prompt·retraining 후보로 돌아가 닫힌 루프를 완성한다.

실무 포인트

각 계층이 어떤 질문에 답하는지 나눠 설명하면 아키텍처가 훨씬 명확해진다.

학습 요소
Common SchemaCase ScoreBucketsClosed Loop

분석: event risk와 entity risk가 계산되고, correlation engine이 multi-signal case score를 만든다.

다음 연결

이제 언어 기반 보조 계층인 GenAI를 이 운영 구조 위에 얹어 본다.

07
GenAI(LLM) 보안 활용
LLM은 원천 탐지 엔진이라기보다, 언어가 많은 SOC 업무를 가속하는 분석 보조 엔진에 가깝다.
🤖 원고 072–086 · 15장 구성
시작 슬라이드
GenAI(LLM)는 SOC에서 무엇을 잘하는가
마무리 슬라이드
정리: Copilot이지 Autopilot이 아니다
핵심 키워드
CopilotHallucinationEvidenceReview
🤖 GenAI(LLM) 보안 활용
GenAI(LLM)는 SOC에서 무엇을 잘하는가
LLM은 원천 탐지 엔진이라기보다, 언어가 많은 SOC 업무를 가속하는 분석 보조 엔진에 가깝다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
LLM은 원천 탐지 엔진이라기보다, 언어가 많은 SOC 업무를 가속하는 분석 보조 엔진에 가깝다.
Language-heavy SOC Tasks
Verification Needed

강점 1

여러 로그와 케이스 메모를 읽고 핵심 요약과 다음 질문을 빠르게 만든다

강점 2

자연어를 쿼리 초안, 보고서 문장, 탐지 논리 설명으로 바꾸는 데 강하다

강점 3

ATT&CK 후보, 분석 메모 구조, 플레이북 초안을 제안해 초급 분석가의 생산성을 높인다

한계

근거 없는 단정, hallucination, 민감정보 처리, prompt injection, 과도한 자동화 위험이 있다

실무 포인트

이 슬라이드는 기대치를 정확히 조정하는 데 매우 중요합니다. '탐지기'보다는 '보조 분석기'로 소개하세요.

학습 요소
GenAILLMCopilotHallucination

생산성 향상과 검증 필요성을 동시에 한 문장으로 묶어 설명하는 것이 좋습니다.

다음 연결

먼저 가장 직관적인 활용인 로그 요약부터 살펴봅니다.

🤖 GenAI(LLM) 보안 활용
활용 1: 로그와 사건 요약
LLM은 여러 줄의 로그와 티켓 메모를 사람이 읽기 좋은 사건 개요로 압축하는 데 강하다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
LLM은 여러 줄의 로그와 티켓 메모를 사람이 읽기 좋은 사건 개요로 압축하는 데 강하다.
Multi-log Context
Narrative Summary + Evidence Pointers

입력 예

auth log 20줄, proxy 로그 10줄, analyst note 3줄, 자산 정보 1개

출력 예

핵심 이벤트 순서, 중요한 근거 3개, 모르는 점 2개, 다음 확인 질문 3개

가치

초급 분석가도 빠르게 큰 그림을 잡을 수 있고, 인수인계 품질이 좋아진다

주의점

요약 결과는 편리하지만 반드시 원문 증거와 함께 검토해야 한다

실무 포인트

LLM 요약은 '읽기 부담 감소' 측면에서 즉시 체감 가치가 높다는 점을 설명해 주세요.

학습 요소
SummarizationAnalyst NoteEvidenceHandover

요약 결과에 원문 근거 ID나 시간 범위를 함께 요구하는 습관을 권장하면 좋습니다.

다음 연결

다음은 자연어를 쿼리 초안으로 바꾸는 use case입니다.

🤖 GenAI(LLM) 보안 활용
활용 2: 자연어 → 쿼리 초안
숙련 분석가의 언어를 SIEM 쿼리 형태로 빠르게 번역해 주는 것은 LLM의 대표적 강점이다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
숙련 분석가의 언어를 SIEM 쿼리 형태로 빠르게 번역해 주는 것은 LLM의 대표적 강점이다.
Question
Query Draft

예시 요청

'어제 새벽에 처음 본 국가에서 성공 로그인 후 관리자 포털 접근한 사용자 찾아줘'

가능한 출력

SPL/KQL/SQL 형태의 쿼리 초안, 필요한 필드 목록, 가정 사항, 누락 데이터 경고

가치

초급 분석가의 쿼리 진입 장벽을 낮추고, 숙련자는 초안 작성 시간을 줄일 수 있다

주의점

문법과 필드명은 조직 환경마다 달라 반드시 수정·검증이 필요하다

실무 포인트

LLM이 바로 실행 가능한 쿼리를 주는 것이 아니라 '초안과 가정'을 준다는 점을 분명히 하세요.

학습 요소
Natural Language to QueryKQLSPLField Validation

필드명과 스키마 검증이 필수라는 메시지를 꼭 넣어 주세요.

다음 연결

다음은 ATT&CK과 같은 위협 언어로 정리하는 보조 역할을 살펴봅니다.

🤖 GenAI(LLM) 보안 활용
활용 3: ATT&CK 후보 매핑과 공격 설명 보조
LLM은 관찰된 로그와 행위를 ATT&CK 언어로 번역하는 초안 작성에 유용하다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
LLM은 관찰된 로그와 행위를 ATT&CK 언어로 번역하는 초안 작성에 유용하다.
Observed Behavior
ATT&CK Candidates + Rationale

입력

인증 이상, 웹 요청 패턴, 프로세스 실행, 네트워크 beaconing 후보 같은 관측 신호

출력

candidate tactic/technique, 매핑 이유, 확신할 수 없는 부분, 추가 증거 요청 목록

가치

초급 분석가가 위협 언어로 보고서를 쓰는 속도를 높여 준다

주의점

ATT&CK 매핑은 환경별 해석 차이가 크므로 '후보'와 '근거'를 함께 제시해야 한다

실무 포인트

LLM이 ATT&CK을 단정적으로 찍기보다 후보와 근거를 함께 제시하도록 유도해야 한다고 설명해 주세요.

학습 요소
ATT&CK MappingCandidatesRationaleUncertainty

모듈 5와 연결해 '공통 언어'를 빨리 만들 수 있다는 장점을 강조하면 좋습니다.

다음 연결

이제 탐지 규칙 아이디어를 만드는 방향으로 확장합니다.

🤖 GenAI(LLM) 보안 활용
활용 4: 탐지 룰 초안과 분석 논리 설명
LLM은 완성된 룰 엔진이 아니라, 탐지 아이디어를 문장과 조건식 형태로 빠르게 정리하는 조수다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
LLM은 완성된 룰 엔진이 아니라, 탐지 아이디어를 문장과 조건식 형태로 빠르게 정리하는 조수다.
Detection Idea
Rule Draft + Test Notes

입력 예

'새 국가 + 새 디바이스 + off-hours 성공 로그인은 high risk로 보고 싶다'

출력 예

조건식 초안, 필요한 필드 목록, 예외 후보, 테스트 시나리오, suppression 포인트

가치

탐지 엔지니어가 요구사항을 빠르게 문서화하고 리뷰 논의를 시작하기 좋다

주의점

생성된 조건은 반드시 백테스트와 경보량 검증을 거쳐야 하며, 그대로 운영하면 안 된다

실무 포인트

LLM이 개발자 대신 룰을 배포하는 것이 아니라, 사람이 검토할 문서 초안을 빠르게 만든다는 점을 강조해 주세요.

학습 요소
Rule DraftingBacktestSuppressionReview

테스트와 예외 설계가 생략되면 위험하다는 말도 잊지 마세요.

다음 연결

다음은 많은 조직이 체감하는 보고서 작성 자동화입니다.

🤖 GenAI(LLM) 보안 활용
활용 5: Incident Report 초안 작성
사건 분석은 기술만큼 문서화가 중요하고, LLM은 이 문서화 부담을 크게 줄일 수 있다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
사건 분석은 기술만큼 문서화가 중요하고, LLM은 이 문서화 부담을 크게 줄일 수 있다.
Case Facts
Report Draft

자동 생성 가능한 섹션

개요, 타임라인 초안, 관찰 근거, 영향 범위, 대응 조치 후보, 미확인 사항

조직 가치

인수인계, 관리자 보고, 재발 방지 회고의 속도와 형식 일관성이 좋아진다

분석가 장점

타이핑 시간보다 사실 검증과 추가 조사에 더 많은 시간을 쓸 수 있다

주의점

법적/감사 용도의 최종 보고서는 사람이 반드시 사실 관계와 표현 수위를 확인해야 한다

실무 포인트

보고서 품질의 균질화는 조직 차원에서 매우 큰 가치라는 점을 이야기해 주세요.

학습 요소
Incident ReportTimelineImpactConsistency

초안은 시간을 줄여 주지만, 표현의 책임은 여전히 사람에게 있다는 점을 명확히 하세요.

다음 연결

다음은 플레이북과 체크리스트 보조에 대한 활용입니다.

🤖 GenAI(LLM) 보안 활용
활용 6: 플레이북·체크리스트·케이스 메모리 보조
LLM은 다음 질문을 제안하고, 유사 사건의 조사 흐름을 떠올리게 하는 데 강하다.
정리/체크
Part 07 · GenAI(LLM) 보안 활용
LLM은 다음 질문을 제안하고, 유사 사건의 조사 흐름을 떠올리게 하는 데 강하다.
Current Case
+
Retrieved Similar Cases
Next Questions

플레이북 보조

'이상 로그인 조사 시 추가로 확인할 5가지'처럼 다음 행동 제안을 생성할 수 있다

체크리스트 생성

계정 탈취, 웹 침해, beaconing, 서비스 계정 이상처럼 유형별 점검 항목을 정리할 수 있다

케이스 메모리

과거 사건의 요약과 교훈을 retrieval 기반으로 붙여 유사 케이스 대응을 빠르게 만든다

주의점

유사 사건 참조는 도움이 되지만, 현재 사건에 그대로 덮어쓰면 anchoring bias가 생길 수 있다

실무 포인트

LLM의 가치는 답을 주는 것보다 질문의 누락을 줄이는 데 있다는 관점도 함께 강조해 주세요.

학습 요소
PlaybookChecklistCase MemoryBias

과거 케이스는 참고자료이지 현재 사건의 정답이 아니라는 점을 분명히 하세요.

다음 연결

이제 LLM을 잘 쓰기 위한 prompt 설계 기본을 다룹니다.

🤖 GenAI(LLM) 보안 활용
프롬프트 설계 기본: 역할·입력·출력 형식·금지사항
좋은 결과는 모델 크기보다도, 어떤 역할과 증거를 주고 어떤 형식으로 답하게 하느냐에서 갈린다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
좋은 결과는 모델 크기보다도, 어떤 역할과 증거를 주고 어떤 형식으로 답하게 하느냐에서 갈린다.
Role
Input
Output Format
Guardrails

역할(Role)

'너는 SOC Tier1 분석 보조자다'처럼 임무와 한계를 먼저 명시한다

입력(Input)

관련 로그, 자산 정보, time range, 이미 확인한 사실, 미확인 사실을 구조화해 넣는다

출력 형식(Output)

1) 요약 2) 근거 3) ATT&CK 후보 4) 다음 질문 5) 조치 후보처럼 고정 형식을 요구한다

금지사항

근거 없는 단정 금지, 자동 차단 명령 금지, 원문에 없는 사실 추정 금지 같은 제약을 명시한다

실무 포인트

초급자에게는 프롬프트를 '질문'이 아니라 '작업 지시서'로 이해시키는 것이 좋습니다.

학습 요소
Prompt DesignRoleOutput FormatGuardrails

제약 조건을 함께 쓰는 습관이 품질과 안전성을 동시에 높여 준다고 설명해 주세요.

다음 연결

다음 슬라이드에서는 바로 쓸 수 있는 SOC 프롬프트 템플릿을 보여 줍니다.

🤖 GenAI(LLM) 보안 활용
바로 써먹는 SOC 프롬프트 템플릿
프롬프트는 길어도 괜찮다. 중요한 것은 모델이 근거와 형식을 잃지 않도록 구조를 주는 것이다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
프롬프트는 길어도 괜찮다. 중요한 것은 모델이 근거와 형식을 잃지 않도록 구조를 주는 것이다.
Standard Prompt Templates
Consistent Analyst Output

예시 템플릿 1

역할=SOC 분석 보조자 / 입력=로그, 자산정보, 질문 / 출력=요약, 근거, ATT&CK 후보, 다음 액션, 모르는 점

예시 템플릿 2

'반드시 원문 로그의 시간, IP, 사용자, URI를 인용해라. 모르는 것은 모른다고 말해라'

예시 템플릿 3

'탐지 룰 초안을 제안하되, 필요한 필드와 예외 후보, 백테스트 항목을 함께 적어라'

운영 팁

자주 쓰는 프롬프트는 플레이북처럼 표준화해 팀 전체의 분석 품질을 맞추는 것이 좋다

실무 포인트

이 슬라이드는 실제 실습 전에 바로 활용 가능한 형태로 보여 주는 것이 핵심입니다.

학습 요소
Prompt TemplateEvidence-firstStandardizationTeam Quality

표준 프롬프트는 개인 생산성보다 팀 일관성에 더 큰 가치를 준다는 점도 강조하세요.

다음 연결

이제 LLM이 믿을 만한 답을 내게 하려면 grounding을 어떻게 해야 하는지 봅니다.

🤖 GenAI(LLM) 보안 활용
Grounding과 근거 인용의 중요성
LLM이 그럴듯하게 말하는 것과 실제로 근거를 기반으로 말하는 것은 전혀 다르다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
LLM이 그럴듯하게 말하는 것과 실제로 근거를 기반으로 말하는 것은 전혀 다르다.
Case Evidence + KB Retrieval
Grounded Answer

Grounding

현재 사건의 로그, 티켓, 문서, 위협 정보처럼 실제 자료를 붙여 답변을 anchored 상태로 만든다

좋은 요구 방식

'각 주장마다 근거가 된 로그 항목이나 필드명을 함께 제시하라'

RAG 관점

내부 위키, 플레이북, 과거 사건 요약을 retrieval로 붙이면 조직 특화 응답 품질이 좋아진다

운영 메시지

보안에서 LLM 품질의 핵심은 모델 이름보다 grounding 품질이다

실무 포인트

수강생이 LLM을 믿는 기준을 '말투'가 아니라 '근거 인용 여부'로 바꾸게 하세요.

학습 요소
GroundingRAGEvidenceRetrieval

조직 문서와 현재 로그를 함께 붙이는 RAG 구조를 간단히 개념적으로 설명하면 좋습니다.

다음 연결

다음은 grounding이 부족할 때 생기는 hallucination 문제를 정면으로 다룹니다.

🤖 GenAI(LLM) 보안 활용
Hallucination과 검증 워크플로
LLM은 자신감 있게 틀릴 수 있으므로, 보안 운영에서는 검증 절차가 답변 자체만큼 중요하다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
LLM은 자신감 있게 틀릴 수 있으므로, 보안 운영에서는 검증 절차가 답변 자체만큼 중요하다.
LLM Output
Evidence Check
Schema Check
Human Review

대표 문제

존재하지 않는 ATT&CK 기법을 말하거나, 로그에 없는 사실을 채워 넣거나, 쿼리 문법을 틀릴 수 있다

검증 단계

1) 원문 증거 대조 2) 필드명/스키마 확인 3) 쿼리 dry-run 4) 숙련자 리뷰 또는 샘플 검증

실무 팁

모델에게 확신 수준과 불확실성을 함께 표시하게 하면 과잉 신뢰를 줄일 수 있다

원칙

LLM 출력은 생산성 도구이지, 근거 검증을 면제해 주는 도구가 아니다

실무 포인트

이 슬라이드에서는 '모델이 틀릴 수 있다'가 아니라 '자신감 있게 틀릴 수 있다'는 표현이 효과적입니다.

학습 요소
HallucinationVerificationConfidenceHuman Review

검증을 플레이북 단계로 넣는 습관을 강조해 주세요.

다음 연결

다음은 보안적으로 더 민감한 prompt injection과 데이터 유출 문제입니다.

🤖 GenAI(LLM) 보안 활용
Prompt Injection과 민감정보 유출 리스크
LLM에 들어가는 입력이 곧 신뢰된 사실이 아니기 때문에, 로그와 티켓 자체가 공격 표면이 될 수 있다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
LLM에 들어가는 입력이 곧 신뢰된 사실이 아니기 때문에, 로그와 티켓 자체가 공격 표면이 될 수 있다.
Untrusted Content
LLM
Need for Guardrails

Prompt injection

웹페이지, 이메일, 티켓 본문, 로그 메시지에 모델을 속이는 문장이 숨어 들어올 수 있다

Sensitive data leakage

API key, 개인 정보, 내부 자산명, 조사 메모가 외부 모델로 노출될 수 있다

실무 통제

시스템 프롬프트 보호, 외부 호출 제한, 민감정보 마스킹, 출력 검열, 고위험 작업 승인 게이트

운영 원칙

모델이 읽는 텍스트는 전부 비신뢰 입력일 수 있다는 전제로 설계해야 한다

실무 포인트

LLM 보안 리스크는 개발팀만의 문제가 아니라 SOC 운영 중에도 현실적이라는 점을 설명해 주세요.

학습 요소
Prompt InjectionSensitive DataGuardrailsUntrusted Input

모델이 읽는 로그와 티켓도 공격자가 조작할 수 있다는 인식이 중요합니다.

다음 연결

이제 에이전트형 자동화가 어디까지 허용돼야 하는지 단계적으로 정리합니다.

🤖 GenAI(LLM) 보안 활용
Agentic Workflow는 어디까지 허용할 것인가
질문에 답하는 LLM과 도구를 실제로 실행하는 에이전트는 위험도가 다르므로 통제 수준도 달라야 한다.
핵심 개념
Part 07 · GenAI(LLM) 보안 활용
질문에 답하는 LLM과 도구를 실제로 실행하는 에이전트는 위험도가 다르므로 통제 수준도 달라야 한다.
Read/Write Assistance
Query/Correlate
Take Action

낮은 자율성

요약, 질의 초안, 체크리스트 생성처럼 읽고 쓰는 보조 업무

중간 자율성

여러 데이터 소스를 조회하고 상관분석 결과를 정리하는 조사 보조 업무

높은 자율성

계정 잠금, 호스트 격리, 정책 변경처럼 환경에 직접 영향을 주는 실행 업무

권장 원칙

실행형 에이전트일수록 scope 제한, 권한 최소화, dry-run, 승인 절차, 감사 로그가 필수다

실무 포인트

에이전트라는 단어가 등장하면 기대치가 급상승하므로, 자율성 단계와 통제 단계를 꼭 함께 설명하세요.

학습 요소
Agentic WorkflowAutonomyLeast PrivilegeApproval

높은 자율성일수록 blast radius가 커진다는 점을 강조하는 것이 중요합니다.

다음 연결

다음은 지금까지의 내용을 한 사례 흐름으로 묶어 보여 줍니다.

🤖 GenAI(LLM) 보안 활용
예시: LLM 보조형 Triage End-to-End
가장 현실적인 운영 모델은 LLM이 조사 시작을 빠르게 도와주고, 사람과 SIEM/SOAR가 결정을 이어받는 구조다.
사례/시나리오
Part 07 · GenAI(LLM) 보안 활용
가장 현실적인 운영 모델은 LLM이 조사 시작을 빠르게 도와주고, 사람과 SIEM/SOAR가 결정을 이어받는 구조다.
Case Data
LLM Copilot
Analyst Verification
SOAR

입력

high-risk login case + proxy rare domain + user context + 지난 24시간 변경 이력

LLM 출력

1) 한 문단 요약 2) 핵심 근거 3개 3) ATT&CK 후보 4) 추가 확인 쿼리 2개 5) 대응 권고 초안

분석가 역할

근거 대조, 쿼리 실행, 사용자 확인, false positive 가능성 검토

SOAR 역할

승인 후 세션 종료나 토큰 폐기, 추가 로그 수집 같은 표준 작업을 수행

실무 포인트

이 슬라이드는 수강생이 '아, 이렇게 쓰는 거구나'를 구체적으로 상상하게 만드는 역할을 합니다.

학습 요소
TriageCopilotVerificationSOAR

분석가의 검증과 SOAR의 표준 작업이 각각 어디에 들어가는지 명확히 말해 주세요.

다음 연결

다음 슬라이드에서 GenAI 파트의 결론을 한 줄로 정리합니다.

🤖 GenAI(LLM) 보안 활용
정리: Copilot이지 Autopilot이 아니다
GenAI의 최대 가치는 분석가를 대체하는 데 있지 않고, 분석가가 더 빨리 더 일관되게 판단하게 만드는 데 있다.
정리/체크
Part 07 · GenAI(LLM) 보안 활용
GenAI의 최대 가치는 분석가를 대체하는 데 있지 않고, 분석가가 더 빨리 더 일관되게 판단하게 만드는 데 있다.
Copilot
Autopilot

잘하는 일

요약, 구조화, 쿼리 초안, 보고서 초안, 플레이북 보조, 과거 지식 검색

못하는 일

근거 없는 확정 판정, 무검증 자동 차단, 환경 스키마를 완벽히 이해하는 일

성공 조건

grounding, prompt 표준화, evidence-first 출력, human review, 감사 가능한 운영 절차

실무 메시지

LLM 도입 성패는 모델 자체보다 검증 가능한 사용 습관에 달려 있다

실무 포인트

GenAI 파트의 핵심 문장을 명확히 남겨 주는 마무리 슬라이드입니다.

학습 요소
CopilotEvidence-firstReviewOperating Discipline

도입 논의를 할 때 항상 '사용 습관과 통제'를 먼저 보라고 조언해 주세요.

다음 연결

이제 생성형 AI를 넘어, AI가 탐지 콘텐츠 자동화에 어떻게 연결되는지 살펴봅니다.

🤖 GenAI(LLM) 보안 활용
Check Point · Part 7
GenAI(LLM) 보안 활용 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 07 · GenAI(LLM) 보안 활용
GenAI(LLM) 보안 활용 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

GenAI(LLM)는 SOC에서 무엇을 잘하는가

강점 1: 여러 로그와 케이스 메모를 읽고 핵심 요약과 다음 질문을 빠르게 만든다

활용 5

Incident Report 초안 작성: 자동 생성 가능한 섹션: 개요, 타임라인 초안, 관찰 근거, 영향 범위, 대응 조치 후보, 미확인 사항

Hallucination과 검증 워크플로

대표 문제: 존재하지 않는 ATT&CK 기법을 말하거나, 로그에 없는 사실을 채워 넣거나, 쿼리 문법을 틀릴 수 있다

정리

Copilot이지 Autopilot이 아니다: 잘하는 일: 요약, 구조화, 쿼리 초안, 보고서 초안, 플레이북 보조, 과거 지식 검색

실무 포인트

GenAI(LLM) 보안 활용 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
CopilotHallucinationEvidenceReviewGuardrails

활용 5: Incident Report 초안 작성: 자동 생성 가능한 섹션: 개요, 타임라인 초안, 관찰 근거, 영향 범위, 대응 조치 후보, 미확인 사항

다음 연결

이제 생성형 AI를 넘어, AI가 탐지 콘텐츠 자동화에 어떻게 연결되는지 살펴봅니다.

🤖 GenAI(LLM) 보안 활용
현업 적용 포인트 · GenAI를 Copilot로 안전하게 쓰는 법
LLM은 탐지기를 대신하기보다, 언어가 많은 SOC 업무를 가속하는 보조 분석기로 쓰는 것이 가장 안전하다.
현업 적용
Part 07 · GenAI(LLM) 보안 활용
LLM은 탐지기를 대신하기보다, 언어가 많은 SOC 업무를 가속하는 보조 분석기로 쓰는 것이 가장 안전하다.
현업 적용실무 포인트

즉시 체감 가치

로그 요약·쿼리 초안·ATT&CK 후보·보고서 초안·플레이북 질문 생성을 맡긴다.

품질 기준

근거 인용, 불확실성 표시, fixed output format, evidence-first 프롬프트를 요구한다.

운영 통제

grounding 자료를 붙이고, query dry-run·human review·approval gate를 기본으로 둔다.

팀 표준화

자주 쓰는 prompt template과 안전 문구를 플레이북처럼 저장해 품질 편차를 줄인다.

실무 포인트

모델이 멋진 답을 하는 것보다, 근거를 남기고 검증 가능한 답을 하게 만드는 습관이 더 중요하다.

학습 요소
CopilotGroundingPrompt TemplateEvidence-first

품질 기준: 근거 인용, 불확실성 표시, fixed output format, evidence-first 프롬프트를 요구한다.

다음 연결

다음 파트에서는 GenAI와 모델이 탐지 콘텐츠 생성과 튜닝 속도를 어떻게 높이는지 본다.

🤖 GenAI(LLM) 보안 활용
운영 주의 · LLM을 Autopilot처럼 쓰지 않기
LLM은 설득력 있게 틀릴 수 있기 때문에, 근거 없는 확정과 실행형 자동화를 경계해야 한다.
운영 주의
Part 07 · GenAI(LLM) 보안 활용
LLM은 설득력 있게 틀릴 수 있기 때문에, 근거 없는 확정과 실행형 자동화를 경계해야 한다.
운영 주의운영 주의

Hallucination

존재하지 않는 ATT&CK 기법·로그 사실·쿼리 문법을 자신감 있게 제시할 수 있다.

Prompt injection

로그·메일·티켓 본문 자체가 모델을 속이는 입력이 될 수 있다.

Sensitive leakage

API key, 개인정보, 내부 자산명이 외부 모델로 흘러갈 수 있다.

Excessive agency

실행형 agent가 권한을 많이 가지면 blast radius와 책임 문제가 커진다.

운영 주의

Copilot과 Autopilot의 차이를 반복해 주면 수강생이 과도한 기대를 자연스럽게 조정한다.

학습 요소
HallucinationPrompt InjectionSensitive DataAgentic Risk

Prompt injection: 로그·메일·티켓 본문 자체가 모델을 속이는 입력이 될 수 있다.

다음 연결

이제 생성형 AI를 탐지 자동화와 콘텐츠 엔지니어링으로 확장해 본다.

🤖 GenAI(LLM) 보안 활용
실무 적용 예시 · 좋은 SOC 프롬프트의 구조
프롬프트는 단순 질문이 아니라 역할·입력·출력 형식·금지사항·검증 단계를 가진 작업 지시서여야 한다.
적용 예시
Part 07 · GenAI(LLM) 보안 활용
프롬프트는 단순 질문이 아니라 역할·입력·출력 형식·금지사항·검증 단계를 가진 작업 지시서여야 한다.
적용 예시적용 예시

역할 지정

“너는 SOC Tier1 분석 보조자다. 로그에 없는 사실을 추정하지 말라.”

입력 구조

time range, 관련 로그, asset criticality, known facts, unknowns를 분리해서 제공한다.

출력 형식

요약 / 근거 / ATT&CK 후보 / 다음 질문 / low-impact response candidate 순으로 고정한다.

검증 지시

각 주장에 근거 필드를 붙이고, 모르는 것은 모른다고 말하며, 자동 차단을 직접 권고하지 않게 한다.

실무 포인트

근거 인용과 불확실성 표현을 강제하는 문장이 prompt 품질을 좌우한다는 점을 강조하자.

학습 요소
RoleKnown vs UnknownOutput FormatGuardrails

입력 구조: time range, 관련 로그, asset criticality, known facts, unknowns를 분리해서 제공한다.

다음 연결

이제 생성형 AI를 탐지 콘텐츠 초안과 자동화 설계에 연결해 본다.

08
AI 기반 탐지 자동화
AI 기반 탐지 자동화의 본질은 '모델이 룰을 대체한다'가 아니라, 탐지 콘텐츠 생성과 개선 속도를 높이는 것이다.
⚙️ 원고 087–094 · 8장 구성
시작 슬라이드
AI 기반 탐지 자동화란 무엇인가
마무리 슬라이드
예시 Analytic 2: Beaconing 후보
핵심 키워드
BacktestExceptionsDetection AutomationCandidate Analytic
⚙️ AI 기반 탐지 자동화
AI 기반 탐지 자동화란 무엇인가
AI 기반 탐지 자동화의 본질은 '모델이 룰을 대체한다'가 아니라, 탐지 콘텐츠 생성과 개선 속도를 높이는 것이다.
핵심 개념
Part 08 · AI 기반 탐지 자동화
AI 기반 탐지 자동화의 본질은 '모델이 룰을 대체한다'가 아니라, 탐지 콘텐츠 생성과 개선 속도를 높이는 것이다.
Patterns
Candidate Analytics
Human-reviewed Detection Content

입력

과거 이벤트, analyst disposition, anomaly pattern, 예외 조건, 업무 맥락

중간 산출물

유망한 패턴 후보, candidate analytic, suppression 제안, 우선순위 가설

출력

사람이 리뷰할 탐지 룰 초안, 쿼리 초안, 테스트 시나리오, 모니터링 포인트

핵심 원칙

자동 생성은 가능하지만 자동 배포는 훨씬 더 조심해야 한다

실무 포인트

탐지 자동화는 '완전 자율 탐지'보다 '콘텐츠 엔지니어링 가속'으로 이해시키는 편이 안전합니다.

학습 요소
Detection AutomationCandidate AnalyticRule DraftHuman Review

자동 생성과 자동 배포를 명확히 구분해 주세요.

다음 연결

다음은 데이터에서 반복 패턴을 찾아 candidate rule을 만드는 과정을 설명합니다.

⚙️ AI 기반 탐지 자동화
패턴 마이닝에서 Candidate Rule로
반복적으로 의미 있었던 패턴을 찾으면, 그것은 룰이나 analytic으로 승격할 후보가 된다.
핵심 개념
Part 08 · AI 기반 탐지 자동화
반복적으로 의미 있었던 패턴을 찾으면, 그것은 룰이나 analytic으로 승격할 후보가 된다.
Frequent Meaningful Pattern
Candidate Rule

데이터 출발점

반복된 high-risk login 조합, 자주 함께 나타난 희귀 필드 조합, 자주 닫힌 오탐 패턴

후보 생성

'이 조건이 반복되면 검토 가치가 높다'는 형태로 조건식을 문장화한다

장점

엔지니어가 빈 화면에서 시작하지 않고, 실제 데이터에서 나온 패턴을 토대로 설계할 수 있다

주의점

반복됐다고 해서 일반화 가능한 탐지인 것은 아니므로, 환경 전반 테스트가 필요하다

실무 포인트

탐지 엔지니어에게는 '빈 화면 공포'를 줄여 준다는 표현이 꽤 와 닿습니다.

학습 요소
Pattern MiningCandidate RuleGeneralizationTest

데이터 기반 후보와 운영 검증은 별개의 단계라는 점을 꼭 짚어 주세요.

다음 연결

이제 그 후보를 실제 룰 초안과 운영 문서로 바꾸는 파이프라인을 봅니다.

⚙️ AI 기반 탐지 자동화
반자동 룰 생성 파이프라인
좋은 자동화는 생성보다 검토 단계를 체계화할 때 비로소 운영 가치를 만든다.
구조/프레임
Part 08 · AI 기반 탐지 자동화
좋은 자동화는 생성보다 검토 단계를 체계화할 때 비로소 운영 가치를 만든다.
Generate
Review
Backtest
Monitor/Deploy

1단계

모델 또는 LLM이 candidate condition, 필요한 필드, 예외 후보를 제시한다

2단계

엔지니어가 스키마 적합성, 쿼리 문법, suppression 필요 여부를 검토한다

3단계

백테스트와 샘플 검증으로 경보량, 정밀도, 기존 룰 중복 여부를 확인한다

4단계

모니터링 모드로 배치한 뒤, 운영 데이터를 보고 정식 배포 여부를 결정한다

실무 포인트

반자동의 핵심은 사람 리뷰가 빠지지 않는 구조라는 점을 강조하세요.

학습 요소
Rule PipelineReviewBacktestMonitor Mode

특히 monitor mode를 먼저 거치는 습관이 안정성에 매우 중요합니다.

다음 연결

다음은 백테스트에서 반드시 봐야 할 항목을 좀 더 구체적으로 정리합니다.

⚙️ AI 기반 탐지 자동화
백테스트에서 반드시 볼 것들
탐지 콘텐츠는 그럴듯한 논리보다 실제 볼륨과 품질에서 생사가 갈린다.
핵심 개념
Part 08 · AI 기반 탐지 자동화
탐지 콘텐츠는 그럴듯한 논리보다 실제 볼륨과 품질에서 생사가 갈린다.
Volume
Precision
Coverage
Exceptions

경보량

일/주 단위로 몇 건이 발생하는지, Tier1이 소화 가능한 수준인지 확인한다

정밀도 추정

샘플을 뽑아 실제로 의미 있는 케이스 비율이 어느 정도인지 본다

커버리지

기존 룰이 놓치던 영역을 보완하는지, 아니면 단순 중복인지 확인한다

예외 관리

정상 업무 패턴, 스캐너, 배치 작업, 운영팀 행동이 과도하게 걸리지 않는지 점검한다

실무 포인트

탐지 품질은 지능보다 운영성에서 결정된다는 메시지를 여기서 한 번 더 반복해 주세요.

학습 요소
BacktestVolumeCoverageExceptions

기존 룰과의 중복 여부를 확인하는 습관도 강조하면 좋습니다.

다음 연결

다음은 생성된 탐지를 어떻게 suppression과 dedup으로 안정화할지 다룹니다.

⚙️ AI 기반 탐지 자동화
Prioritization, Suppression, Dedup
탐지를 많이 만드는 것보다, 비슷한 신호를 잘 묶고 필요 없는 소음을 줄이는 것이 더 중요할 수 있다.
핵심 개념
Part 08 · AI 기반 탐지 자동화
탐지를 많이 만드는 것보다, 비슷한 신호를 잘 묶고 필요 없는 소음을 줄이는 것이 더 중요할 수 있다.
Prioritize
Suppress
Dedup

Prioritization

관리자 계정, 중요 자산, 다중 신호 결합 시 우선순위를 상향한다

Suppression

알려진 스캐너, 승인된 자동화, 정기 배치처럼 정상 예외를 억제한다

Dedup

같은 원인으로 반복 발생하는 경보를 하나의 케이스로 묶어 analyst 부담을 줄인다

운영 포인트

자동화는 detection volume을 늘리는 것이 아니라 investigation quality를 높여야 성공이다

실무 포인트

SOC가 원하는 것은 '많은 탐지'가 아니라 '좋은 케이스'라는 점을 다시 강조하세요.

학습 요소
SuppressionDedupPrioritizationInvestigation Quality

suppression과 dedup은 소극적 조치가 아니라 탐지 성숙도의 핵심입니다.

다음 연결

이제 룰도 수명이 있기 때문에 lifecycle 관리가 필요하다는 점으로 넘어갑니다.

⚙️ AI 기반 탐지 자동화
탐지도 노후화된다: Drift와 Lifecycle 관리
한때 유효했던 analytic도 환경과 공격자 변화 속에서 빠르게 낡을 수 있다.
핵심 개념
Part 08 · AI 기반 탐지 자동화
한때 유효했던 analytic도 환경과 공격자 변화 속에서 빠르게 낡을 수 있다.
Deploy
Monitor
Review
Tune/Retire

노후화 신호

갑작스러운 경보량 증가, 정밀도 급락, 데이터 소스 변경, 필드 사라짐, 예외 증가

점검 주기

정기적으로 hit count, true positive rate, 평균 조사 시간, 예외 수를 리뷰한다

정리 원칙

오래된 탐지는 수정, 통합, 보관, 폐기 중 하나로 lifecycle을 관리해야 한다

AI 활용 포인트

모델과 LLM은 룰 성능 저하 원인 분석과 수정 초안 제안에 도움을 줄 수 있다

실무 포인트

탐지 콘텐츠도 제품처럼 유지보수해야 한다는 메시지가 중요합니다.

학습 요소
LifecycleDriftTuningRetire

폐기 기준이 없으면 SOC 콘텐츠가 무거워진다는 현실을 짚어 주세요.

다음 연결

이제 구체적인 예시 analytic 두 개를 짧게 살펴봅니다.

⚙️ AI 기반 탐지 자동화
예시 Analytic 1: 이상 로그인 조합
단일 조건보다 다중 약신호를 묶은 analytic이 훨씬 실용적일 때가 많다.
사례/시나리오
Part 08 · AI 기반 탐지 자동화
단일 조건보다 다중 약신호를 묶은 analytic이 훨씬 실용적일 때가 많다.
Signals Combined
High-risk Login Case

후보 조건

off_hours=1 AND first_seen_device=1 AND new_country=1 AND success_login=1

보강 조건

fail_count_30m ≥ 5 OR recent_mfa_change=1 OR privileged_user=1

출력 전략

즉시 차단보다 high-priority case 생성 + 후속 쿼리 2개 자동 첨부가 더 안전할 수 있다

검증 포인트

해외 출장자, 보안 테스트 계정, 신규 단말 배포 이벤트 같은 정상 예외를 반드시 검토한다

실무 포인트

이 슬라이드는 '모델 결과를 사람이 이해할 수 있는 조건식으로 번역하는 감각'을 주는 것이 중요합니다.

학습 요소
Unusual Login AnalyticCombined SignalsExceptionsCase Creation

즉시 차단보다 case 생성과 추가 evidence 수집을 권하는 이유도 설명해 주세요.

다음 연결

다음은 네트워크 쪽 대표 사례인 beaconing analytic 예시입니다.

⚙️ AI 기반 탐지 자동화
예시 Analytic 2: Beaconing 후보
C2 통신은 내용보다 주기성과 희귀성, 낮은 분산 같은 형태적 특징에서 먼저 드러난다.
사례/시나리오
Part 08 · AI 기반 탐지 자동화
C2 통신은 내용보다 주기성과 희귀성, 낮은 분산 같은 형태적 특징에서 먼저 드러난다.
Periodic Traffic Pattern
Beacon Candidate

후보 조건

rare_domain=1 AND interval_mean≈300s AND interval_std 낮음 AND small_regular_bytes=1

보강 조건

first_seen_domain=1, single_host_only=1, same host의 suspicious process 또는 DNS rarity 존재

운영 전략

alert보다 beaconing candidate review queue로 보내고, host timeline과 DNS/EDR를 함께 보게 한다

주의점

업데이트 서버, 모니터링 에이전트, 백업 통신도 유사 패턴을 보일 수 있으므로 allowlist와 peer comparison이 중요하다

실무 포인트

beaconing은 시계열 feature와 rarity, correlation의 가치를 한 번에 보여 주는 좋은 예시입니다.

학습 요소
BeaconingPeriodicityRare DomainAllowlist

정상 주기 통신과의 구분을 꼭 강조해 오탐 현실을 함께 보여 주세요.

다음 연결

이제 AI 기반 탐지 자동화를 운영 모델 전체와 연결해 봅니다.

⚙️ AI 기반 탐지 자동화
Check Point · Part 8
AI 기반 탐지 자동화 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 08 · AI 기반 탐지 자동화
AI 기반 탐지 자동화 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

AI 기반 탐지 자동화란 무엇인가

입력: 과거 이벤트, analyst disposition, anomaly pattern, 예외 조건, 업무 맥락

반자동 룰 생성 파이프라인

1단계: 모델 또는 LLM이 candidate condition, 필요한 필드, 예외 후보를 제시한다

탐지도 노후화된다

Drift와 Lifecycle 관리: 노후화 신호: 갑작스러운 경보량 증가, 정밀도 급락, 데이터 소스 변경, 필드 사라짐, 예외 증가

예시 Analytic 2

Beaconing 후보: 후보 조건: rare_domain=1 AND interval_mean≈300s AND interval_std 낮음 AND small_regular_bytes…

실무 포인트

AI 기반 탐지 자동화 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
BacktestExceptionsDetection AutomationCandidate AnalyticRule Draft

반자동 룰 생성 파이프라인: 1단계: 모델 또는 LLM이 candidate condition, 필요한 필드, 예외 후보를 제시한다

다음 연결

이제 AI 기반 탐지 자동화를 운영 모델 전체와 연결해 봅니다.

⚙️ AI 기반 탐지 자동화
현업 적용 포인트 · 탐지 자동화를 운영 품질로 연결하기
탐지 자동화의 본질은 rule 수를 늘리는 것이 아니라, candidate analytic을 더 빠르게 만들고 안전하게 검증하는 것이다.
현업 적용
Part 08 · AI 기반 탐지 자동화
탐지 자동화의 본질은 rule 수를 늘리는 것이 아니라, candidate analytic을 더 빠르게 만들고 안전하게 검증하는 것이다.
현업 적용실무 포인트

후보 생성

반복적으로 의미 있었던 신호 조합을 candidate rule과 suppression 가설로 정리한다.

품질 검증

backtest에서 volume·precision·coverage·exception을 함께 봐야 실제 운영성이 보인다.

안정화 작업

prioritization, suppression, dedup을 먼저 설계해야 analyst queue가 무너지지 않는다.

라이프사이클

monitor mode → limited rollout → tuning → retire 기준까지 포함해 운영한다.

실무 포인트

자동 생성과 자동 배포를 반드시 구분시키면 수강생이 과도한 기대를 덜 하게 된다.

학습 요소
Candidate RuleBacktestSuppressionLifecycle

품질 검증: backtest에서 volume·precision·coverage·exception을 함께 봐야 실제 운영성이 보인다.

다음 연결

탐지 자동화 결과는 결국 SOC 역할별 워크플로와 지식 축적 체계에 연결되어야 한다.

⚙️ AI 기반 탐지 자동화
운영 주의 · 탐지 자동화가 소음을 증폭시키지 않게 하기
candidate analytic을 빨리 만드는 것과, noisy analytic을 많이 배포하는 것은 전혀 다른 결과를 낸다.
운영 주의
Part 08 · AI 기반 탐지 자동화
candidate analytic을 빨리 만드는 것과, noisy analytic을 많이 배포하는 것은 전혀 다른 결과를 낸다.
운영 주의운영 주의

중복 경보

기존 룰과 같은 패턴을 다시 만들면 case volume만 늘고 탐지 가치는 늘지 않는다.

예외 누락

scanner·batch·운영 자동화 예외를 고려하지 않으면 오탐이 빠르게 폭증한다.

모니터링 부재

monitor mode 없이 바로 운영하면 실제 analyst queue에서 폭주를 경험할 수 있다.

수명 관리 부재

drift와 공격자 변화로 analytic은 노후화되므로 retire 기준까지 가져가야 한다.

운영 주의

탐지 자동화의 핵심은 속도보다 검토 체계라는 점을 사례와 함께 설명하면 좋다.

학습 요소
Duplicate AlertsExceptionsMonitor ModeRetire

예외 누락: scanner·batch·운영 자동화 예외를 고려하지 않으면 오탐이 빠르게 폭증한다.

다음 연결

자동화된 analytic 결과가 실제 SOC 역할과 워크플로에서 어떻게 쓰이는지 이어서 본다.

⚙️ AI 기반 탐지 자동화
실무 적용 예시 · candidate rule 검토 표준 절차
LLM이나 모델이 analytic 초안을 만들었더라도, 운영 배포 전에는 반드시 검토 절차를 거쳐야 한다.
적용 예시
Part 08 · AI 기반 탐지 자동화
LLM이나 모델이 analytic 초안을 만들었더라도, 운영 배포 전에는 반드시 검토 절차를 거쳐야 한다.
적용 예시적용 예시

후보

“새 국가 + 새 디바이스 + off-hours + success login” 조합을 high-risk login candidate로 제안받았다.

검토

필요한 필드 존재 여부, 기존 룰 중복, privileged user 가중치, 예외 집합(출장자·보안 테스트 계정)을 확인한다.

백테스트

최근 30일 volume, true positive sample, suppress 대상, monitor mode 결과를 검토한다.

결정

즉시 block rule이 아니라 case creation + additional query attachment 형태로 우선 배포한다.

실무 포인트

auto-deploy보다 human-reviewed deployment가 기본이라는 메시지를 예시로 남기자.

학습 요소
Candidate RuleField CheckMonitor ModeCase Creation

검토: 필요한 필드 존재 여부, 기존 룰 중복, privileged user 가중치, 예외 집합(출장자·보안 테스트 계정)을 확인한다.

다음 연결

이제 자동화된 analytic을 실제 SOC 조직과 역할 모델에 연결한다.

09
AI 기반 SOC 운영 모델
AI 도구는 한 사람의 자리를 대체하기보다, 각 역할의 반복 업무와 인지 부담을 다르게 줄여 준다.
🛡️ 원고 095–102 · 8장 구성
시작 슬라이드
AI는 SOC 조직의 어느 역할에 들어오는가
마무리 슬라이드
AI 기반 SOC 운영 모델 정리
핵심 키워드
HypothesisRolesTier1Tier2
🛡️ AI 기반 SOC 운영 모델
AI는 SOC 조직의 어느 역할에 들어오는가
AI 도구는 한 사람의 자리를 대체하기보다, 각 역할의 반복 업무와 인지 부담을 다르게 줄여 준다.
핵심 개념
Part 09 · AI 기반 SOC 운영 모델
AI 도구는 한 사람의 자리를 대체하기보다, 각 역할의 반복 업무와 인지 부담을 다르게 줄여 준다.
Tier1
Tier2
Tier3/Eng
Manager

Tier1

alert triage, 요약, 쿼리 초안, 에스컬레이션 문장 생성에서 가장 큰 체감 효과가 난다

Tier2

상관분석, ATT&CK 정리, 조사 타임라인 구성, 케이스 비교에서 생산성을 높인다

Tier3/탐지 엔지니어

feature 아이디어, analytic 초안, suppression 가설, 백테스트 문서화에 활용할 수 있다

관리자/리더

KPI 요약, 탐지 성능 추세, 보고서 자동 초안, 운영 리스크 점검에 도움을 준다

실무 포인트

역할별 기대치를 다르게 설명하면 'AI 도입 = 모두 같은 방식으로 사용'이라는 오해를 줄일 수 있습니다.

학습 요소
RolesTier1Tier2Detection Engineering

특히 Tier1 생산성 향상이 초기 ROI가 큰 지점이라는 점을 짚어 주세요.

다음 연결

다음은 Tier1 triage가 AI로 어떻게 달라지는지 구체적으로 봅니다.

🛡️ AI 기반 SOC 운영 모델
AI 보조형 Triage Workflow
초기 triage 단계는 정보가 흩어져 있어 시간이 많이 드는데, AI는 바로 이 '첫 10분'을 줄이는 데 강하다.
핵심 개념
Part 09 · AI 기반 SOC 운영 모델
초기 triage 단계는 정보가 흩어져 있어 시간이 많이 드는데, AI는 바로 이 '첫 10분'을 줄이는 데 강하다.
Summarize
Context Pull
Ask Next Questions
Recommend Path

1단계

case summary 생성과 핵심 근거 3개 추출

2단계

관련 엔티티의 최근 활동, 유사 과거 케이스, 권한 수준, 자산 중요도 요약

3단계

필요한 추가 쿼리와 확인 질문 제시

4단계

escalate / monitor / close candidate 중 하나의 제안과 이유를 정리

실무 포인트

Triage의 핵심은 '답을 주는 것'보다 '무엇을 먼저 볼지 정렬하는 것'이라고 설명해 주세요.

학습 요소
TriageSummaryContextRecommendation

첫 10분을 줄여 주는 가치가 조직 전체 처리량에 큰 차이를 만든다는 점도 강조하면 좋습니다.

다음 연결

다음은 더 깊은 조사 단계에서 AI가 어디까지 도울 수 있는지 봅니다.

🛡️ AI 기반 SOC 운영 모델
AI 보조형 Investigation Workflow
조사가 깊어질수록 데이터 소스가 늘어나고 타임라인이 길어지는데, AI는 이를 구조화하는 데 유리하다.
핵심 개념
Part 09 · AI 기반 SOC 운영 모델
조사가 깊어질수록 데이터 소스가 늘어나고 타임라인이 길어지는데, AI는 이를 구조화하는 데 유리하다.
Multi-source Timeline
Hypotheses + Gaps

타임라인 정리

인증, 네트워크, 웹, 엔드포인트, SaaS 이벤트를 시간순으로 묶는다

근거 구조화

주요 이벤트, 연관성, 아직 비어 있는 구간을 서술형으로 정리한다

가설 보조

계정 탈취, 웹 침투, data staging, beaconing 같은 후보 가설을 나열하고 추가 증거를 제안한다

한계

가설 생성은 잘하지만, 사실 확정은 여전히 analyst의 cross-check가 필요하다

실무 포인트

조사에서는 모델이 정답을 주기보다 빈칸과 연결고리를 드러내 주는 점이 중요하다고 설명해 주세요.

학습 요소
InvestigationTimelineHypothesisCross-check

가설 생성과 사실 확정의 차이를 명확히 해 두는 것이 신뢰에 도움이 됩니다.

다음 연결

이제 proactive hunting에서 AI가 어떤 도움을 줄 수 있는지 다룹니다.

🛡️ AI 기반 SOC 운영 모델
AI 보조형 Threat Hunting
헌팅은 정답 없는 질문을 던지는 작업이므로, AI는 질문 후보와 데이터 접근 속도를 높이는 쪽에서 큰 가치를 낸다.
핵심 개념
Part 09 · AI 기반 SOC 운영 모델
헌팅은 정답 없는 질문을 던지는 작업이므로, AI는 질문 후보와 데이터 접근 속도를 높이는 쪽에서 큰 가치를 낸다.
Hypothesis
Explore
Summarize
Next Hunt

헌팅 출발점

'지난 30일간 rare admin action 뒤에 외부 통신 증가가 있었나?' 같은 자연어 가설 작성 보조

데이터 탐색

유사한 이상 엔티티 묶기, 상위 outlier 랭킹 만들기, 관련 필드 추천

결과 정리

hunting notebook 초안, 관찰 결과 요약, 다음 라운드 질문 제안

주의점

헌팅은 창의적 사고가 핵심이므로 AI가 질문 폭을 좁혀 버리지 않도록 anchoring을 경계해야 한다

실무 포인트

AI는 헌팅에서 특히 '질문을 빨리 만들게 해 주는 도구'로 설명하면 좋습니다.

학습 요소
Threat HuntingHypothesisOutlier RankingAnchoring Bias

다만 AI가 사고 폭을 좁힐 수 있다는 점도 함께 경고해 균형을 맞추세요.

다음 연결

다음은 조사 결과를 남기고 팀 지식으로 축적하는 reporting과 case memory입니다.

🛡️ AI 기반 SOC 운영 모델
Reporting과 Case Memory에서의 AI
SOC는 결국 지식을 쌓는 조직이므로, 케이스 결과가 문서와 검색 가능한 기억으로 남아야 한다.
사례/시나리오
Part 09 · AI 기반 SOC 운영 모델
SOC는 결국 지식을 쌓는 조직이므로, 케이스 결과가 문서와 검색 가능한 기억으로 남아야 한다.
Case Outcome
Structured Memory / KB

자동 초안

사건 요약, 영향 범위, 타임라인, 대응 조치, 회고 포인트를 빠르게 구조화할 수 있다

케이스 메모리

과거 사고를 retrieval 가능한 형태로 축적하면 유사 사건 대응 속도가 빨라진다

팀 장점

개인 경험이 조직 지식으로 전환되어, 주니어도 과거 노하우를 활용하기 쉬워진다

주의점

잘못된 과거 사례가 재사용되면 오류를 확대할 수 있으므로 품질 관리와 승인 절차가 필요하다

실무 포인트

이 슬라이드는 AI 도입이 단순 자동화가 아니라 지식 축적 체계 구축과 연결된다는 점을 보여 줍니다.

학습 요소
Case MemoryReportingKnowledge BaseReuse

주니어 온보딩 효과도 함께 언급하면 교육 모듈 맥락에 잘 맞습니다.

다음 연결

이제 SOAR와 AI가 함께 일할 때의 역할 분담을 짚어 봅니다.

🛡️ AI 기반 SOC 운영 모델
AI + SOAR 협업 모델
AI는 생각을 정리하고, SOAR는 정해진 절차를 수행한다. 둘을 섞되 역할을 혼동하지 않는 것이 중요하다.
핵심 개념
Part 09 · AI 기반 SOC 운영 모델
AI는 생각을 정리하고, SOAR는 정해진 절차를 수행한다. 둘을 섞되 역할을 혼동하지 않는 것이 중요하다.
AI Recommendation
Approval
SOAR Execution

AI 강점

비정형 텍스트 해석, 우선순위화, 다음 질문 생성, 대응 초안 문서화

SOAR 강점

표준 플레이북 실행, 티켓 생성, 계정 상태 확인, 세션 종료, 로그 수집 같은 반복 작업 자동화

안전한 조합

AI가 추천한 조치를 SOAR가 준비하고, 사람 승인 후 실행하는 구조

위험한 조합

근거 검증 없이 AI가 직접 차단·격리를 트리거하는 구조

실무 포인트

AI와 SOAR를 한 덩어리로 설명하지 말고, 사고와 실행의 역할을 분리해 주세요.

학습 요소
SOARApprovalAutomationRole Separation

승인 게이트가 왜 필요한지 구체적 조치 예시를 들어 설명하면 좋습니다.

다음 연결

다음은 이런 구조를 안전하게 만들기 위한 거버넌스 포인트를 정리합니다.

🛡️ AI 기반 SOC 운영 모델
거버넌스, 접근통제, Audit Trail
AI가 SOC 중심으로 들어올수록 누가 무엇을 물었고, 어떤 출력이 어떤 행동으로 이어졌는지 남겨야 한다.
핵심 개념
Part 09 · AI 기반 SOC 운영 모델
AI가 SOC 중심으로 들어올수록 누가 무엇을 물었고, 어떤 출력이 어떤 행동으로 이어졌는지 남겨야 한다.
Access Control
+
Audit Trail
+
Policy

접근 통제

민감한 로그와 프롬프트, 조사 문서를 누구까지 볼 수 있는지 구분한다

Audit trail

사용한 프롬프트, 참조한 데이터, 출력 결과, 승인자, 실행된 조치를 기록한다

정책

외부 모델 사용 범위, 데이터 마스킹, 허용된 자동화 범위, 보존 기간을 명시한다

이유

사고 발생 시 왜 그런 판단과 조치가 이루어졌는지 되돌아볼 수 있어야 한다

실무 포인트

AI 운영에서 가장 흔히 빠지는 부분이 감사 로그와 정책 문서화입니다. 꼭 강조해 주세요.

학습 요소
GovernanceAudit TrailAccess ControlPolicy

특히 외부 모델 사용 여부와 데이터 경계를 명시해야 한다는 점이 중요합니다.

다음 연결

마지막으로 AI 기반 SOC 운영 모델을 한 장으로 요약합니다.

🛡️ AI 기반 SOC 운영 모델
AI 기반 SOC 운영 모델 정리
사람, 프로세스, 기술, 지표가 함께 맞물릴 때만 AI는 SOC에서 지속 가능한 가치가 된다.
정리/체크
Part 09 · AI 기반 SOC 운영 모델
사람, 프로세스, 기술, 지표가 함께 맞물릴 때만 AI는 SOC에서 지속 가능한 가치가 된다.
People
+
Process
+
Technology
+
Metrics

사람

analyst, engineer, approver, manager의 역할과 책임을 명확히 나눈다

프로세스

triage, investigation, hunting, reporting, feedback, retraining 흐름을 닫힌 루프로 설계한다

기술

SIEM, 모델, LLM, SOAR, KB, audit log를 안전하게 연결한다

지표

precision, triage time, case quality, drift, misuse, automation error까지 함께 본다

실무 포인트

운영 모델을 기술 도입보다 조직 설계 문제로 설명하면 수강생의 시야가 넓어집니다.

학습 요소
Operating ModelPeopleProcessMetrics

사람-프로세스-기술-지표 네 축이 동시에 맞물려야 한다는 문장을 반복해 주세요.

다음 연결

이제 실제 적용 사례 4가지를 통해 지금까지의 개념을 현실적인 로그 상황에 묶어 봅니다.

🛡️ AI 기반 SOC 운영 모델
Check Point · Part 9
AI 기반 SOC 운영 모델 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 09 · AI 기반 SOC 운영 모델
AI 기반 SOC 운영 모델 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

AI는 SOC 조직의 어느 역할에 들어오는가

Tier1: alert triage, 요약, 쿼리 초안, 에스컬레이션 문장 생성에서 가장 큰 체감 효과가 난다

포인트 2

AI 보조형 Investigation Workflow: 타임라인 정리: 인증, 네트워크, 웹, 엔드포인트, SaaS 이벤트를 시간순으로 묶는다

AI + SOAR 협업 모델

AI 강점: 비정형 텍스트 해석, 우선순위화, 다음 질문 생성, 대응 초안 문서화

AI 기반 SOC 운영 모델 정리

사람: analyst, engineer, approver, manager의 역할과 책임을 명확히 나눈다

실무 포인트

AI 기반 SOC 운영 모델 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
HypothesisRolesTier1Tier2Detection Engineering

AI 보조형 Investigation Workflow: 타임라인 정리: 인증, 네트워크, 웹, 엔드포인트, SaaS 이벤트를 시간순으로 묶는다

다음 연결

이제 실제 적용 사례 4가지를 통해 지금까지의 개념을 현실적인 로그 상황에 묶어 봅니다.

🛡️ AI 기반 SOC 운영 모델
현업 적용 포인트 · AI 기반 SOC 운영 모델 정착
지속 가능한 AI SOC는 사람·프로세스·기술·지표를 동시에 설계할 때 비로소 운영에 녹아든다.
현업 적용
Part 09 · AI 기반 SOC 운영 모델
지속 가능한 AI SOC는 사람·프로세스·기술·지표를 동시에 설계할 때 비로소 운영에 녹아든다.
현업 적용실무 포인트

역할 분담

Tier1은 triage, Tier2는 investigation, Tier3는 analytic engineering에서 체감 가치가 다르다.

워크플로

summary → context pull → hypothesis → report draft → feedback capture까지 닫힌 루프를 만든다.

실행 구분

AI는 생각 정리와 추천, SOAR는 표준 작업 수행, 사람은 승인과 최종 책임을 맡는다.

감사 흔적

prompt, 참조 데이터, 출력, 승인, 실행 조치를 모두 audit trail로 남긴다.

실무 포인트

기술 도입보다 조직 설계 문제라는 프레임으로 설명하면 관리자의 공감이 높다.

학습 요소
RolesWorkflowSOARAudit Trail

워크플로: summary → context pull → hypothesis → report draft → feedback capture까지 닫힌 루프를 만든다.

다음 연결

이제 실제 사례 4종을 통해 데이터-해석-대응 흐름을 하나씩 확인한다.

🛡️ AI 기반 SOC 운영 모델
운영 주의 · 역할 혼선과 감사 흔적 부재
AI가 추천하고 SOAR가 실행하고 사람이 승인하는 경계를 흐리면, 책임 구조와 사고 대응 품질이 동시에 흔들린다.
운영 주의
Part 09 · AI 기반 SOC 운영 모델
AI가 추천하고 SOAR가 실행하고 사람이 승인하는 경계를 흐리면, 책임 구조와 사고 대응 품질이 동시에 흔들린다.
운영 주의운영 주의

역할 혼선

AI가 생각할 일과 SOAR가 실행할 일을 분리하지 않으면 자동화 범위가 과도해진다.

Prompt sprawl

팀별로 제멋대로 프롬프트를 쓰면 분석 품질 편차와 재현성 문제가 생긴다.

Audit gap

누가 어떤 데이터를 모델에 넣고 어떤 조치를 승인했는지 남지 않으면 사후 검토가 어렵다.

Metric blind spot

productivity만 보고 misuse·automation error·drift를 안 보면 리스크가 숨는다.

운영 주의

생산성과 리스크를 함께 보는 시각을 줘야 운영 모델이 현실적으로 보인다.

학습 요소
Role SeparationPrompt SprawlAudit GapRisk Metrics

Prompt sprawl: 팀별로 제멋대로 프롬프트를 쓰면 분석 품질 편차와 재현성 문제가 생긴다.

다음 연결

이제 실제 4개 사례를 같은 프레임으로 분석해 본다.

🛡️ AI 기반 SOC 운영 모델
실무 적용 예시 · AI 보조형 triage 10분 단축 시나리오
초기 triage의 첫 10분을 줄이면, 전체 analyst 처리량과 인수인계 품질에 큰 차이가 난다.
적용 예시
Part 09 · AI 기반 SOC 운영 모델
초기 triage의 첫 10분을 줄이면, 전체 analyst 처리량과 인수인계 품질에 큰 차이가 난다.
적용 예시적용 예시

입력

high-risk login case, proxy rare domain, recent password reset, critical asset context가 함께 도착했다.

AI 보조

one-paragraph summary, top evidence 3개, missing evidence 2개, next queries 2개를 자동으로 제시한다.

사람 검증

analyst는 쿼리를 실행하고 사용자 확인·false positive 가능성·추가 영향 범위를 판단한다.

SOAR 연결

승인 후 세션 종료, 토큰 폐기, 로그 수집과 같은 low-impact standard action을 수행한다.

실무 포인트

AI가 답을 주는 것이 아니라, 무엇을 먼저 볼지 정리해 준다는 점을 다시 확인시켜 주자.

학습 요소
First 10 MinutesSummaryQueriesApproved Actions

AI 보조: one-paragraph summary, top evidence 3개, missing evidence 2개, next queries 2개를 자동으로 제시한다.

다음 연결

이제 실제 4개 사례에서 같은 triage 사고방식을 반복해서 연습한다.

10
실제 적용 사례
실전에서는 알고리즘 이름보다 '어떤 데이터에서 어떤 질문을 던질 수 있는가'가 더 중요하다.
🧪 원고 103–112 · 10장 구성
시작 슬라이드
사례 팩 개요: 4개의 대표 use case
마무리 슬라이드
교차 정리: ATT&CK 후보와 보고 문장 패턴
핵심 키워드
BeaconingATT&CK CandidateCase PackUEBA
🧪 실제 적용 사례
사례 팩 개요: 4개의 대표 use case
실전에서는 알고리즘 이름보다 '어떤 데이터에서 어떤 질문을 던질 수 있는가'가 더 중요하다.
구조/프레임
Part 10 · 실제 적용 사례
실전에서는 알고리즘 이름보다 '어떤 데이터에서 어떤 질문을 던질 수 있는가'가 더 중요하다.
Login
Flow
Web
Beaconing

Case 1

로그인 이상 탐지(UEBA) — identity compromise 가능성을 baseline과 score 관점에서 해석

Case 2

네트워크 Flow 이상 탐지 — bytes, rarity, destination, burst를 바탕으로 이상 흐름 식별

Case 3

웹 공격 자동 분류 — 요청 특징을 기반으로 benign / SQLi / XSS / brute force 후보 구분

Case 4

C2 Beaconing 후보 — 주기성, 낮은 분산, rare domain, host 맥락을 함께 본다

실무 포인트

각 사례는 '데이터 → feature → 해석 → 대응'의 동일한 구조로 설명하면 수강생이 비교하기 쉽습니다.

학습 요소
Case PackUEBAFlowBeaconing

복잡한 수식보다 데이터 컬럼이 무엇을 의미하는지에 집중해 주세요.

다음 연결

첫 번째 케이스부터 데이터 형태와 해석 흐름을 순서대로 보겠습니다.

🧪 실제 적용 사례
Case 1 데이터: 로그인 이상 탐지
로그인 이상 케이스는 단순 성공/실패를 넘어, 주변 맥락이 얼마나 이상한지를 함께 봐야 한다.
사례/시나리오
Part 10 · 실제 적용 사례
로그인 이상 케이스는 단순 성공/실패를 넘어, 주변 맥락이 얼마나 이상한지를 함께 봐야 한다.
Login Row
Context Signals

예시 필드

user, login_time, country, ASN, device_id, first_seen_device, fail_count_30m, mfa_change_24h, privileged_user

예시 행 1

kim / 03:12 / US / ASxxxx / dev-new-77 / 1 / 14 / 1 / 1

예시 행 2

lee / 09:04 / KR / ASyyyy / dev-known-21 / 0 / 0 / 0 / 0

분석 포인트

같은 성공 로그인이라도 time, location, device novelty, preceding failures가 의미를 바꾼다

실무 포인트

수강생이 컬럼을 보자마자 baseline 질문이 떠오르도록 설명해 주세요.

학습 요소
Login DatasetContextFirst-seen DevicePreceding Failures

예시 행 두 개를 대비시키며 '같은 success도 의미가 다르다'를 강조하면 좋습니다.

다음 연결

이 데이터를 보고 어떤 판단과 대응을 할지 다음 슬라이드에서 해석합니다.

🧪 실제 적용 사례
Case 1 해석과 대응
로그인 이상 케이스의 핵심은 '이 사용자의 평소와 얼마나 다른가'와 '이후 행위가 무엇인가'다.
사례/시나리오
Part 10 · 실제 적용 사례
로그인 이상 케이스의 핵심은 '이 사용자의 평소와 얼마나 다른가'와 '이후 행위가 무엇인가'다.
Risk Combination
Investigation
Response

고위험 조합

off-hours + new country + first-seen device + recent MFA change + privileged user

추가 확인

로그인 이후 admin portal 접근, OAuth consent, mailbox rule 변경, 파일 다운로드가 있었는가

가능한 ATT&CK 후보

환경에 따라 Valid Accounts, Account Manipulation, MFA 관련 악용 후보를 검토할 수 있다

대응 예

사용자 확인, 세션 종료, 비밀번호 재설정, 토큰 폐기, 유사 계정 검색, 관련 IP 평판 확인

실무 포인트

해석은 점수보다 조사 질문이 핵심이라는 점을 다시 한 번 강조하세요.

학습 요소
InterpretationPost-login ActivityResponseATT&CK Candidate

ATT&CK은 '후보'로 말하고, 환경별 추가 증거가 필요하다고 설명하면 안전합니다.

다음 연결

이제 비슷한 관점을 네트워크 Flow 케이스에 적용해 봅니다.

🧪 실제 적용 사례
Case 2 데이터: 네트워크 Flow 이상 탐지
Flow 데이터는 패킷 전문을 보지 않아도 통신의 형태와 리듬을 이해하게 해 준다.
사례/시나리오
Part 10 · 실제 적용 사례
Flow 데이터는 패킷 전문을 보지 않아도 통신의 형태와 리듬을 이해하게 해 준다.
Flow Record
Volume / Rarity / Rhythm

예시 필드

src_host, dst_domain, dst_port, bytes_out, bytes_in, duration, conn_count_10m, rare_domain_flag, interval_mean

예시 행 1

host-22 / api.unknown-example.com / 443 / 1204800 / 53200 / 180s / 48 / 1 / 15s

예시 행 2

host-07 / update.vendor.com / 443 / 80400 / 950000 / 40s / 3 / 0 / irregular

분석 포인트

대량 유출, burst, rare destination, unusual interval, 단일 호스트 집중 여부가 중요하다

실무 포인트

Flow는 패킷 내용보다 형태를 보는 데이터라는 점을 말해 주세요.

학습 요소
Flow DatasetBytes OutRare DomainInterval

bytes_out이 큰 것 하나만으로는 부족하고 rarity와 interval을 함께 보게 해야 합니다.

다음 연결

이제 이 flow가 단순 대용량 전송인지, 이상 유출 또는 beaconing의 일부인지 해석합니다.

🧪 실제 적용 사례
Case 2 해석과 대응
네트워크 이상 케이스는 '누가, 어디로, 얼마나, 어떤 리듬으로'를 합쳐야 의미가 생긴다.
사례/시나리오
Part 10 · 실제 적용 사례
네트워크 이상 케이스는 '누가, 어디로, 얼마나, 어떤 리듬으로'를 합쳐야 의미가 생긴다.
Flow Anomaly
Exfil? Beacon? Normal Job?

고위험 신호

rare domain, unusual bytes out, conn_count 증가, 특정 host에만 국한된 반복 접속

추가 확인

같은 시간대의 DNS 질의, 프록시 로그, endpoint process, 사용자 로그인 맥락을 함께 본다

판단 분기

데이터 유출 후보인지, 정기 백업/업데이트인지, beaconing 전조인지 구분해야 한다

대응 예

destination 조사, host 격리 검토, EDR 수집, 유사 호스트 검색, TLS/SNI/DNS 보강 확인

실무 포인트

네트워크는 단독 판단보다 cross-source correlation이 중요하다는 점을 강조해 주세요.

학습 요소
Flow InterpretationExfiltrationBeaconingEDR Correlation

판단 분기가 여러 갈래라는 점을 보여 주면 수강생이 더 현실적으로 받아들입니다.

다음 연결

다음은 웹 요청을 자동 분류하는 케이스로 넘어갑니다.

🧪 실제 적용 사례
Case 3 데이터: 웹 공격 자동 분류
웹 로그는 요청 패턴을 feature로 만들면 공격 유형 분류 문제로 재구성하기 좋다.
사례/시나리오
Part 10 · 실제 적용 사례
웹 로그는 요청 패턴을 feature로 만들면 공격 유형 분류 문제로 재구성하기 좋다.
HTTP Features
Attack Candidate Class

예시 필드

method, uri, status, body_len, query_len, ua, keyword_count, response_time, same_ip_req_rate, login_fail_rate

클래스 예시

benign, SQLi candidate, XSS candidate, path traversal candidate, brute force candidate

예시 행

GET /search?q=%27%20OR%201%3D1-- / 500 / 0 / 18 / sql_keywords=3 / rt=220ms

분석 포인트

payload 자체뿐 아니라 요청 속도, 상태코드 변화, URI 패턴, user-agent 희귀성도 함께 본다

실무 포인트

웹 공격 분류는 지도학습 예시로 이해시키기 좋습니다.

학습 요소
Web ClassificationSQLiXSSBrute Force

payload 문자열만 보는 것이 아니라 속도와 상태 변화도 feature라는 점을 강조하세요.

다음 연결

다음에서는 이 데이터를 어떤 feature와 대응으로 연결할지 설명합니다.

🧪 실제 적용 사례
Case 3 feature·라벨 설계와 대응
웹 분류 문제의 핵심은 공격 문자열 자체와 요청 행태를 함께 보는 데 있다.
사례/시나리오
Part 10 · 실제 적용 사례
웹 분류 문제의 핵심은 공격 문자열 자체와 요청 행태를 함께 보는 데 있다.
Features
Candidate Label
Response Path

강한 feature

특수문자 패턴, SQL/XSS 키워드, path traversal token, user-agent rarity, status code mix

행동 feature

같은 IP의 짧은 시간 다수 요청, 로그인 실패율 증가, 에러 응답 급증

대응 예

WAF rule 보강, source IP 차단 검토, 세션 종료, 취약 endpoint 확인, 개발팀 통보

실무 메시지

자동 분류는 triage 보조로 강력하지만, 실제 취약점 존재 여부는 별도 검증이 필요하다

실무 포인트

자동 분류는 '취약점 확정'이 아니라 '공격 후보 triage'라는 점을 분명히 말해 주세요.

학습 요소
LabelsWAFTriageValidation

보안팀과 개발팀 협업 포인트도 함께 언급하면 좋습니다.

다음 연결

마지막 사례는 주기성 분석이 핵심인 beaconing 후보입니다.

🧪 실제 적용 사례
Case 4 데이터: C2 Beaconing 후보
Beaconing은 내용보다 주기, 분산, 대상의 희귀성이 더 강한 신호가 된다.
사례/시나리오
Part 10 · 실제 적용 사례
Beaconing은 내용보다 주기, 분산, 대상의 희귀성이 더 강한 신호가 된다.
Periodic Pattern
+
Rarity / Distribution

예시 필드

host, dst_domain, interval_mean, interval_std, bytes_mean, bytes_std, rare_domain, first_seen_domain, single_host_only

예시 행

pc-19 / cdn-sync-now.example / 300s / 4s / 512B / low / 1 / 1 / 1

예시 대조 행

server-02 / monitor.vendor.com / 300s / 5s / 480B / low / 0 / 0 / 0

분석 포인트

동일 주기라도 rare domain 여부, 조직 내 분포, 해당 host의 프로세스 맥락이 차이를 만든다

실무 포인트

정상 모니터링 통신과 악성 beaconing이 얼마나 비슷해 보일 수 있는지 대비시키는 것이 중요합니다.

학습 요소
Beaconing DatasetPeriodicityLow VarianceDistribution

조직 전체 분포와 프로세스 맥락을 함께 보라는 메시지를 꼭 남겨 주세요.

다음 연결

이제 beaconing 후보를 어떻게 조사하고 대응할지 해석합니다.

🧪 실제 적용 사례
Case 4 해석과 대응
Beaconing 후보는 '정말 주기적인가'보다도 '왜 이 호스트만 이 대상과 이런 리듬으로 이야기하는가'가 핵심이다.
사례/시나리오
Part 10 · 실제 적용 사례
Beaconing 후보는 '정말 주기적인가'보다도 '왜 이 호스트만 이 대상과 이런 리듬으로 이야기하는가'가 핵심이다.
Beacon Candidate
Context Validation
Contain / Investigate

추가 확인

같은 도메인을 누가 더 접속하는지, 관련 프로세스가 무엇인지, DNS first-seen 여부는 어떤지 본다

판단 포인트

vendor agent인지, update job인지, malware C2인지, 테스트 도구인지 분기한다

대응 예

host timeline 조사, process tree 확보, 네트워크 격리 검토, domain reputation 확인, 샌드박스/포렌식 연계

가능한 ATT&CK 후보

애플리케이션 레이어 C2, 외부 통신을 이용한 제어, 환경에 따라 도구 전송/유출 행위와 함께 검토 가능

실무 포인트

beaconing은 network만 봐서는 확정이 어렵고 endpoint와 DNS가 중요하다는 점을 강조하세요.

학습 요소
Beacon InterpretationProcess ContextContainmentC2 Candidate

주기성 자체보다 설명 가능한 맥락을 찾는 것이 더 중요하다고 마무리하면 좋습니다.

다음 연결

이제 네 사례를 공통 프레임으로 묶어 ATT&CK과 보고 문장 관점에서 정리합니다.

🧪 실제 적용 사례
교차 정리: ATT&CK 후보와 보고 문장 패턴
사례별 세부 기술은 달라도, SOC 보고서는 결국 근거·후보 가설·다음 행동의 세 문장으로 정리된다.
정리/체크
Part 10 · 실제 적용 사례
사례별 세부 기술은 달라도, SOC 보고서는 결국 근거·후보 가설·다음 행동의 세 문장으로 정리된다.
Evidence
+
Hypothesis
+
Next Action

로그인 이상 보고 문장 예

'비업무 시간 신규 국가·신규 장치 성공 로그인 후 관리자 행위가 확인되어 계정 탈취 가능성을 검토 중'

Flow 이상 보고 문장 예

'희귀 외부 도메인으로의 대용량 송신과 반복 접속이 관찰되어 유출/비정상 통신 가능성을 분석 중'

웹 분류 보고 문장 예

'특정 URI에 대한 공격 패턴 요청이 반복되어 웹 공격 후보로 triage 후 WAF/개발 검토 중'

Beaconing 보고 문장 예

'단일 호스트에서 희귀 도메인으로 저분산 주기 통신이 확인되어 C2 후보로 host timeline 조사 진행 중'

실무 포인트

ATT&CK은 확정 선언이 아니라 후보와 근거를 정리하는 공통 언어로 쓰는 것이 안전하다

실무 포인트

수강생에게 보고 문장의 형태를 보여 주면 이후 실습 결과물이 훨씬 좋아집니다.

학습 요소
ReportingATT&CK CandidateHypothesisNext Action

확정 표현보다 '가능성 검토'와 '추가 조사 중' 같은 문장 수위를 함께 설명해 주세요.

다음 연결

이제 실습 1에서 직접 이상 데이터를 보고 정상과 이상을 구분해 보겠습니다.

🧪 실제 적용 사례
Check Point · Part 10
실제 적용 사례 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 10 · 실제 적용 사례
실제 적용 사례 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

사례 팩 개요

4개의 대표 use case: Case 1: 로그인 이상 탐지(UEBA) — identity compromise 가능성을 baseline과 score 관점에서 해석

Case 2 데이터

네트워크 Flow 이상 탐지: 예시 필드: src_host, dst_domain, dst_port, bytes_out, bytes_in, duration, conn_count_10m, r…

Case 3 feature·라벨 설계와 대응

강한 feature: 특수문자 패턴, SQL/XSS 키워드, path traversal token, user-agent rarity, status code …

교차 정리

ATT&CK 후보와 보고 문장 패턴: 로그인 이상 보고 문장 예: '비업무 시간 신규 국가·신규 장치 성공 로그인 후 관리자 행위가 확인되어 계정 탈취 가능성을 검토 중'

실무 포인트

실제 적용 사례 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
BeaconingATT&CK CandidateCase PackUEBAFlow

Case 2 데이터: 네트워크 Flow 이상 탐지: 예시 필드: src_host, dst_domain, dst_port, bytes_out, bytes_in, duration, conn_count_10m, r…

다음 연결

이제 실습 1에서 직접 이상 데이터를 보고 정상과 이상을 구분해 보겠습니다.

🧪 실제 적용 사례
현업 적용 포인트 · 사례 분석을 보고 문장으로 닫는 법
실전에서는 알고리즘 이름보다, 어떤 데이터를 어떤 문장으로 정리하고 어떤 후속 조치를 제시하는지가 중요하다.
현업 적용
Part 10 · 실제 적용 사례
실전에서는 알고리즘 이름보다, 어떤 데이터를 어떤 문장으로 정리하고 어떤 후속 조치를 제시하는지가 중요하다.
현업 적용실무 포인트

공통 구조

data → feature → interpretation → response의 동일 프레임으로 네 사례를 비교한다.

보고 문장

근거·후보 가설·다음 행동의 3문장 구조를 유지하면 전달력이 좋아진다.

ATT&CK 표현

확정 선언보다 candidate와 rationale을 함께 두어 과도한 단정을 피한다.

협업 흐름

login·flow·web·beaconing 각각의 추가 확인 소스를 명시해 cross-source correlation을 유도한다.

실무 포인트

사례를 기술 설명으로 끝내지 말고, 실제 보고 문장과 대응 흐름으로 닫아 주면 실무 연결성이 높아진다.

학습 요소
Data→Feature→ResponseReportingATT&CK CandidateCross-source

보고 문장: 근거·후보 가설·다음 행동의 3문장 구조를 유지하면 전달력이 좋아진다.

다음 연결

이제 학습자가 직접 이상 데이터를 분류하고 근거를 적는 실습 1로 넘어간다.

🧪 실제 적용 사례
운영 주의 · 사례 분석에서 자주 생기는 오해
로그 한 줄이나 payload 문자열 하나에만 꽂히면, 정작 사건성 판단에 필요한 맥락을 놓치기 쉽다.
운영 주의
Part 10 · 실제 적용 사례
로그 한 줄이나 payload 문자열 하나에만 꽂히면, 정작 사건성 판단에 필요한 맥락을 놓치기 쉽다.
운영 주의운영 주의

Login 사례

impossible travel 규칙만 보고 post-login privilege use를 놓치지 않도록 한다.

Flow 사례

bytes_out만으로 유출 확정하지 말고 rarity·interval·single-host concentration을 함께 본다.

Web 사례

공격 문자열이 보여도 실제 취약점 존재 여부와 triage label은 분리해서 판단한다.

Beacon 사례

periodicity가 보여도 vendor agent·backup·monitoring allowlist를 먼저 확인한다.

운영 주의

기술 포인트보다 맥락 확인 질문을 더 많이 던지게 하면 실습 품질이 높아진다.

학습 요소
Post-loginRarityTriage LabelAllowlist

Flow 사례: bytes_out만으로 유출 확정하지 말고 rarity·interval·single-host concentration을 함께 본다.

다음 연결

이제 학습자가 직접 데이터를 분류하는 실습으로 넘어간다.

🧪 실제 적용 사례
실무 적용 예시 · 4개 사례를 한 문장으로 비교하기
로그인 이상, flow 이상, 웹 공격 분류, beaconing 후보는 모두 다른 데이터지만 공통적으로 “근거-가설-다음 행동” 구조로 닫힌다.
적용 예시
Part 10 · 실제 적용 사례
로그인 이상, flow 이상, 웹 공격 분류, beaconing 후보는 모두 다른 데이터지만 공통적으로 “근거-가설-다음 행동” 구조로 닫힌다.
적용 예시적용 예시

Login

신규 국가·신규 장치·관리자 행위가 결합돼 계정 탈취 가능성을 검토하고 post-login activity를 추적한다.

Flow

rare destination과 bytes_out spike를 보고 유출·beaconing·정상 배치 중 어느 쪽인지 추가 로그로 분기한다.

Web

candidate label을 triage 보조로 쓰되, 실제 취약점 존재 여부는 별도 검증과 개발 협업으로 닫는다.

Beaconing

periodicity만 보지 말고 allowlist·process tree·DNS first-seen·single-host concentration을 같이 본다.

실무 포인트

서로 다른 사례도 동일한 보고 구조로 정리할 수 있다는 점을 보여 주면 전체 모듈 이해가 단단해진다.

학습 요소
EvidenceHypothesisNext ActionCross-source

Flow: rare destination과 bytes_out spike를 보고 유출·beaconing·정상 배치 중 어느 쪽인지 추가 로그로 분기한다.

다음 연결

이제 수강생이 직접 이상 신호와 GenAI 프롬프트를 다뤄 보는 실습으로 넘어간다.

11
실습 1 - 이상탐지
이 실습의 목적은 모델 코드를 짜는 것이 아니라, 주어진 feature와 점수를 보고 정상과 이상을 근거 있게 구분하는 연습이다.
🧭 원고 113–118 · 6장 구성
시작 슬라이드
실습 1 개요: 이상탐지 미니 랩
마무리 슬라이드
실습 1 디브리프: 흔한 실수
핵심 키워드
Lab 1ClassificationReasoningAction
🧭 실습 1 - 이상탐지
실습 1 개요: 이상탐지 미니 랩
이 실습의 목적은 모델 코드를 짜는 것이 아니라, 주어진 feature와 점수를 보고 정상과 이상을 근거 있게 구분하는 연습이다.
실습/과제
Part 11 · 실습 1 - 이상탐지
이 실습의 목적은 모델 코드를 짜는 것이 아니라, 주어진 feature와 점수를 보고 정상과 이상을 근거 있게 구분하는 연습이다.
Sample Data
Classify
Reason
Action

입력 데이터

로그인/네트워크 중심의 간단한 샘플 테이블과 보조 컨텍스트

수강생 과제

정상 3건, 이상 3건, 추가 확인 필요 2건을 분류하고 이유를 적는다

산출물

분류 결과, 근거 feature, 추가 확인 질문, 예상 대응 조치 초안

평가 포인트

'정답 맞히기'보다 근거 제시와 과잉 확신을 피하는 태도를 본다

학습 힌트

이 실습은 기술 구현이 아니라 분석 사고 훈련이라는 점을 먼저 분명히 해 주세요.

학습 요소
Lab 1ClassificationReasoningAction

정답보다 근거와 불확실성 표현을 평가한다는 메시지가 중요합니다.

다음 연결

먼저 실습 데이터셋에 어떤 필드가 들어 있는지 설명합니다.

🧭 실습 1 - 이상탐지
실습 1 데이터셋 필드 설명
필드를 제대로 읽는 것만으로도 절반은 이미 분석한 셈이다.
실습/과제
Part 11 · 실습 1 - 이상탐지
필드를 제대로 읽는 것만으로도 절반은 이미 분석한 셈이다.
Identity
Context
Network
Scores

Identity 필드

user, privileged_user, department, last_seen_days

Context 필드

login_hour, country, first_seen_device, fail_count_30m, recent_mfa_change

Network 필드

rare_domain_flag, bytes_out_z, conn_count_10m, interval_mean

점수 필드

anomaly_score, entity_risk_score, peer_deviation_score

주의점

점수가 높다고 자동으로 사건 확정하지 말고, 각 점수의 원인 feature를 같이 읽어야 한다

학습 힌트

필드 설명 단계에서 점수 이름에 압도되지 않게 해 주세요.

학습 요소
Dataset FieldsIdentityContextScores

점수는 요약 신호이고, 본체는 feature와 컨텍스트라는 말을 반복하면 좋습니다.

다음 연결

이제 수강생에게 실제로 무엇을 제출하게 할지 과제를 명확히 제시합니다.

🧭 실습 1 - 이상탐지
실습 1 과제와 제출 형식
분석 결과는 짧아도 좋지만, 반드시 '왜 그렇게 보았는가'가 포함돼야 한다.
실습/과제
Part 11 · 실습 1 - 이상탐지
분석 결과는 짧아도 좋지만, 반드시 '왜 그렇게 보았는가'가 포함돼야 한다.
Label
+
Reason
+
Need More Data
+
Action

과제 1

각 레코드를 정상 / 이상 / 추가 확인 필요로 분류한다

과제 2

근거 feature를 최소 2개 이상 적고, 반대 가능성도 한 줄 적는다

과제 3

추가로 보고 싶은 로그나 데이터 소스를 1개 이상 제안한다

과제 4

대응 조치가 필요하다면 low-impact action부터 우선 제안한다

학습 힌트

근거 2개 이상이라는 조건을 주면 직관적 추측보다 데이터 기반 사고를 유도할 수 있습니다.

학습 요소
DeliverableReasonNeed More DataLow-impact Action

추가 확인 필요 라벨을 허용해 과잉 확신을 줄이는 것이 중요합니다.

다음 연결

다음은 수강생이 스스로 질문할 수 있도록 분석 워크시트를 제공합니다.

🧭 실습 1 - 이상탐지
실습 1 분석 워크시트
이상탐지 해석에서 가장 중요한 것은 점수를 읽는 것이 아니라 질문 순서를 지키는 것이다.
실습/과제
Part 11 · 실습 1 - 이상탐지
이상탐지 해석에서 가장 중요한 것은 점수를 읽는 것이 아니라 질문 순서를 지키는 것이다.
Q1 Baseline
Q2 Context
Q3 Benign Explanation
Q4 Action

질문 1

baseline 대비 무엇이 가장 크게 벗어났는가

질문 2

권한, 자산 중요도, 최근 인증 변화처럼 위험도를 높이는 맥락이 있는가

질문 3

반대로 정상 업무나 환경 변화로 설명할 여지는 없는가

질문 4

지금 바로 조치할 것인가, 추가 증거를 모을 것인가

워크시트 사용법

각 질문에 대해 한 줄씩 적으면 자연스럽게 triage note가 완성된다

학습 힌트

실습에서 막히는 학습자는 보통 질문 순서를 잃습니다. 이 슬라이드를 계속 참고하게 하세요.

학습 요소
WorksheetBaseline QuestionBenign ExplanationAction Decision

워크시트를 그대로 triage note로 바꿀 수 있다는 점도 알려 주면 좋습니다.

다음 연결

이제 강사 기준의 해설 방향을 제공합니다.

🧭 실습 1 - 이상탐지
강사용 해설 포인트와 정답 가이드
정답은 하나가 아니라, 어떤 경우를 '추가 확인 필요'로 남겼는지가 오히려 더 좋은 판단일 수 있다.
핵심 개념
Part 11 · 실습 1 - 이상탐지
정답은 하나가 아니라, 어떤 경우를 '추가 확인 필요'로 남겼는지가 오히려 더 좋은 판단일 수 있다.
Good Answer
VS
Weak Answer

고득점 답안 특징

높은 점수의 원인 feature를 짚고, 반대 가능성과 추가 로그 필요성을 함께 적는다

감점 포인트

anomaly_score만 보고 침해 확정, privileged context 미반영, 정상 예외 가능성 무시

권장 피드백

'왜 위험해 보이는지'와 '왜 아직 확정할 수 없는지'를 동시에 말하게 유도한다

모범 해설 방향

high-risk 2건, medium review 2건, benign 2건 정도로 균형 있게 토론하는 구성이 좋다

실무 포인트

보안 분석의 성숙도는 확신의 크기가 아니라 근거와 보수성에서 나온다는 점을 강조해 주세요.

학습 요소
Answer KeyScoringUncertaintyFeedback

토론형 실습이라면 서로 다른 해석이 왜 나왔는지 비교하게 하면 효과적입니다.

다음 연결

마지막으로 실습 1에서 반복되는 흔한 실수를 정리합니다.

🧭 실습 1 - 이상탐지
실습 1 디브리프: 흔한 실수
이상탐지 실습에서 가장 흔한 실수는 점수를 정답처럼 읽는 것이다.
실습/과제
Part 11 · 실습 1 - 이상탐지
이상탐지 실습에서 가장 흔한 실수는 점수를 정답처럼 읽는 것이다.
Score Worship
✕ →
Evidence-based Review

실수 1

anomaly score가 높으니 무조건 침해라고 판단

실수 2

first-seen, recent change 같은 맥락은 보지 않고 단일 feature만 과대평가

실수 3

정상 예외와 운영성 이벤트 가능성을 검토하지 않음

실수 4

대응 조치가 과도해 실제 업무 영향과 blast radius를 고려하지 않음

학습 결론

이상탐지의 목표는 자동 유죄 판정이 아니라, 질문 품질을 높이는 것이다

학습 힌트

점수 숭배(score worship)라는 표현을 쓰면 학습자들이 잘 기억합니다.

학습 요소
DebriefCommon MistakesScore WorshipEvidence-based Review

과도한 대응의 위험까지 함께 짚어 주면 운영 감각이 살아납니다.

다음 연결

이제 GenAI를 직접 활용하는 두 번째 실습으로 넘어갑니다.

🧭 실습 1 - 이상탐지
Check Point · Part 11
실습 1 - 이상탐지 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 11 · 실습 1 - 이상탐지
실습 1 - 이상탐지 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

실습 1 개요

이상탐지 미니 랩: 입력 데이터: 로그인/네트워크 중심의 간단한 샘플 테이블과 보조 컨텍스트

실습 1 과제와 제출 형식

과제 1: 각 레코드를 정상 / 이상 / 추가 확인 필요로 분류한다

강사용 해설 포인트와 정답 가이드

고득점 답안 특징: 높은 점수의 원인 feature를 짚고, 반대 가능성과 추가 로그 필요성을 함께 적는다

실습 1 디브리프

흔한 실수: 실수 1: anomaly score가 높으니 무조건 침해라고 판단

실무 포인트

실습 1 - 이상탐지 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
Lab 1ClassificationReasoningActionDataset Fields

실습 1 과제와 제출 형식: 과제 1: 각 레코드를 정상 / 이상 / 추가 확인 필요로 분류한다

다음 연결

이제 GenAI를 직접 활용하는 두 번째 실습으로 넘어갑니다.

12
실습 2 - GenAI 활용
이 실습의 목적은 LLM이 멋진 문장을 쓰게 하는 것이 아니라, 근거 있는 분석 보조 도구로 안전하게 쓰는 법을 익히는 것이다.
✍️ 원고 119–124 · 6장 구성
시작 슬라이드
실습 2 개요: GenAI 보조 분석 미니 랩
마무리 슬라이드
실습 2 디브리프: 안전하게 쓰는 습관
핵심 키워드
VerificationLab 2PromptingSafety
✍️ 실습 2 - GenAI 활용
실습 2 개요: GenAI 보조 분석 미니 랩
이 실습의 목적은 LLM이 멋진 문장을 쓰게 하는 것이 아니라, 근거 있는 분석 보조 도구로 안전하게 쓰는 법을 익히는 것이다.
실습/과제
Part 12 · 실습 2 - GenAI 활용
이 실습의 목적은 LLM이 멋진 문장을 쓰게 하는 것이 아니라, 근거 있는 분석 보조 도구로 안전하게 쓰는 법을 익히는 것이다.
Prompt
Draft Output
Verification Plan

입력 자료

짧은 로그 묶음, 자산 정보, 질문 시나리오, 원하는 출력 형식 템플릿

수강생 과제

요약 프롬프트, ATT&CK 후보 프롬프트, 탐지 룰 초안 프롬프트를 각각 작성한다

산출물

프롬프트 본문, 예상 출력 형식, 검증 단계, 민감정보/오남용 주의사항

평가 기준

답의 화려함보다 구조, 근거 요구, 금지사항 명시, 검증 가능성을 본다

학습 힌트

프롬프트 품질을 평가한다는 관점이 새로울 수 있으니 분명히 설명해 주세요.

학습 요소
Lab 2PromptingVerificationSafety

답변 품질보다 검증 가능성이 더 중요하다는 기준을 초반에 고정하는 것이 좋습니다.

다음 연결

먼저 로그 요약을 위한 프롬프트 과제부터 시작합니다.

✍️ 실습 2 - GenAI 활용
실습 2 - 과제 1: 로그 요약 프롬프트
좋은 요약 프롬프트는 짧은 정답을 요구하는 것이 아니라, 증거와 미확인 사항을 함께 구조화하게 한다.
실습/과제
Part 12 · 실습 2 - GenAI 활용
좋은 요약 프롬프트는 짧은 정답을 요구하는 것이 아니라, 증거와 미확인 사항을 함께 구조화하게 한다.
Prompt for Summary
Summary + Evidence + Unknowns

요구 예시

'다음 로그를 읽고 5문장 이내 개요, 핵심 근거 3개, 모르는 점 2개, 다음 질문 3개를 작성하라'

필수 조건

시간, IP, 사용자, URI 같은 핵심 필드를 반드시 인용하게 한다

금지 조건

로그에 없는 사실 추정 금지, 사건 확정 표현 금지, 자동 차단 권고 금지

검증 계획

요약의 각 문장이 어떤 원문 로그에서 왔는지 analyst가 대조하도록 설계한다

학습 힌트

요약 프롬프트는 '모르는 점'을 강제로 쓰게 하는 것이 매우 중요합니다.

학습 요소
Summary PromptEvidence CitationUnknownsGuardrails

사건 확정 표현을 금지하는 제약을 꼭 포함시키도록 지도해 주세요.

다음 연결

다음은 ATT&CK 후보와 공격 유형 분류를 요청하는 프롬프트입니다.

✍️ 실습 2 - GenAI 활용
실습 2 - 과제 2: 공격 유형 분류와 ATT&CK 후보 프롬프트
LLM에게 분류를 요청할 때는 정답을 맞히게 하는 것보다, 후보와 근거를 구조적으로 내놓게 하는 것이 더 안전하다.
실습/과제
Part 12 · 실습 2 - GenAI 활용
LLM에게 분류를 요청할 때는 정답을 맞히게 하는 것보다, 후보와 근거를 구조적으로 내놓게 하는 것이 더 안전하다.
Candidates
+
Rationale
+
What We Still Need

요구 예시

'공격 유형 후보를 최대 2개 제시하고, 각 후보의 근거 필드와 추가 확인이 필요한 정보를 적어라'

ATT&CK 요청 예시

'tactic/technique 후보를 제시하되, 확실하지 않으면 후보로만 표현하라'

출력 형식

후보 1 / 근거 / 반례 가능성 / 추가 로그 필요 항목

검증 계획

ATT&CK ID, 용어, 기술 설명이 실제 프레임과 맞는지 analyst가 별도 확인한다

학습 힌트

후보와 근거, 반례 가능성을 함께 내게 하면 LLM의 과감한 단정을 줄일 수 있습니다.

학습 요소
Classification PromptATT&CK CandidateRationaleVerification

ATT&CK은 '정답 맞히기'가 아니라 '위협 언어로 정리하기'라고 설명하면 좋습니다.

다음 연결

다음은 탐지 룰 초안을 만드는 프롬프트 과제입니다.

✍️ 실습 2 - GenAI 활용
실습 2 - 과제 3: 탐지 룰 초안 프롬프트
탐지 프롬프트의 핵심은 룰 자체보다 필요한 필드, 예외, 테스트 항목까지 함께 뽑아내는 것이다.
실습/과제
Part 12 · 실습 2 - GenAI 활용
탐지 프롬프트의 핵심은 룰 자체보다 필요한 필드, 예외, 테스트 항목까지 함께 뽑아내는 것이다.
Scenario
Rule Draft
+
Exceptions
+
Backtest

요구 예시

'이상 로그인 시나리오에 대한 SIEM analytic 초안을 작성하고 필요한 필드, 예외 후보, 백테스트 항목을 적어라'

추가 조건

경보 우선순위, 위험도 버킷, review queue와 즉시 alert 중 어떤 방식이 적합한지도 설명하게 한다

금지 조건

실제 환경 검증 없이 운영 배포를 권장하지 말 것, 차단 조치를 기본값으로 제안하지 말 것

검증 계획

엔지니어가 필드 존재 여부, 경보량, 기존 룰 중복, suppression 필요성을 확인한다

학습 힌트

프롬프트가 결과보다 설계 문서를 잘 만들게 하는 방향으로 가야 한다고 설명해 주세요.

학습 요소
Rule PromptExceptionsBacktestDeployment Safety

실제 배포 금지, 차단 기본값 금지 같은 안전 조건을 반드시 포함시키게 하세요.

다음 연결

이제 이 실습의 평가 기준과 좋은 답안의 특징을 정리합니다.

✍️ 실습 2 - GenAI 활용
실습 2 평가 기준과 좋은 답안 예시
좋은 프롬프트는 모델에게 많이 시키는 프롬프트가 아니라, 틀릴 여지를 좁히는 프롬프트다.
실습/과제
Part 12 · 실습 2 - GenAI 활용
좋은 프롬프트는 모델에게 많이 시키는 프롬프트가 아니라, 틀릴 여지를 좁히는 프롬프트다.
Structure
+
Evidence
+
Safety

평가 기준 1

역할, 입력, 출력 형식, 금지사항, 검증 단계가 모두 명시돼 있는가

평가 기준 2

근거 인용 요구와 불확실성 표현 요구가 들어 있는가

평가 기준 3

민감정보, 자동 차단, 환경 스키마 차이를 고려한 안전 조건이 있는가

좋은 답안 예시

'모르는 것은 모른다고 말하라', '원문 로그 필드를 인용하라', '실행 조치는 제안만 하라' 같은 문장이 들어간다

학습 힌트

프롬프트 평가를 채점표처럼 보여 주면 수강생이 훨씬 명확하게 개선 포인트를 잡을 수 있습니다.

학습 요소
RubricGood PromptUncertaintySafety Clause

좋은 답안 문장을 구체적으로 예시로 읽어 주면 효과가 좋습니다.

다음 연결

마지막으로 GenAI 실습에서 반드시 남겨야 할 안전 수칙을 디브리프로 정리합니다.

✍️ 실습 2 - GenAI 활용
실습 2 디브리프: 안전하게 쓰는 습관
GenAI를 잘 쓰는 사람은 답을 잘 받는 사람이 아니라, 잘못된 답이 큰 사고로 이어지지 않게 설계하는 사람이다.
실습/과제
Part 12 · 실습 2 - GenAI 활용
GenAI를 잘 쓰는 사람은 답을 잘 받는 사람이 아니라, 잘못된 답이 큰 사고로 이어지지 않게 설계하는 사람이다.
Use LLM Safely
=
Minimize Data
+
Demand Evidence
+
Review
+
Approval

습관 1

민감정보, 비밀키, 불필요한 개인정보를 외부 모델에 넣지 않는다

습관 2

근거 인용과 불확실성 표현을 항상 요구한다

습관 3

쿼리와 탐지 초안은 반드시 dry-run과 human review를 거친다

습관 4

실행형 조치는 승인 게이트와 감사 로그 없이는 자동화하지 않는다

학습 결론

GenAI는 생산성을 크게 높일 수 있지만, 검증 가능한 사용 습관이 없으면 리스크도 함께 커진다

학습 힌트

수강생에게 실무에서 바로 적용할 최소 안전 수칙을 남기는 핵심 슬라이드입니다.

학습 요소
Safe UsageData MinimizationEvidence-firstApproval Gate

생산성과 리스크가 동시에 커진다는 균형 감각을 꼭 남겨 주세요.

다음 연결

이제 마지막으로 조금 더 앞선 확장 주제를 짧게 맛보겠습니다.

✍️ 실습 2 - GenAI 활용
Check Point · Part 12
실습 2 - GenAI 활용 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 12 · 실습 2 - GenAI 활용
실습 2 - GenAI 활용 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

실습 2 개요

GenAI 보조 분석 미니 랩: 입력 자료: 짧은 로그 묶음, 자산 정보, 질문 시나리오, 원하는 출력 형식 템플릿

실습 2 - 과제 2

공격 유형 분류와 ATT&CK…: 요구 예시: '공격 유형 후보를 최대 2개 제시하고, 각 후보의 근거 필드와 추가 확인이 필요한 정보를 적어라'

실습 2 평가 기준과 좋은 답안 예시

평가 기준 1: 역할, 입력, 출력 형식, 금지사항, 검증 단계가 모두 명시돼 있는가

실습 2 디브리프

안전하게 쓰는 습관: 습관 1: 민감정보, 비밀키, 불필요한 개인정보를 외부 모델에 넣지 않는다

실무 포인트

실습 2 - GenAI 활용 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
VerificationLab 2PromptingSafetySummary Prompt

실습 2 - 과제 2: 공격 유형 분류와 ATT&CK…: 요구 예시: '공격 유형 후보를 최대 2개 제시하고, 각 후보의 근거 필드와 추가 확인이 필요한 정보를 적어라'

다음 연결

이제 마지막으로 조금 더 앞선 확장 주제를 짧게 맛보겠습니다.

13
고급 확장 주제
사건은 점이 아니라 관계망으로 이해될 때가 많아서, 그래프와 retrieval를 결합하면 더 풍부한 맥락을 만들 수 있다.
🔭 원고 125–128 · 4장 구성
시작 슬라이드
고급 확장 1: Graph 기반 분석과 GraphRAG
마무리 슬라이드
고급 확장 4: AI 시스템 자체의 보안
핵심 키워드
GraphGraphRAGRelationsLateral Movement
🔭 고급 확장 주제
고급 확장 1: Graph 기반 분석과 GraphRAG
사건은 점이 아니라 관계망으로 이해될 때가 많아서, 그래프와 retrieval를 결합하면 더 풍부한 맥락을 만들 수 있다.
핵심 개념
Part 13 · 고급 확장 주제
사건은 점이 아니라 관계망으로 이해될 때가 많아서, 그래프와 retrieval를 결합하면 더 풍부한 맥락을 만들 수 있다.
Entities + Relations
Context-rich Investigation

그래프 노드 예

사용자, 호스트, IP, 도메인, 프로세스, 이메일, SaaS 객체

그래프 엣지 예

로그인, 접속, 다운로드, 권한 변경, 프로세스 생성, 동일 세션 관계

GraphRAG 관점

현재 사건과 연결된 주변 이웃, 과거 유사 패턴, 관련 문서를 함께 끌어와 응답 품질을 높인다

SOC 가치

단일 레코드가 아니라 관계 전체를 보며 lateral movement와 multi-stage attack을 이해하기 쉽다

실무 포인트

GraphRAG는 기술적으로 복잡해 보이지만, '관계와 주변 맥락을 더 잘 불러오는 방식'으로 설명하면 충분합니다.

학습 요소
GraphGraphRAGRelationsLateral Movement

관계가 많은 침해 시나리오에 특히 강하다는 점을 강조해 주세요.

다음 연결

다음은 시계열과 계절성을 더 정교하게 다루는 확장 주제입니다.

🔭 고급 확장 주제
고급 확장 2: 시계열·Seasonality·Change Point
더 성숙한 환경에서는 단순 임계치보다 시간 구조의 변화 자체를 감지하는 것이 중요해진다.
핵심 개념
Part 13 · 고급 확장 주제
더 성숙한 환경에서는 단순 임계치보다 시간 구조의 변화 자체를 감지하는 것이 중요해진다.
Expected Pattern
VS
Observed Shift

Seasonality

요일, 월말, 분기말, 주간 배치처럼 반복 패턴을 모델에 반영한다

Change point

갑자기 행동 분포가 달라진 시점을 탐지해 정책 변경·침해·배포 영향 여부를 본다

Forecasting 관점

예상 범위를 벗어난 활동량이나 실패율을 조기에 포착할 수 있다

주의점

운영 일정과 비즈니스 이벤트 정보를 모르면 모델은 정상 변화도 이상으로 볼 수 있다

실무 포인트

시계열 고급화는 결국 baseline을 더 현실적으로 만드는 작업이라고 설명하면 좋습니다.

학습 요소
Time SeriesSeasonalityChange PointForecast

운영 일정 데이터가 모델 품질을 크게 좌우한다는 점도 함께 언급해 주세요.

다음 연결

다음은 여러 데이터 모달리티를 함께 보는 multi-modal 분석입니다.

🔭 고급 확장 주제
고급 확장 3: Multi-modal 분석
미래의 SOC는 로그, 네트워크, 텍스트, 지식베이스를 따로 보지 않고 함께 해석하는 방향으로 간다.
핵심 개념
Part 13 · 고급 확장 주제
미래의 SOC는 로그, 네트워크, 텍스트, 지식베이스를 따로 보지 않고 함께 해석하는 방향으로 간다.
Logs
+
Flows
+
Text
+
KB
Richer Decision

구성 예

structured log + network flow + alert title + ticket note + KB 문서를 함께 해석

장점

단일 모달리티에서 놓친 단서를 다른 모달리티가 보완해 준다

예시

Beaconing 후보를 flow만이 아니라 EDR process note, analyst comment, TI 문서와 함께 해석

주의점

모달리티가 많아질수록 데이터 품질, 비용, explainability 문제가 함께 커진다

실무 포인트

multi-modal은 화려해 보이지만, 비용과 explainability trade-off가 크다는 점을 균형 있게 설명하세요.

학습 요소
Multi-modalFlowTextExplainability

데이터를 많이 붙이는 것이 언제나 정답은 아니라는 메시지도 좋습니다.

다음 연결

마지막 확장 주제는 AI 시스템 자체를 지키는 보안 프레임입니다.

🔭 고급 확장 주제
고급 확장 4: AI 시스템 자체의 보안
AI를 SOC에 쓸수록, 그 AI 시스템이 새로운 공격 표면이 된다는 점을 잊지 말아야 한다.
핵심 개념
Part 13 · 고급 확장 주제
AI를 SOC에 쓸수록, 그 AI 시스템이 새로운 공격 표면이 된다는 점을 잊지 말아야 한다.
AI System Threats
Controls

대표 위협

prompt injection, sensitive information disclosure, excessive agency, model theft, training data poisoning

프레임 활용

ATT&CK가 일반 IT 시스템 위협 언어라면, AI 시스템에는 ATLAS 같은 프레임이 추가 참고가 된다

운영 통제

최소 권한, 출력 검열, 도구 사용 제한, 승인 게이트, 테스트와 red teaming이 중요하다

핵심 메시지

'보안을 위한 AI'를 잘 쓰려면 동시에 'AI를 위한 보안'도 준비해야 한다

실무 포인트

확장 파트의 결론은 'AI 도입이 새로운 공격 표면을 만든다'는 인식입니다.

학습 요소
ATLASPrompt InjectionModel TheftControls

현재 수업 범위는 AI for Security가 중심이지만, 보안팀은 결국 둘 다 봐야 한다고 연결해 주세요.

다음 연결

이제 마지막 파트로 넘어가 데이터 품질, 설명 가능성, 편향 같은 한계를 정리합니다.

🔭 고급 확장 주제
Check Point · Part 13
고급 확장 주제 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 13 · 고급 확장 주제
고급 확장 주제 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

고급 확장 1

Graph 기반 분석과 GraphRAG: 그래프 노드 예: 사용자, 호스트, IP, 도메인, 프로세스, 이메일, SaaS 객체

고급 확장 2

시계열·Seasonality·Chan…: Seasonality: 요일, 월말, 분기말, 주간 배치처럼 반복 패턴을 모델에 반영한다

고급 확장 3

Multi-modal 분석: 구성 예: structured log + network flow + alert title + ticket note + KB 문서를 함께 해석

고급 확장 4

AI 시스템 자체의 보안: 대표 위협: prompt injection, sensitive information disclosure, excessive agency, model thef…

실무 포인트

고급 확장 주제 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
GraphGraphRAGRelationsLateral MovementTime Series

고급 확장 2: 시계열·Seasonality·Chan…: Seasonality: 요일, 월말, 분기말, 주간 배치처럼 반복 패턴을 모델에 반영한다

다음 연결

이제 마지막 파트로 넘어가 데이터 품질, 설명 가능성, 편향 같은 한계를 정리합니다.

14
한계 및 리스크
AI는 나쁜 데이터를 마법처럼 좋은 판단으로 바꾸지 못한다.
⚠️ 원고 129–134 · 6장 구성
시작 슬라이드
한계 1: 데이터 품질 의존
마무리 슬라이드
해결의 핵심: Human-in-the-loop 통제 설계
핵심 키워드
BiasData QualityMissing DataEntity Resolution
⚠️ 한계 및 리스크
한계 1: 데이터 품질 의존
AI는 나쁜 데이터를 마법처럼 좋은 판단으로 바꾸지 못한다.
구조/프레임
Part 14 · 한계 및 리스크
AI는 나쁜 데이터를 마법처럼 좋은 판단으로 바꾸지 못한다.
Bad Data
Bad Score

누락 문제

필드가 자주 비거나 시간대가 뒤섞이면 baseline과 score가 왜곡된다

불일치 문제

같은 사용자와 자산이 여러 이름으로 나타나면 entity 분석이 깨진다

편향 문제

특정 부서나 근무형태가 데이터에 과소·과대 반영되면 모델도 그 방향으로 왜곡된다

운영 메시지

AI 프로젝트의 상당수는 모델보다 데이터 파이프라인과 품질 관리에서 성공이 갈린다

실무 포인트

이 슬라이드는 화려한 모델보다 데이터 품질이 중요하다는 가장 기본적인 교훈을 남깁니다.

학습 요소
Data QualityMissing DataEntity ResolutionBias

현업에서는 품질 문제를 모델 탓으로 오해하기 쉽다는 점도 짚어 주세요.

다음 연결

다음은 analyst 신뢰와 직결되는 설명 가능성 문제를 다룹니다.

⚠️ 한계 및 리스크
한계 2: Explainability와 신뢰
분석가는 왜 점수가 높았는지 납득할 수 있어야 그 결과를 행동으로 옮길 수 있다.
핵심 개념
Part 14 · 한계 및 리스크
분석가는 왜 점수가 높았는지 납득할 수 있어야 그 결과를 행동으로 옮길 수 있다.
Score
+
Why?

문제

복잡한 모델일수록 '왜'라는 질문에 답하기 어려울 수 있다

실무 대응

top contributing features, unusual factors, peer deviation 이유를 함께 보여 주는 방식이 유용하다

LLM 관점

생성된 설명도 실제 로그 근거와 일치하는지 별도로 검증해야 한다

운영 메시지

설명 가능성은 미학이 아니라 analyst adoption과 audit 대응의 핵심이다

실무 포인트

분석가가 이해하지 못하는 점수는 실제 운영에서 잘 쓰이지 않는다는 현실을 강조해 주세요.

학습 요소
ExplainabilityTop FactorsAdoptionAudit

설명 기능은 도입 편의가 아니라 필수 통제라는 메시지가 중요합니다.

다음 연결

다음은 행동 분석에서 자주 부딪히는 프라이버시와 컴플라이언스 이슈입니다.

⚠️ 한계 및 리스크
한계 3: Bias, Privacy, Compliance
행동과 텍스트를 넓게 다룰수록 윤리와 규제, 프라이버시 통제가 운영 성공의 전제조건이 된다.
핵심 개념
Part 14 · 한계 및 리스크
행동과 텍스트를 넓게 다룰수록 윤리와 규제, 프라이버시 통제가 운영 성공의 전제조건이 된다.
Bias / Privacy Risk
Minimization / Access / Policy

Bias

야간 근무자, 외주 계정, 특정 지역 인력이 구조적으로 더 높은 이상 점수를 받을 수 있다

Privacy

필요 이상의 개인 행태와 민감 속성을 모으면 법적·조직적 마찰이 생긴다

Compliance

로그 보존, 목적 제한, 접근 통제, 외부 모델 전송 범위를 문서화해야 한다

실무 대응

data minimization, role-based access, pseudonymization, review board, 정책 문서화가 필요하다

실무 포인트

AI 리스크는 기술적 오류만이 아니라 조직 수용성과 법적 요구사항의 문제이기도 하다고 설명해 주세요.

학습 요소
BiasPrivacyComplianceData Minimization

데이터 최소화와 목적 제한의 원칙을 강조하면 좋습니다.

다음 연결

이제 시간이 지나며 모델과 탐지가 낡는 drift 문제를 살펴봅니다.

⚠️ 한계 및 리스크
한계 4: Model Drift와 재학습 리스크
환경도 변하고 공격자도 변하므로, 한 번 잘 맞던 모델이 계속 잘 맞는다는 보장은 없다.
핵심 개념
Part 14 · 한계 및 리스크
환경도 변하고 공격자도 변하므로, 한 번 잘 맞던 모델이 계속 잘 맞는다는 보장은 없다.
Performance Drift
Controlled Retraining

Drift 신호

score 분포 변화, 경보량 급변, false positive 증가, 특정 집단에서만 성능 악화

재학습 리스크

잘못된 라벨이나 오염된 데이터로 다시 학습하면 오히려 품질이 더 나빠질 수 있다

운영 대응

holdout 비교, shadow mode, retraining approval, rollback 계획, 모니터링 지표가 필요하다

메시지

재학습은 자동 반복 작업이 아니라 변경 관리(change management)의 일부다

실무 포인트

자동 재학습이라는 말이 매력적으로 들리지만 실제로는 매우 조심해야 한다고 강조해 주세요.

학습 요소
Model DriftRetrainingRollbackChange Management

변경 관리의 일부라는 표현을 쓰면 운영팀이 더 잘 받아들입니다.

다음 연결

다음은 공격자가 AI를 직접 속이거나 악용하는 adversarial 관점입니다.

⚠️ 한계 및 리스크
한계 5: Adversarial ML, Poisoning, Evasion
AI를 쓰는 순간 공격자는 그 AI를 속이는 방법도 고민하기 시작한다.
핵심 개념
Part 14 · 한계 및 리스크
AI를 쓰는 순간 공격자는 그 AI를 속이는 방법도 고민하기 시작한다.
Poison / Evade / Extract
Validate / Limit / Test / Filter

Poisoning

학습 데이터나 피드백 데이터를 오염시켜 모델 기준을 흐리는 공격

Evasion

입력을 교묘하게 조작해 탐지를 회피하는 공격

Extraction/Theft

모델 동작을 추정하거나 민감한 시스템 프롬프트와 지식을 빼내는 공격

대응 방향

데이터 검증, 쿼리 제한, red teaming, 출력 필터링, 사용자 권한 최소화가 중요하다

실무 포인트

AI를 쓰는 순간 공격 표면이 늘어난다는 점을 절대 가볍게 넘기지 마세요.

학습 요소
Adversarial MLPoisoningEvasionExtraction

보안팀이야말로 adversarial thinking을 가장 잘 할 수 있다는 점도 격려해 주세요.

다음 연결

마지막으로 이런 리스크를 현실적으로 줄이는 human-in-the-loop 통제 설계를 정리합니다.

⚠️ 한계 및 리스크
해결의 핵심: Human-in-the-loop 통제 설계
AI 리스크를 줄이는 가장 현실적인 방법은 사람 검증을 체계화하고, 자동화의 범위를 점진적으로 넓히는 것이다.
핵심 개념
Part 14 · 한계 및 리스크
AI 리스크를 줄이는 가장 현실적인 방법은 사람 검증을 체계화하고, 자동화의 범위를 점진적으로 넓히는 것이다.
Approval
+
Review
+
Versioning
+
Metrics

원칙 1

높은 영향 조치는 반드시 승인 게이트를 둔다

원칙 2

근거 없는 출력은 action이 아니라 review queue로만 보낸다

원칙 3

모델, 프롬프트, 룰 변경은 버전과 승인 이력을 남긴다

원칙 4

품질 지표와 오남용 지표를 함께 보고, 실패 사례를 학습 자산으로 축적한다

결론

AI를 안전하게 쓰는 조직은 인간 검증을 약하게 하지 않고 오히려 더 구조화한다

실무 포인트

이 슬라이드는 모든 리스크 논의를 현실적인 운영 원칙으로 수렴시키는 마무리입니다.

학습 요소
Human-in-the-loopApprovalVersioningMetrics

점진적 자동화와 구조화된 검증이라는 두 단어를 강조하면 좋습니다.

다음 연결

이제 전체 모듈을 마무리하며 핵심 메시지를 다시 한 번 정리합니다.

⚠️ 한계 및 리스크
Check Point · Part 14
한계 및 리스크 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트
Part 14 · 한계 및 리스크
한계 및 리스크 파트에서 반드시 기억해야 할 운영 포인트를 4개의 질문으로 다시 묶는다.
체크포인트형Check Point

한계 1

데이터 품질 의존: 누락 문제: 필드가 자주 비거나 시간대가 뒤섞이면 baseline과 score가 왜곡된다

한계 3

Bias, Privacy, Complian…: Bias: 야간 근무자, 외주 계정, 특정 지역 인력이 구조적으로 더 높은 이상 점수를 받을 수 있다

한계 5

Adversarial ML, Poisoni…: Poisoning: 학습 데이터나 피드백 데이터를 오염시켜 모델 기준을 흐리는 공격

해결의 핵심

Human-in-the-loop 통제 …: 원칙 1: 높은 영향 조치는 반드시 승인 게이트를 둔다

실무 포인트

한계 및 리스크 파트는 개념보다 운영 질문과 판단 흐름으로 복습시키면 학습 전이가 높다.

학습 요소
BiasData QualityMissing DataEntity ResolutionExplainability

한계 3: Bias, Privacy, Complian…: Bias: 야간 근무자, 외주 계정, 특정 지역 인력이 구조적으로 더 높은 이상 점수를 받을 수 있다

다음 연결

이제 전체 모듈을 마무리하며 핵심 메시지를 다시 한 번 정리합니다.

⚠️ 한계 및 리스크
현업 적용 포인트 · 리스크를 줄이는 운영 통제 프레임
데이터 품질·설명 가능성·편향·drift·adversarial surface를 모두 한 번에 없앨 수는 없지만, 통제 설계로 위험을 낮출 수 있다.
현업 적용
Part 14 · 한계 및 리스크
데이터 품질·설명 가능성·편향·drift·adversarial surface를 모두 한 번에 없앨 수는 없지만, 통제 설계로 위험을 낮출 수 있다.
현업 적용실무 포인트

입력 통제

schema quality, entity resolution, data minimization, external transfer 범위를 먼저 정한다.

출력 통제

unexplained score는 review queue로만 보내고, high-impact action에는 승인 게이트를 둔다.

변경 통제

model·prompt·rule·retraining 모두 버전·approval·rollback 계획을 남긴다.

공격 관점

poisoning, evasion, extraction, prompt injection을 상정한 red teaming과 audit를 포함한다.

실무 포인트

리스크 파트는 겁주는 슬라이드가 아니라, 현실적인 운영 통제를 보여 주는 마무리로 설명하면 좋다.

학습 요소
Data QualityApproval GateRollbackAdversarial Thinking

출력 통제: unexplained score는 review queue로만 보내고, high-impact action에는 승인 게이트를 둔다.

다음 연결

마지막 파트에서는 전체 내용을 6문장과 치트시트로 정리한다.

⚠️ 한계 및 리스크
운영 주의 · AI 리스크를 낮추는 통제 우선순위
리스크를 모두 제거할 수는 없지만, 어떤 입력을 받고 어떤 출력이 어떤 행동으로 이어지는지 통제하면 피해를 크게 줄일 수 있다.
운영 주의
Part 14 · 한계 및 리스크
리스크를 모두 제거할 수는 없지만, 어떤 입력을 받고 어떤 출력이 어떤 행동으로 이어지는지 통제하면 피해를 크게 줄일 수 있다.
운영 주의운영 주의

Data first

누락·불일치·편향이 크면 어떤 모델도 안정적인 판단을 내기 어렵다.

Explainability first

이해되지 않는 score는 analyst adoption과 audit 대응을 동시에 해친다.

Change control

auto-retraining, prompt 변경, rule 수정은 모두 승인과 rollback 계획이 필요하다.

Adversarial mindset

poisoning·evasion·extraction을 상정한 테스트와 monitoring을 운영에 포함한다.

운영 주의

리스크 파트에서는 두려움보다 현실적인 운영 원칙을 남겨 주는 것이 중요하다.

학습 요소
Data FirstExplainabilityChange ControlAdversarial Mindset

Explainability first: 이해되지 않는 score는 analyst adoption과 audit 대응을 동시에 해친다.

다음 연결

이제 전체 모듈을 6문장과 치트시트로 정리한다.

15
핵심 요약 및 부록
이번 모듈의 핵심은 AI를 신비화하지 않고, SOC 운영 언어로 정확히 위치시키는 것이다.
📌 원고 135–139 · 5장 구성
시작 슬라이드
핵심 요약 6문장
마무리 슬라이드
부록 4: 강사용 한 줄 멘트 & 마무리
핵심 키워드
CopilotKey TakeawaysFeature QualityUEBA
📌 핵심 요약 및 부록
핵심 요약 6문장
이번 모듈의 핵심은 AI를 신비화하지 않고, SOC 운영 언어로 정확히 위치시키는 것이다.
정리/체크
Part 15 · 핵심 요약 및 부록
이번 모듈의 핵심은 AI를 신비화하지 않고, SOC 운영 언어로 정확히 위치시키는 것이다.
Expand
Anomaly
Features
UEBA
Copilot
Governance

포인트 1

1. AI는 탐지를 대체하지 않고, 탐지 범위와 분석 효율을 확장한다

포인트 2

2. 이상탐지의 본질은 공격 확정이 아니라 baseline 대비 벗어남을 후보로 드러내는 것이다

포인트 3

3. Feature 품질과 엔티티 맥락이 모델 성능과 explainability를 좌우한다

포인트 4

4. UEBA는 정상 계정과 비인간 계정 악용을 포착하는 데 특히 유용하다

포인트 5

5. GenAI는 copilot로서 강력하지만, grounding·검증·승인 체계가 필수다

포인트 6

6. 좋은 AI SOC는 사람, 프로세스, 기술, 지표, 거버넌스를 함께 설계한다

실무 포인트

마무리 슬라이드에서는 복잡한 내용보다 기억해야 할 문장을 짧고 강하게 반복해 주세요.

학습 요소
Key TakeawaysFeature QualityUEBACopilot

각 항목이 어느 파트와 연결되는지도 한마디씩 덧붙이면 복습 효과가 좋습니다.

다음 연결

이제 수강생이 바로 가져갈 수 있는 프롬프트 치트시트를 제공합니다.

📌 핵심 요약 및 부록
부록 1: SOC용 프롬프트 치트시트
좋은 프롬프트는 모델에게 답을 맡기는 문장이 아니라, 근거와 형식을 강제하는 분석 지시서다.
정리/체크
Part 15 · 핵심 요약 및 부록
좋은 프롬프트는 모델에게 답을 맡기는 문장이 아니라, 근거와 형식을 강제하는 분석 지시서다.
Summary Prompt
Classification Prompt
Rule Prompt
Safety Clauses

요약 프롬프트 기본형

'다음 로그를 요약하되 핵심 근거 3개, 미확인 사항 2개, 다음 질문 3개를 함께 제시하라'

분류 프롬프트 기본형

'공격 유형 후보를 2개 이하로 제시하고 각 후보의 근거와 반대 가능성을 함께 적어라'

룰 프롬프트 기본형

'탐지 조건 초안, 필요한 필드, 예외 후보, 백테스트 항목을 표로 작성하라'

공통 안전 문구

'모르는 것은 모른다고 말하라 / 원문 로그 필드를 인용하라 / 자동 조치를 직접 실행하라고 제안하지 마라'

실무 포인트

실무자는 바로 가져가 쓸 수 있는 문장을 좋아하므로, 이 슬라이드는 복붙 가능한 형태로 읽어 주세요.

학습 요소
Prompt Cheat SheetEvidence-firstUnknownsSafety Clauses

공통 안전 문구는 팀 표준으로 저장해 두라고 권장하면 좋습니다.

다음 연결

다음은 AI SOC를 실제로 도입할 때 점검할 체크리스트입니다.

📌 핵심 요약 및 부록
부록 2: AI SOC 도입 체크리스트
성공적인 도입은 도구 구매보다도, 무엇을 어디까지 맡기고 어떻게 검증할지 미리 정하는 데서 시작한다.
정리/체크
Part 15 · 핵심 요약 및 부록
성공적인 도입은 도구 구매보다도, 무엇을 어디까지 맡기고 어떻게 검증할지 미리 정하는 데서 시작한다.
Use Case
Data
Controls
Metrics
Rollout

Use case 선정

alert fatigue, triage 속도, 이상 로그인, 요약 자동화처럼 ROI가 분명한 문제부터 시작한다

데이터 준비

스키마 정리, enrichment, entity mapping, 품질 모니터링이 되어 있는지 확인한다

운영 통제

승인 게이트, 접근 권한, 감사 로그, 민감정보 정책, 모델 변경 이력 관리가 있는지 본다

품질 측정

precision, triage time, case quality, drift, misuse, automation error를 정기적으로 리뷰한다

도입 전략

small pilot → shadow mode → limited rollout → feedback loop → scale 순으로 확장한다

실무 포인트

도입 체크리스트는 기술보다 운영 항목이 많다는 점을 일부러 강조해 주세요.

학습 요소
Deployment ChecklistPilotControlsMetrics

특히 small pilot에서 시작하라는 원칙은 반복할수록 좋습니다.

다음 연결

다음은 공식적·권장 참고 프레임을 빠르게 정리한 슬라이드입니다.

📌 핵심 요약 및 부록
부록 3: 공식·권장 참고 프레임
AI 보안 운영은 한 문서로 끝나지 않으므로, 여러 프레임을 목적에 맞게 조합해 보는 습관이 필요하다.
정리/체크
Part 15 · 핵심 요약 및 부록
AI 보안 운영은 한 문서로 끝나지 않으므로, 여러 프레임을 목적에 맞게 조합해 보는 습관이 필요하다.
NIST
OWASP
ATLAS
SAIF/Operational Examples

AI 거버넌스와 리스크

NIST AI RMF와 Generative AI Profile 관점

LLM/GenAI 애플리케이션 리스크

OWASP GenAI Security / LLM Top 10 계열 문서 관점

AI 시스템 위협 프레임

MITRE ATLAS의 adversarial AI 관점

클라우드·기업 보안 실무

Secure AI Framework(SAIF), 보안 코파일럿/AI 보조 운영 사례 관점

학습 팁

하나의 프레임에 모든 답을 기대하지 말고, 운영 목적별로 crosswalk해 보는 것이 좋다

실무 포인트

이 슬라이드는 세부 조항보다 '어떤 문제에 어떤 프레임을 볼 것인가'를 연결해 주는 역할입니다.

학습 요소
NIST AI RMFOWASP GenAIMITRE ATLASSAIF

crosswalk 관점으로 보라고 조언하면 상위 학습으로 이어지기 좋습니다.

다음 연결

마지막으로 강사용 마무리 멘트를 제공합니다.

📌 핵심 요약 및 부록
부록 4: 강사용 한 줄 멘트 & 마무리
AI를 잘 쓰는 SOC는 AI를 많이 쓰는 SOC가 아니라, AI가 틀릴 때도 안전하게 운영되는 SOC다.
정리/체크
Part 15 · 핵심 요약 및 부록
AI를 잘 쓰는 SOC는 AI를 많이 쓰는 SOC가 아니라, AI가 틀릴 때도 안전하게 운영되는 SOC다.
AI as Accelerator
+
Human Judgment
+
Governance

오프닝 멘트

'AI는 SOC의 가속기이지, 책임 회피 장치가 아니다'

중간 전환 멘트

'점수는 끝이 아니라 조사 질문의 시작이다'

GenAI 멘트

'Copilot은 필요하지만 Autopilot은 위험하다'

마무리 멘트

'사람 + AI + 거버넌스가 함께 있어야 지속 가능한 SOC가 된다'

실제 PPT 제작 팁

장당 본문은 이 원고의 40~60% 수준으로 줄이고, 나머지는 발표자 노트에 남기면 가독성이 좋다

실무 포인트

최종 메시지는 기술보다 운영 철학으로 남는 것이 좋습니다.

학습 요소
ClosingInstructor NotesCopilotGovernance

실제 장표 제작 시 본문을 압축하고 발표자 노트에 스크립트를 옮기면 훨씬 읽기 좋다는 팁도 함께 전해 주세요.

다음 연결

이상으로 Module 6 원고를 마칩니다.