적대적 머신러닝 [머신러닝 알고리즘으로 하는 시스템 보안 공격과 방어]
- 원서명Adversarial Machine Learning (ISBN 9781107043466)
- 지은이앤서니 조셉(Anthony D. Joseph), 블레인 넬슨(Blaine Nelson), 벤자민 루빈슈타인(Benjamin I. P. Rubinstein), J. D. 타이가(J. D. Tygar)
- 옮긴이김우석, 장기식, 김대엽
- 감수자이용석, 이경호
- ISBN : 9791161754208
- 40,000원
- 2020년 06월 30일 펴냄
- 페이퍼백 | 500쪽 | 188*235mm
- 시리즈 : 데이터 과학, 해킹과 보안
책 소개
2021년 대한민국학술원 우수학술도서 선정도서
요약
이메일 스팸과 네트워크 보안에 관한 사례 연구를 포함해 시스템의 보안을 분석하고 적대적인 환경에서 강건한 머신러닝 알고리즘을 구축하는 데 필요한 이론과 실용적인 기술을 모두 다루고 있어, 컴퓨터 보안과 머신러닝 분야의 연구자와 실무자, 학생에게 많은 도움이 될 것이다.
추천의 글
“데이터 과학 실무자는 공격자가 얼마나 쉽게 적응형 머신러닝 시스템(adaptive machine learning system)을 조작하고 오용하는지 잘 알지 못한다. 이 책은 공격을 분류하고 적대적 학습 연구 결과로 이 문제의 심각성을 보여준다. 또한 이 책은 오래된 공격뿐만 아니라 최신 딥러닝 시스템(deep learning system)의 약점도 분석한다. 여러 학습 시스템과 공격 유형에 관한 다양한 방어법은 공격에 더 강건한 시스템을 설계하는 연구자와 개발자에게 도움이 될 것이다.”
- 리차드 리프만(Richard Lippmann), MIT 링컨 연구소(MIT Lincoln Laboratory)
“시의적절한 이 책은 권위 있으면서도 포괄적인 주제를 다루는 올바른 책이다. 머신러닝이 보편화되고 있다. 그러나 사람들이 머신러닝을 신뢰하려면 먼저 머신러닝을 얼마나 신뢰할 수 있는지 알아야 한다.”
- 파비오 롤리(Fabio Roli), 칼리아리대학교(University of Cagliari)
이 책의 다루는 내용
저명한 연구자들이 서술한 이 완벽한 입문서는 적대적(敵對的) 환경(adversarial environment)에서 강건한 머신러닝(robust machine learning)을 구축하는 데 필요한 모든 이론과 도구를 제공한다. 공격자가 통계적 추론을 조작하려고 데이터를 적극적으로 중독시킬 때 머신러닝 시스템을 어떻게 적용할 수 있는지 알아본다. 시스템 보안을 조사하고, 강건한 데이터 분석을 수행할 수 있는 최신 실용 기술을 배우며, 최신 사이버 공격의 추세에 효과적인 대책을 설계할 수 있는 새로운 접근 방식에 대한 통찰력도 얻을 수 있을 것이다. 또한 프라이버시 보호 메커니즘(privacy-preserving mechanism)과 분류기(classifier)에 대한 근사-최적 회피(near-optimal evasion)를 자세히 설명하고, 스팸 메일과 네트워크 보안에 관한 심층적인 인스턴스 연구 결과를 통해 전통적인 머신러닝 알고리즘을 성공적으로 공격하는 방법도 소개한다. 이 분야의 현재 기술 수준과 미래 방향의 개요를 빈틈없이 제공하는 이 획기적인 작업은 컴퓨터 보안과 머신러닝 분야의 연구자와 실무자, 학생, 사이버보안 군비 경쟁의 다음 단계를 배우려는 사람에게 꼭 필요한 책이다.
목차
목차
- 1부. 적대적 머신러닝의 개요
- 1장. 소개
- 1.1 동기
- 1.2 원칙에 입각한 시큐어 학습
- 1.3 시큐어 학습과 관련된 연구 동향
- 1.4 개요
- 2장. 배경 및 표기법
- 2.1 기본 표기법
- 2.2 통계적 머신러닝
- 2.2.1 데이터
- 2.2.2 가설공간
- 2.2.3 학습 모델
- 2.2.4 지도 학습
- 2.2.5 다른 학습 패러다임
- 3장. 시큐어 학습을 위한 프레임워크
- 3.1 학습 단계 분석
- 3.2 보안 분석
- 3.2.1 보안 목표
- 3.2.2 위협 모델
- 3.2.3 보안에서 머신러닝 응용프로그램에 관한 설명
- 3.3 프레임워크
- 3.3.1 분류 체계
- 3.3.2 적대적 학습 게임
- 3.3.3 적대적 능력의 특징
- 3.3.4 공격
- 3.3.5 방어
- 3.4 탐색적 공격
- 3.4.1 탐색적 게임
- 3.4.2 탐색적 무결성 공격
- 3.4.3 탐색적 가용성 공격
- 3.4.4 탐색적 공격에 대한 방어
- 3.5 인과적 공격
- 3.5.1 인과적 게임
- 3.5.2 인과적 무결성 공격
- 3.5.3 인과적 가용성 공격
- 3.5.4 인과적 공격에 대한 방어
- 3.6 반복 학습 게임
- 3.6.1 보안에서의 반복 학습 게임
- 3.7 프라이버시 보호 학습
- 3.7.1 차등 프라이버시
- 3.7.2 탐색적, 인과적 프라이버시 공격
- 3.7.3 임의성을 무시한 유용성
- 2부. 머신러닝에 관한 인과적 공격
- 4장. 초구 학습기를 대상으로 하는 공격
- 4.1 초구 탐지기에 대한 인과적 공격
- 4.1.1 학습 가정
- 4.1.2 공격 가정
- 4.1.3 해석적 방법론
- 4.2 초구 공격 설명
- 4.2.1 중심 이동
- 4.2.2 공격의 형식적 표현
- 4.2.3 공격 수열의 특징
- 4.3 최적 무제한 공격
- 4.3.1 최적 무제한 공격: 블록 쌓기
- 4.4 공격에 시간 제약 조건 추가
- 4.4.1 가변 질량의 블록 쌓기
- 4.4.2 대안 공식
- 4.4.3 최적 완화 해
- 4.5 데이터 치환 재교육을 대상으로 하는 공격
- 4.5.1 평균제거 치환과 임의제거 치환 정책
- 4.5.2 최근접제거 치환 정책
- 4.6 제한된 공격자
- 4.6.1 탐욕 최적 공격
- 4.6.2 혼합 데이터 공격
- 4.6.3 확장
- 4.7 요약
- 5장. 가용성 공격 사례 연구: 스팸베이즈
- 5.1 스팸베이즈 스팸 필터
- 5.1.1 스팸베이즈 훈련 알고리즘
- 5.1.2 스팸베이즈 예측
- 5.1.3 스팸베이즈 모델
- 5.2 스팸베이즈의 위협 모델
- 5.2.1 공격자의 목표
- 5.2.2 공격자의 지식
- 5.2.3 훈련 모델
- 5.2.4 오염 가정
- 5.3 스팸베이즈 학습기에 대한 인과적 공격
- 5.3.1 인과적 가용성 공격
- 5.3.2 인과적 무결성 공격-유사 스팸
- 5.4 부정적인 영향 거부(RONI) 방어
- 5.5 스팸베이즈 실험
- 5.5.1 실험 방법
- 5.5.2 사전 공격 결과
- 5.5.3 집중 공격 결과
- 5.5.4 유사 스팸 공격 실험
- 5.5.5 부정적인 영향 거부 결과
- 5.6 요약
- 6장. 무결성 공격 사례 연구: PCA 탐지기
- 6.1 이상 트래픽 탐지를 위한 PCA 방법
- 6.1.1 트래픽 행렬과 용량 이상
- 6.1.2 이상 탐지를 위한 부분공간 방법
- 6.2 PCA 부분공간의 오염
- 6.2.1 위협 모델
- 6.2.2 정보 없이 쭉정이 선택
- 6.2.3 국소 정보 쭉정이 선택
- 6.2.4 전역 정보 쭉정이 선택
- 6.2.5 개구리 삶기 공격
- 6.3 오염에 복원력이 있는 탐지기
- 6.3.1 직감
- 6.3.2 PCA-격자
- 6.3.3 강건한 라플라스 한계점
- 6.4 경험적 평가
- 6.4.1 설정
- 6.4.2 취약한 흐름 식별
- 6.4.3 공격 평가
- 6.4.4 해독제 평가
- 6.4.5 개구리 삶기 중독 공격의 경험적 평가
- 6.5 요약
- 3부. 머신러닝에 대한 탐색적 공격
- 7장. SVM 학습의 프라이버시 보호 메커니즘
- 7.1 프라이버시 침해 사례 연구
- 7.1.1 매사추세츠주 공무원 건강 기록
- 7.1.2 AOL 검색 질의 로그
- 7.1.3 넷플릭스 영화 평가 데이터 예측 대회
- 7.1.4 가명 기반의 트위터의 탈익명화
- 7.1.5 전장유전체연관분석
- 7.1.6 마이크로타기팅 광고
- 7.1.7 교훈
- 7.2 문제 설정: 프라이버시 보호 학습
- 7.2.1 차등 프라이버시
- 7.2.2 유용성
- 7.2.3 차등 프라이버시의 역사적 연구 방향
- 7.3 SVM: 간략한 소개
- 7.3.1 평행변환 -불변 커널
- 7.3.2 알고리즘 안전성
- 7.4 출력 섭동에 의한 차등 프라이버시
- 7.5 목표 섭동에 의한 차등 프라이버시
- 7.6 유한차원 특성공간
- 7.7 최적 차등 프라이버시에 대한 경계
- 7.7.1 상계
- 7.7.2 하계
- 7.8 요약
- 8장. 분류기의 근사-최적 회피
- 8.1 근사 -최적 회피 특징
- 8.1.1 적대적 비용
- 8.1.2 근사 -최적 회피
- 8.1.3 탐색 용어
- 8.1.4 승법 최적성 대 가법 최적성
- 8.1.5 볼록 -유도 분류기 모임
- 8.2 비용에 대한 볼록 클래스의 회피
- 8.3 일반 lp 비용에 대한 회피
- 8.3.1 볼록 양의 집합
- 8.3.2 볼록 음의 집합
- 8.4 요약
- 8.4.1 근사 -최적 회피에 관한 미해결 문제
- 8.4.2 대안 회피 기준
- 8.4.3 실제 회피
- 4부 적대적 머신러닝의 연구 방향
- 9장. 적대적 머신러닝의 도전 과제
- 9.1 토론과 미해결 문제
- 9.1.1 적대적 게임의 미개척 구성 요소
- 9.1.2 방어 기술 개발
- 9.2 미해결 문제 검토
- 9.3 끝맺는 말
- 부록
- 부록 A. 학습과 초기하학의 배경
- A.1 일반적인 배경 주제 개요
- A.2 초구 덮개
- A.3 초입방체 덮개
- 부록 B. 초구 공격에 대한 전체 증명
- B.1 정리 4.7의 증명
- B.2 정리 4.14의 증명
- B.3 정리 4.15의 증명
- B.4 정리 4.16의 증명
- B.5 정리 4.18의 증명
- 부록 C. 스팸베이즈 분석
- C.1 스팸베이즈의 I(•) 메시지 점수
- C.2 스팸베이즈에 대한 최적 공격 구성
- 부록 D. 근사-최적 회피에 대한 전체 증명