GPU 전자기파 분석해 AI 설계도 추정…최대 97.6% 정확도
소형 안테나로 원거리 공격 가능…물리적 보안 취약성 확인
대응 기술도 제시…자율주행·의료 등 AI 보안 강화 기대
스마트폰 얼굴 인식, 자율주행 등 다양한 분야에서 인공지능(AI)의 보안은 블랙박스로 보호돼 왔지만 국내 연구진인 벽 너머에서 AI 설계도를 훔쳐 볼 수 있는 새로운 보안 위협을 밝혀냈습니다. 대응 기술도 함께 내놨습니다.
KAIST 전산학부 한준 교수 연구팀이 싱가포르국립대, 저장대와 공동 연구를 통해 소형 안테나만으로 AI 모델 내부 구조를 탈취할 수 있는 공격 시스템 ‘모델스파이(ModelSpy)’를 개발했습니다.
이 기술은 인공지능이 연산을 수행할 때 발생하는 미세한 전자기 신호를 포착해 내부 구조를 마치 도청하 듯 역추적하는 방식입니다. 연구진은 인공지능 연산을 담당하는 그래픽처리장치(GPU)에서 발생하는 전자기파 패턴에 주목했습니다.
AI 연산 과정에서 생성되는 신호를 분석하면 모델의 층 구성과 주요 설정값을 유추할 수 있으며, 연구진은 이를 통해 사실상 '설계도'에 해당하는 구조를 복원할 수 있다는 설명입니다.
실험 결과 최신 GPU 5종을 대상으로 최대 6미터 거리, 벽 너머 환경에서도 모델 구조를 높은 정확도로 파악하는 데 성공했습니다. 딥러닝 핵심 구조인 레이어 추정 정확도는 97%를 넘었습니다.
이번 연구는 서버 침투나 악성코드 없이도 외부에서 정보를 탈취할 수 있다는 점에서 기존 해킹과 차별화됩니다. 장비 역시 가방에 넣을 수 있는 수준의 소형 안테나만으로 가능해 현실적으로 보안 위협이 크다는 평가입니다.
연구팀은 기술 악용 가능성을 고려해 대응 방안도 함께 제시했습니다. 전자기파를 교란하거나 연산 과정을 난독화하는 방식 등을 통해 정보 유출을 차단할 수 있다는 설명입니다.
한준 교수는 "AI 시스템이 물리적 환경에서도 공격에 노출될 수 있음을 확인한 사례"라며, "자율주행이나 국가 기반 시설 등 주요 인공지능 인프라를 보호하기 위한 통합 보안 체계 구축 필요성"을 강조했습니다.
이번 연구는 컴퓨터 보안 분야 국제 학술대회인 NDSS 2026에서 발표됐으며, 혁신성을 인정받아 최우수 논문상을 수상했습니다.
< copyright © tjb, 무단전재 및 재배포 금지 >
0 / 300
댓글이 없습니다.
첫번째 댓글을 남겨주세요.