IT

tjb

"벽 너머서 'AI 설계도' 훔친다"…KAIST, 소형 안테나 하나면 가능

기사입력
2026-03-31 오전 11:02
최종수정
2026-03-31 오전 11:02
조회수
9
  • 폰트 확대
  • 폰트 축소
  • 기사 내용 프린트
  • 기사 공유하기
GPU 전자기파 분석해 AI 설계도 추정…최대 97.6% 정확도
소형 안테나로 원거리 공격 가능…물리적 보안 취약성 확인
대응 기술도 제시…자율주행·의료 등 AI 보안 강화 기대

스마트폰 얼굴 인식, 자율주행 등 다양한 분야에서 인공지능(AI)의 보안은 블랙박스로 보호돼 왔지만 국내 연구진인 벽 너머에서 AI 설계도를 훔쳐 볼 수 있는 새로운 보안 위협을 밝혀냈습니다. 대응 기술도 함께 내놨습니다.

KAIST 전산학부 한준 교수 연구팀이 싱가포르국립대, 저장대와 공동 연구를 통해 소형 안테나만으로 AI 모델 내부 구조를 탈취할 수 있는 공격 시스템 ‘모델스파이(ModelSpy)’를 개발했습니다.

이 기술은 인공지능이 연산을 수행할 때 발생하는 미세한 전자기 신호를 포착해 내부 구조를 마치 도청하 듯 역추적하는 방식입니다. 연구진은 인공지능 연산을 담당하는 그래픽처리장치(GPU)에서 발생하는 전자기파 패턴에 주목했습니다.

AI 연산 과정에서 생성되는 신호를 분석하면 모델의 층 구성과 주요 설정값을 유추할 수 있으며, 연구진은 이를 통해 사실상 '설계도'에 해당하는 구조를 복원할 수 있다는 설명입니다.

실험 결과 최신 GPU 5종을 대상으로 최대 6미터 거리, 벽 너머 환경에서도 모델 구조를 높은 정확도로 파악하는 데 성공했습니다. 딥러닝 핵심 구조인 레이어 추정 정확도는 97%를 넘었습니다.

이번 연구는 서버 침투나 악성코드 없이도 외부에서 정보를 탈취할 수 있다는 점에서 기존 해킹과 차별화됩니다. 장비 역시 가방에 넣을 수 있는 수준의 소형 안테나만으로 가능해 현실적으로 보안 위협이 크다는 평가입니다.

연구팀은 기술 악용 가능성을 고려해 대응 방안도 함께 제시했습니다. 전자기파를 교란하거나 연산 과정을 난독화하는 방식 등을 통해 정보 유출을 차단할 수 있다는 설명입니다.

한준 교수는 "AI 시스템이 물리적 환경에서도 공격에 노출될 수 있음을 확인한 사례"라며, "자율주행이나 국가 기반 시설 등 주요 인공지능 인프라를 보호하기 위한 통합 보안 체계 구축 필요성"을 강조했습니다.

이번 연구는 컴퓨터 보안 분야 국제 학술대회인 NDSS 2026에서 발표됐으며, 혁신성을 인정받아 최우수 논문상을 수상했습니다.
  • 0

  • 0

댓글 (0)
댓글 서비스는 로그인 이후 사용가능합니다.
  • 0 / 300

  • 취소 댓글등록
    • 최신순
    • 공감순

    댓글이 없습니다.

    첫번째 댓글을 남겨주세요.

    신고팝업 닫기

    신고사유

    • 취소

    행사/축제

    이벤트 페이지 이동

    서울특별시

    날씨
    2021.01.11 (월) -14.5
    • 날씨 -16
    • 날씨 -16
    • 날씨 -16
    • 날씨 -16

    언론사 바로가기

    언론사별 인기뉴스