
M&S 기반 위협모델링을 활용한 LLM(DeepSeek, GeDAI, ChatGPT)의 해킹 위협과 사이버 보안 연구
Ⓒ 2025 Korea Society for Naval Science & Technology
초록
대규모 언어 모델(LLM)은 자연어 처리 기술의 발전을 선도하고 있지만, 동시에 프롬프트 인젝션, 데이터 유출, 적대적 예시 공격과 같은 보안 위협을 초래하고 있다. DeepSeek, GeDAI, ChatGPT를 대상으로 해킹 취약점을 분석하고, 각 모델이 직면한 보안 위협과 이를 방어하기 위한 기술적 대응책을 제시한다. 특히, GeDAI는 2025년 자유의 방패(FS) 연합연습에서 군사 작전 지원을 위해 시범 운용될 예정이며, 군사적 활용 가능성과 보안 강화를 위한 추가적인 연구가 필요하다. 본 연구는 M&S 기반 시뮬레이션 환경에서 Microsoft사의 STRIDE 위협 모델링 기법을 적용하여 LLM의 잠재적 위협을 식별하고, 이를 바탕으로 보안 코딩 및 시스템 설계 측면에서의 대응 방안을 도출함으로써 안전한 LLM 구축 방향성을 제시한다.
Abstract
Large Language Models (LLMs) are leading the advancement of natural language processing technology, but they also introduce security threats such as prompt injection, data leakage, and adversarial example attacks. This study analyzes hacking vulnerabilities in DeepSeek, GeDAI, and ChatGPT, identifying the security risks each model faces and proposing technical countermeasures. Notably, GeDAI is scheduled for pilot operation during the 2025 Freedom Shield (FS) joint military exercise to support military operations, highlighting the need for further research on its military applicability and security enhancement. This research applies Microsoft’s STRIDE threat modeling within an M&S-based simulation environment to identify potential risks in LLMs and presents secure coding practices and system design strategies to guide the development of safer LLMs.
Keywords:
DeepSeek, GeDAI, ChatGPT, Hacking, M&S(Modeling and Simulation)키워드:
딥시크, 제다이, 챗지피티, 해킹Acknowledgments
이 논문은 2025년도 한국해군과학기술학회 하계학술대회 발표 논문임
References
- Sippo Rossi, Alisia M. Michel, Raghava R. Mukkamala and Jason B. Thatcher, “An Early Categorization of Prompt Injection Attacks on Large Language Models,” arXiv, 2024.
-
Faqian Guan et al., “Large Language Models for Link Stealing Attacks Against Graph Neural Networks,” arXiv, 2024.
[https://doi.org/10.1109/TBDATA.2024.3489427]
-
Nicholas Carlini, David Wagner, “Adversarial Examples Are Not Easily Detected: Bypassing Ten Detection Methods,” arXiv, 2017.
[https://doi.org/10.1145/3128572.3140444]
- Defense Daily, “Military Self-Development Generating AI Battlefield Utilization Verification” 2. 24. 2025. [Online]. Available : https://kookbang.dema.mil.kr/newsWeb/20250225/9/ATCE_CTGR_0010010000/view.do
- Qiheng Mao, Ziqi Zhang, Yisen Wang, “Towards Explainable Vulnerability Detection with Large Language Models,” arXiv, 2024.
- IBM, “Data Addiction Risks for AI,” 2025.
-
Joo Ra-hel, Choi Ye-rin, Song Ji-hoon, and Yoo Myung-hyun, “The Potential Impact of ChatGPT on Education and Academic Research: A Review of Domestic and Foreign Research Trends,” Journal of Educational Technology Research, Vol. 39, No. 4, 2023, pp. 1401-1447.
[https://doi.org/10.17232/KSET.39.4.1401]