앞서 LLM의 작동 원리 기반 잠재 위협과 그 영향도를 살펴보았습니다. 이제 가장 흔하게 접할 수 있으며 직접적인 위협이 될 수 있는 '프롬프트 인젝션' 공격을 간단히 시뮬레이션하고, 이를 방어하기 위한 기초적인 코드 기법을 실습해 봅니다. 이 프로젝트는 프롬프트 인젝션의 기본 메커니즘을 이해하고, 코드 레벨에서 어떻게 접근할 수 있는지 감을 잡는 데 목적이 있습니다. 목표:간단한 시나리오에서 프롬프트 인젝션 공격을 재현합니다. LLM 응답을 분석하여 공격 성공 여부를 판단하는 기초적인 방어 코드를 작성합니다. 사전 준비:Python 3 환경 LLM API 접근 권한 (예: OpenAI API 키, Anthropic API 키 등) 또는 로컬에서 구동 가능한 소형 LLM (이 예제에서는 API 사용을 가..