Context Lab

  • 홈
  • 태그
  • 방명록

2025/10/31 1

1.2.2 대응 방법에 따라하기 프로젝트 1: 간단한 프롬프트 인젝션 공격 시뮬레이션 및 방어 코드 작성해보기

앞서 LLM의 작동 원리 기반 잠재 위협과 그 영향도를 살펴보았습니다. 이제 가장 흔하게 접할 수 있으며 직접적인 위협이 될 수 있는 '프롬프트 인젝션' 공격을 간단히 시뮬레이션하고, 이를 방어하기 위한 기초적인 코드 기법을 실습해 봅니다. 이 프로젝트는 프롬프트 인젝션의 기본 메커니즘을 이해하고, 코드 레벨에서 어떻게 접근할 수 있는지 감을 잡는 데 목적이 있습니다. 목표:간단한 시나리오에서 프롬프트 인젝션 공격을 재현합니다. LLM 응답을 분석하여 공격 성공 여부를 판단하는 기초적인 방어 코드를 작성합니다. 사전 준비:Python 3 환경 LLM API 접근 권한 (예: OpenAI API 키, Anthropic API 키 등) 또는 로컬에서 구동 가능한 소형 LLM (이 예제에서는 API 사용을 가..

Track 1. Trustworthy AI/AI Security 2025.10.31
이전
1
다음
더보기
프로필사진

Context Lab

"신뢰할 수 있는 AI(Trustworthy AI)를 위한 아키텍처와 컨텍스트 엔지니어링을 연구합니다." (Engineering Architecture for Trustworthy AI & Context Integrity)

  • 분류 전체보기 (27) N
    • About Lab (1) N
      • Mission & Vision (1) N
      • Director Profile (1) N
    • Track 1. Trustworthy AI (0)
      • AI Security (6)
      • Context Engineering (0)
    • Track 2. AI Infrastructure (0)
      • Financial AI Arch (17)
      • AI Platform (1)
      • AI Orchestrator (0)
      • Enterprise MSA (0)
    • Track 3. Next Interface (UX.. (0)
      • Generative UI (0)
    • Open Source (0)

Tag

멀티 클러스터, CMP, AI, service mesh, 아키텍처, agentic, 설계, 금융,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/10   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바