[SK쉴더스] LLM 애플리케이션 취약점 진단 가이드※ 최근 몇 년간 AI 시스템은 급격한 발전을 이루며 딥러닝 알고리즘의 개선, 컴퓨팅 파워의 증가, 데이터 접근성의 향상 등으로 인해 많은 기술적 진보가 이루어졌다. 이에 따라 AI 기술은 의료, 금융, 제조, 교육 등 다양한 산업 분야에 적용되어 여러 문제를 해결하고 새로운 기회를 창출하고 있다. 특히, 대규모 언어 모델(LLM)은 자연어 처리 분야에서 획기적인 성과를 보여 주고 있으며, GPT와 같은 모델은 고객 서비스 자동화, 콘텐츠 생성, 번역 등 다양한 애플리케이션에 성공적으로 적용되고 있다. ['LLM Application 취약점 진단 가이드' 문서 발취] 😅 출처 : SK쉴더스 홈페이지파일 다운로드 : LLM Application 취약점..
英 NCSC · 美 CISA와 「안전한 AI 시스템 개발 가이드라인」 - 영문※ 국정원, 英 NCSC · 美 CISA 등 합동으로 「안전한 AI 시스템 개발 가이드라인」 발표※ 전세계 안전한 AI 시스템 개발 지원 및 중요성 전파, 국가 사이버안보역량 제고 및 국제 사이버안보 기관들과의 협력 강화 기대★★ 출처 : NCSC 출처 : Guidelines for secure AI system development.pdf
[Adobe] 생성형 AI 사용자 가이드라인※ Adobe 생성형 AI 사용자 가이드라인 입니다.★★ 출처 : Adobe최종 업데이트일: 2024년 5월 10일이 생성형 AI 사용자 가이드라인(“가이드라인”)은 Adobe의 생성형 AI 기능 이용에 적용됩니다. 또한 Adobe와의 계약이 adobe.com/go/terms_kr에서 확인할 수 있는 일반 사용 약관의 적용을 받는 경우, 이러한 생성형 AI 기능의 사용도 adobe.com/go/adobe-gen-ai-addl-terms_kr에서 확인할 수 있는 Adobe 생성형 AI 제품 특정 약관의 적용을 받으며, 이 약관은 이 가이드라인에 참조로 포함됩니다.이 가이드라인의 목표는 두 가지입니다. Adobe의 제품 및 서비스 세트를 사용하여 생성된 크리에이티브..
[디지털플랫폼정부위원회] 공공부문 초거대 AI 도입·활용을 위한 가이드라인※ 중앙부처, 지방자치단체, 공공기관이 초거대 AI를 효과적으로 도입·활용할 수 있도록, 공공부문 초거대 AI 서비스의 유형별 다양한 활용사례 등을 담은 「공공부문 초거대 AI 도입‧활용 가이드라인」입니다.★★ 출처 : 디지털플랫폼정부위원회, NIA 한국정보지능사진흥원 출처 : [디지털플랫폼정부위원회] 공공부문_초거대_AI_도입・활용_가이드라인(24.4월).pdf
[금융보안원] 금융분야 AI 보안 가이드라인※ 금융위원회는 지난 2022년 8월, 금융권의 인공지능(Artificial Intelligence, AI) 활용을 지원하기 위해 「금융분야 인공지능 활용 활성화 및 신뢰확보 방안」을 발표하였다. 해당 방안의 후속조치로 신뢰받는 인공지능 활용 환경을 구축하기 위해 「AI 기반 신용평가모형 검증체계」와 「금융분야 AI 보안 가이드라인」을 마련했다.★★ 출처 : 금융보안원에서 작성 [금융보안원] 금융분야 AI 보안 가이드라인 출처 : 금융보안원파일 다운로드 : [금융보안원] 금융분야 AI보안 가이드라인 230417 (보도자료) AI 기반 신용평가모형 및 금융분야 AI 보안 가이드라인 마련.pdf
[ChatGPT] 생성형 AI 활용 보안 가이드라인 ※ 챗GPT 생성형 AI를 통한 보안 강화! 국가정보원이 안내하는 2023년도 보안 가이드라인을 확인하세요. 데이터 보호와 사이버 안전을 위한 필수 조치! ※ 챗GPT 등 생성형 AI 활용 보안 가이드라인을 작성한 국가정보원, NSR 기관의 감사를 드립니다. ★★ 출처 : 국가정보원, NSR 국가보안기술연구서에서 작성 챗GPT 등 생성형 AI 활용 보안 가이드라인 목차 1. 개요 2. 생성형 인공지능 기술의 대표적인 보안 위협 3. 안전한 생성형 인공지능 기술 사용 가이드라인 4. 생성형 인공지능 기반 정보화사업 구축 방안 및 보안 대책 5. 부록 챗GPT 등 생성형 AI 활용 보안수칙 출처 : 국가정보원, NSR 국가보안기술연구서에서 작성 #ChatG..