본문 바로가기

분류 전체보기23

[Linux] 가상환경 별 서버 사용량 확인 1) Conda 환경 폴더의 용량 확인-s: 각 환경의 총 크기만 표시-h: 사람이 읽기 쉬운 형식으로 출력user 부분을 각 사용자 이름으로 바꾸면 됨 du -sh /home/user/anaconda3/envs/*  2) 용량을 크기 순으로 정렬가장 작은 환경부터 큰 환경 순으로 정렬하여 보여줌| tail -20: 추가하면 가장 많은 용량을 차지하는 환경을 찾을 수 있음du -sh /home/user/anaconda3/envs/* | sort -h  3) 전체 디스크 용량 및 남은 공간 확인df -h ~: 홈 디렉토리 내에서 용량을 확인하려면 '~' 추가df -h  4) Conda 환경 폴더가 위치한 디스크의 남은 공간 확인df -h /home/user/anaconda3/envs/ 2025. 2. 10.
[Linux] gpu 실시간 사용량 확인 기본적으로 gpu 사용량 확인은 아래와 같이 가능하다. 하지만 이는 조회하는 당시의 사용량만 확인이 가능하고, 다시 조회하려면 명령어를 다시 입력해야한다. nvidia-smi   실시간 사용량을 파악하기 위해서는 아래와 같은 명령어를 입력하면 0.5초마다 실시간으로 업데이트되며 확인이 가능하다. 초를 바꾸려면 숫자 부분만 수정하면 원하는 시간별로 조회가 가능하다. watch -d -n 0.5 nvidia-smi 2024. 12. 20.
LLM 탈옥(Jailbreaking)이란? 1. LLM 탈옥(Jailbreaking)이란?LLM(대규모 언어 모델)의 제약을 우회하는 방법개발자가 설정한 보안 정책, 윤리적 제한, 콘텐츠 필터링을 무력화하는 과정AI의 응답을 제한하는 제어(Control Mechanism)를 피하고, 원래 허용되지 않은 출력을 유도하는 기법생성형 AI 기술의 발전으로 AI 시스템의 안전성과 윤리적 책임이 중요해짐 2. AI Red Team이란?군사 전략에서 유래된 개념으로, AI 보안 테스트 및 취약점 탐색을 수행하는 역할AI 시스템의 공정성, 보안, 신뢰성을 점검하는 전문가 그룹다음과 같은 보안 위협을 탐지하고 방어 전략을 수립함Prompt Injection: 특정 입력을 통해 AI 모델을 조작하는 기법Poisoning: AI 학습 데이터에 악성 데이터를 주입하.. 2024. 12. 20.
[Paper Review] Prefix-Tuning: Optimizing Continuous Prompts for Generation 기존 파인튜닝의 모든 파라미터를 수정하고 각 태스크마다 카피본을 저장해야하는 문제를 해결하고자, 보다 가벼운 파인 튜닝 방법을 제안함. Prefix tuning을 사용하면 기존 모델 파라미터는 그대로 두고, 작은 연속적인 task-specific한 벡터만 최적화하면 됨. 파인튜닝에 비해 약 1000배 적은 파라미터만 업데이트하지만, 이와 상응하는 성능을 보임.AbstractFine-tuning은 대규모 사전학습 언어 모델을 하위 작업에 활용하는 사실상의 표준 방법으로, 이는  모든 언어 모델의 파라미터를 수정해야 하므로 각 작업마다 모델 전체 복사본을 저장해야 하는 단점이 존재함. 해당 논문에서는 이를 해결하고자 prefix-tuning이라는 대안적인 가벼운 접근법을 제안함.Prefix-tuning은 자.. 2024. 11. 27.