목록분류 전체보기 (133)
토니의 연습장
문제 7 3 8 8 1 0 2 7 4 44 5 2 6 5위 그림은 크기가 5인 정수 삼각형의 한 모습이다.맨 위층 7부터 시작해서 아래에 있는 수 중 하나를 선택하여 아래층으로 내려올 때, 이제까지 선택된 수의 합이 최대가 되는 경로를 구하는 프로그램을 작성하라. 아래층에 있는 수는 현재 층에서 선택된 수의 대각선 왼쪽 또는 대각선 오른쪽에 있는 것 중에서만 선택할 수 있다.삼각형의 크기는 1 이상 500 이하이다. 삼각형을 이루고 있는 각 수는 모두 정수이며, 범위는 0 이상 9999 이하이다.입력첫째 줄에 삼각형의 크기 n(1 ≤ n ≤ 500)이 주어지고, 둘째 줄부터 n+1번째 줄까지 정수 삼각형이 주어진다. 출력첫째 줄에 합이 최대..
문제수열 A가 주어졌을 때, 가장 긴 증가하는 부분 수열을 구하는 프로그램을 작성하시오.예를 들어, 수열 A = {10, 20, 10, 30, 20, 50} 인 경우에 가장 긴 증가하는 부분 수열은 A = {10, 20, 10, 30, 20, 50} 이고, 길이는 4이다.입력첫째 줄에 수열 A의 크기 N (1 ≤ N ≤ 1,000)이 주어진다.둘째 줄에는 수열 A를 이루고 있는 Ai가 주어진다. (1 ≤ Ai ≤ 1,000)출력첫째 줄에 수열 A의 가장 긴 증가하는 부분 수열의 길이를 출력한다. 아래에서는 가장 긴 증가하는 부분 수열(LIS; Longest Increasing Subsequence)을 구하는 전형적인 동적 프로그래밍(DP) 풀이 방법(O(N^2) 접근)과 그 과정에 대해 상세히 설명하고..
https://changelog.langchain.com/announcements/manage-private-prompts-without-a-handle 💬 Manage private prompts without a handleWe’ve improved our SDK and LangSmith Prompts UI to make navigating prompts simpler. Now, only public prompts require a handle on creation. New accounts won’t...changelog.langchain.com 위에 따르면, SDK와 LangSmith Prompts UI를 개선하여 프롬프트 탐색을 더욱 간편하게 만들었습니다. 이제 공개(Public) 프롬프트를 생..
[ nvcc --version과 nvidia-smi 버전이 다른 이유 ]- CUDA는 2개의 API를 가지고 있는데, 하나는 runtime API 이고 다른 하나는 driver API 입니다.- driver API는 GPU driver 설치파일에 의해 설치되고, (nvidia-smi로 보여주는 버전 정보) -> "CUDA 버전이 뭔가요?"- runtime API는 GPU toolkit 설치파일에 의해 설치 됩니다. (nvcc로 보여주는 버전 정보) -> "cuda-toolkit 버전이 뭔가요?" nvidia-smi로 보여주는 드라이버 옆의 CUDA vesion은 해당 드라이버로 호환되는 가장 최신 CUDA 요구 조건입니다.따라서, nvcc --version이 해당 CUDA version 보다 같거나 낮기..
로컬 환경 구성시 sentence-transformers 사용 중에 에러 발생 경우 관련하여 확인된 원활한 동작 호환 버전입니다. !pip uninstall transformers sentence-transformers torch -y!pip install transformers==4.46.2 sentence-transformers==3.3.0 torch==2.5.0 [ 정상 동작 결과 ] !pip show transformers!pip show sentence-transformers!pip show torch huggingface/tokenizers: The current process just got forked, after parallelism has already been used. Disabli..
class CastOutputToFloat(nn.Sequential): def forward(self, x): return super().forward(x).to(torch.float32)model.lm_head = CastOutputToFloat(model.lm_head) 모델의 출력이 32비트 정밀도로 반환되도록 하기 위해 CastOutputToFloat 클래스를 정의하고, lm_head의 출력을 32비트로 변환하여 안정적인 출력이 가능하도록 합니다.이 코드를 통해 모델은 메모리 사용량을 최소화하면서 8비트 정밀도로 로드되고, 파라미터를 동결하여 일부 파라미터만 훈련이 가능하도록 설정되었습니다.위 코드에서 super().forward(x) 호출의 이유는 CastOutputToFloat 클래스가 ..
📌 Fine-tuning과 Instruction-tuning의 차이점Fine-tuning과 Instruction-tuning은 모두 사전 훈련된(pre-trained) 모델의 성능과 용도를 개선하는 방법입니다. 그러나 두 접근법은 개념과 목적, 그리고 적용 방식이 다소 다릅니다.🔹 1. Fine-tuning (파인튜닝)📌 정의Fine-tuning이란 사전 훈련된 모델을 특정 작업(task)이나 특정 데이터셋에 맞게 추가 훈련시키는 과정입니다. 일반적으로 거대 모델(예: GPT, BERT, RoBERTa 등)을 기반으로, 특정 목적(분류, 생성, 번역 등)에 맞게 조정하는 방식입니다.📌 목적범용으로 훈련된 모델을 **특정 도메인(예: 법률, 의학, 금융 등)**의 데이터를 사용하여 성능을 높이는 것..
# fine tuningresponse = client.fine_tuning.jobs.create( training_file = 'file-i8JJ5gqOJQGj1htWLdJLPydv', model="gpt-3.5-turbo")print(response) OpenAI의 파인 튜닝(Fine-tuning) 대시보드 화면으로, gpt-3.5-turbo 모델을 기반으로 한 파인 튜닝 작업의 결과를 보여줍니다. 여기서 중요한 정보들을 설명하겠습니다.주요 정보모델 정보Base model: gpt-3.5-turbo-0125라는 기본 모델을 사용하여 파인 튜닝이 수행되었습니다.Output model: 파인 튜닝된 모델의 이름이 ft:gpt-3.5-turbo-0125:personal::ASyCDd5로 나타납니다.상태..
