728x90
반응형
SMALL
YOLOv5 이어서 학습하기 --resume 사용
·
ML & DL
YOLOv5를 학습하다가 예기지 못하게 중간에 중단 현상이 나타났다.(사실 전적으로 본인의 잘못😭) 그래서 YOLOv5 학습 도중 중단되었을 때 학습을 이어나가는 방법을 정리하고자 한다.  YOLOv5 이어서 학습하기--resume을 사용하면 된다!  YOLO 처럼 유명한 모델은 대부분 weight를 기록하고 저장하는 코드가 굉장히 잘 짜여 있다. 그렇기 때문에 그런 모델을 사용할 경우에 우리는 있는 것을 잘 찾아서 사용하기만 하면 된다! 원래 다음과 같은 명령어를 실행해서 epoch는 100으로 설정하고  훈련시키고 있었다.python train.py --img 640 --batch 64 --epochs 100 --data data/data.yaml --cfg models/yolov5s.yaml --..
[RL] Actor-Critic 알고리즘 간단하게 개념 정리
·
ML & DL/RL
혁펜하임님의 "혁펜하임의 “트이는” 강화 학습" 을 바탕으로 정리한 글입니다. 강화학습은 에이전트가 환경과 상호 작용하며 보상을 최대화하는 방법을 학습하는 과정이다.Actor-Critic 알고리즘은 이러한 강화학습 기법 중 하나로, Policy 기반의 접근법을 활용하여 에이전트의 행동을 결정하고, 그 결과를 평가하는 Critic 모듈을 통해 성능을 개선한다. REINFORCE 알고리즘의 variance 문제를 해결한 알고리즘이기도 하다.  (REINFORCE 알고리즘의 내용은 아래에 정리해두었으니 참고 바랍니다!https://seoy00.tistory.com/40?category=1174101) [RL] 강화학습 REINFORCE 알고리즘혁펜하임님의 "혁펜하임의 “트이는” 강화 학습" 을 바탕으로 기록한..
[YOLOv5] Custom Data Augmentation 하기 (roboflow)
·
ML & DL
object detection을 위한 데이터셋을 구축할 일이 있어서 찾아보다가 roboflow라는 사이트를 알게 되었다. vision task를 위한 여러 데이터셋이 이미 잘 구축되어 있고 라벨링도 본인이 원하는 방식에 맞게 다운받을 수 있어 알아두면 편할 것 같은 사이트이다!  다음 링크에 들어가면 많은 데이터셋 list가 나열되어 있다. https://public.roboflow.com/ Computer Vision DatasetsDownload free, open source datasets for computer vision machine learning models in a variety of formats.public.roboflow.com Data augmentation 하는 방법본론으로 들..
YOLOv5 이미지 라벨링을 위한 labelImg 쉬운 사용법
·
ML & DL
yolo를 훈련시키기 위해서는 먼저 이미지에 라벨링이 다 되어있어야 합니다.라벨링이 다 된 이미지를 구했다면 정말 다행이지만, 라벨링이 없는 이미지의 경우(예: 직접 수집한 이미지)에는 일일히 라벨링를 해줄 필요가 있습니다. YOLOv5 라벨링 형식yolo 라벨링 형식에 대해 간단히 언급하고 넘어가자면, 1.jpg라는 이미지가 있다면 이 이미지에 대한 라벨링 파일은 파일명은 똑같은 텍스트 파일로 1.txt이고 다음과 같이 구성되어 있습니다.0 0.329310 0.530864 0.527586 0.8098771 0.768103 0.577778 0.346552 0.651852 순서대로 class,center x, center y, width, height 를 나타냅니다.Class: 객체의 클래스 ID (정수)..
[RL] 강화학습 REINFORCE 알고리즘
·
ML & DL/RL
혁펜하임님의 "혁펜하임의 “트이는” 강화 학습" 을 바탕으로 기록한 내용입니다.  policy gradient을 식을 쭉 따라왔다면 REINFORCE 알고리즘을 이해하는 데에 큰 어려움은 없었다.  Gt를 이용해서 update를 진행하기 때문에 한 에피소드가 끝나야 업데이트가 가능하다는 특징이 있고, 이에 따라 unbiased하지만 variance가 커서 수렴하는데 시간이 오래 걸린다는 것이 핵심이다.  policy gradient에서 식 전개 과정이 궁금하시다면 아래 링크에서 정리된 내용을 확인하실 수 있습니다 :)강화학습 Policy Gradient 수식 전개 (tistory.com) 강화학습 Policy Gradient 수식 전개혁펜하임님의 "혁펜하임의 “트이는” 강화 학습" 을 바탕으로 기록한 내..
[RL] 강화학습 Policy Gradient 수식 전개
·
ML & DL/RL
혁펜하임님의 "혁펜하임의 “트이는” 강화 학습" 을 바탕으로 기록한 내용입니다.  아래 내용은 강의를 보고 policy gradient 내용을 수식으로 쭉 정리한 내용이다.
[RL] 강화학습 Policy-based 개념 간단 정리
·
ML & DL/RL
혁펜하임님의 "혁펜하임의 “트이는” 강화 학습" 을 바탕으로 정리한 글입니다.  policy-based 이전에는 value-based 개념이 있었는데, value-based에서는 state value function을 최대화하는 policy를 찾자는 내용이었다.  이를 위해서는 greedy action하는 것이 좋은 정책을 찾는데 좋은 방법이었지만, 또 너무 greedy한 action을 찾다보면 sub optimal에 빠지기 쉽게 때문에 exploration을 적절하게 실행하는 ε-greedy 방법을 주로 사용하였다. (예: DQN) 하지만, value-based 방법에는 몇 가지 한계가 존재한다. 연속적인 공간에서의 어려움 value-based 방법은 상태 공간이 이산적일 때 효과적이다. 하지만 상태 ..
CycleGAN 모델 파라미터 정리
·
ML & DL/GAN
어느 모델을 돌릴 때나 본인의 환경에 맞게 파라미터를 사용하는데 cyclegan도 마찬가지이다.보통은 유명한 모델일수록 model에 관련된 설명이 github에 잘 나와있기 때문에 cyclegan도 dataset 경로, 모델 돌릴 때의 tips, 파라미터 설명 등이 github에 아주 잘 올라와 있지만,cyclegan을 train/test 할 때 많이 사용하는 파라미터를 기록용으로 옮겨 적어두고자 한다.  각 옵션들은 base_options.py, train_options.py, test_options.py 에 나눠져 있다. base options--dataroot: 데이터셋 이미지 경로 지정. trainA, trainB, valA, valB 등의 하위 폴더가 있어야 함default 값: 없음 (requ..
728x90
반응형
LIST
성장중 •͈ᴗ•͈