CVAT 사용해보기

2022. 1. 27. 01:48computervision/섹션 6. YOLO(You Only Look Once)

항상 만들어진 annotation label을 가지고 학습하다가 직접 annotation을 만들어 pretrained된 모델에 학습시켜보았다.

 

툴을 간단하게 소개하자면

 기본적으로 Add label을 통해서 원하는 label의 유형을 직접 설정할 수 있다.

 

 

 

 

 

 그 후 만들어진 label의 값을 선택해서 업로드한 이미지에 bbox의 영역을 선택해주면 된다.

 

기본적으로 500mb까지 업로드가 가능한데 업로드 속도가 느려 대량의 파일을 업로드하려면 local 환경에서 작업을 수행해야 한다.

 

 

 

 

CVAT이 좋은 점이

 이렇게 annotation 파일의 형식을 각 모델의 형식에 맞게 내보낼 수 있다는 점이다. 때문에 원하는 모델의 형식에 맞게 다운로드하면 귀찮은 데이터 형식 변환과정을 거치지 않고도 바로 학습이 가능하다.

 

 

 

 

 

 

 

 

 

실습 이미지는 권철민 강사님의 github을 이용하였다.

 

이후 이렇게 만들어진 annotation 파일을 이용하여 실습을 진행하면 된다.

미리 학습된 ultralytics yolo v3 pretrained 모델을 사용할 것 이기 때문에 비교적 간단하게 train,test,val 파일의 경로를 설정해주고 yolo 형식에 맞게끔 yaml 파일 설정 후 학습을 진행하면 끝이다.

!cd /content/yolov3; python train.py --img 640 --batch 8 --epochs 150 --data /content/incredibles/incredibles.yaml --weights yolov3.pt \
                                     --project=/mydrive/ultra_workdir --name incredibles --exist-ok
 

input_img size는 640*640, batch size 8, epochs 150으로 설정해주어 학습을 진행하였다.

학습 결과가 크게 의미있지는 않다. 성능을 보다 싶히 overfitting이 발생하였다. train 데이터 셋의 개수가 워낙 적어 validation 데이터 셋을 train으로 설정했기 때문이다.

 데이터의 양이 매우 적어서 유의미한 학습의 결과라고는 보기는 어렵지만 직접 annotation 파일을 만들어 실습을 진행했다는 것에 의미를 두면 될 것 같다.

'computervision > 섹션 6. YOLO(You Only Look Once)' 카테고리의 다른 글

Ultralytics Yolo 실습(Oxford pet dataset)  (0) 2022.01.25
OpenCV Darknet Yolo 실습  (0) 2022.01.21
YOLO(V3) 이해  (0) 2022.01.20
YOLO(V2) 이해  (0) 2022.01.20
YOLO(V1) 이해  (0) 2022.01.20