반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- gres
- gres 논문
- 이미지 필터링
- 딥러닝 엔트로피
- gres 논문 리뷰
- clip adapter
- 에지 검출
- grefcoco dataset
- gres: generalized referring expression segmentation 논문 리뷰
- 1차 미분 마스크
- mobilenetv1
- gres: generalized referring expression segmentation 논문
- clip
- 딥러닝 목적함수
- object detection
- grefcoco
- 엔트로피란
- blip-2
- gres: generalized referring expression segmentation
- 논문 리뷰
- polling-based object probing evaluation
- 기계학습
- vlm hallucination paper
- 논문 요약
- vlm 환각이란
- Object detection article
- vlm
- 객체 검출
- 원격 학습 안끊기게
- referring expression segmentation
Archives
- Today
- Total
목록image captioning evaluation metric (1)
My Vision, Computer Vision

Evaluation Metrics for VLM BenchmarkVLM 벤치마크에서 자주 사용되는 평가 지표 5가지에 대해 알아보자.BLEU, METEOR, ROUGE, CIDEr, SPICE먼저 BLEU와 METEOR는 기계 번역(Machine Translation, MT)의 성능을 측정하기 위해 고안된 지표이다.ROUGE는 4가지 버전이 있고, 요약(Summary) 성능을 측정하기 위해 고안된 지표이다.CIDEr, SPICE는 이미지 캡셔닝 모델의 평가 지표로, 직접적으로 Vision-Langauge를 타겟팅한 메트릭이다.Candidation, Reference란?위 평가 지표들은 모두 모델의 성능을 측정하기 위해 만들어진 지표이다.따라서 모델이 출력한 답과 실제 정답을 비교하는 과정이 필요한데, 모..
공부
2025. 2. 28. 15:22