반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- polling-based object probing evaluation
- 원격 학습 안끊기게
- vlm
- vlm hallucination paper
- dinov2: learning robust visual features without supervision
- evaluating object hallucination in large vision-language models
- evaluating object hallucination in large vision-language models 논문
- 엔트로피란
- vlm hallucination
- object detection
- vlm 환각
- mobilenetv1
- evaluating object hallucination in large vision-language models paper
- 객체 검출
- 기계학습
- clip
- vlm 환각이란
- 딥러닝 엔트로피
- dinov2 논문 리뷰
- blip-2
- 에지 검출
- dinov2: learning robust visual features without supervision 논문 리뷰
- 1차 미분 마스크
- 딥러닝 목적함수
- Object detection article
- clip adapter
- 이미지 필터링
- dinov2: learning robust visual features without supervision 논문
- 논문 리뷰
- 논문 요약
Archives
- Today
- Total
목록image captioning evaluation metric (1)
My Vision, Computer Vision

Evaluation Metrics for VLM BenchmarkVLM 벤치마크에서 자주 사용되는 평가 지표 5가지에 대해 알아보자.BLEU, METEOR, ROUGE, CIDEr, SPICE먼저 BLEU와 METEOR는 기계 번역(Machine Translation, MT)의 성능을 측정하기 위해 고안된 지표이다.ROUGE는 4가지 버전이 있고, 요약(Summary) 성능을 측정하기 위해 고안된 지표이다.CIDEr, SPICE는 이미지 캡셔닝 모델의 평가 지표로, 직접적으로 Vision-Langauge를 타겟팅한 메트릭이다.Candidation, Reference란?위 평가 지표들은 모두 모델의 성능을 측정하기 위해 만들어진 지표이다.따라서 모델이 출력한 답과 실제 정답을 비교하는 과정이 필요한데, 모..
공부
2025. 2. 28. 15:22