반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- evaluating object hallucination in large vision-language models
- evaluating object hallucination in large vision-language models 논문
- 원격 학습 안끊기게
- 기계학습
- 이미지 필터링
- dinov2: learning robust visual features without supervision 논문
- evaluating object hallucination in large vision-language models paper
- 엔트로피란
- 에지 검출
- 논문 요약
- dinov2: learning robust visual features without supervision
- mobilenetv1
- polling-based object probing evaluation
- object detection
- dinov2 논문 리뷰
- blip-2
- 논문 리뷰
- clip adapter
- vlm hallucination
- clip
- vlm
- 딥러닝 엔트로피
- 딥러닝 목적함수
- vlm hallucination paper
- vlm 환각
- 객체 검출
- 1차 미분 마스크
- dinov2: learning robust visual features without supervision 논문 리뷰
- Object detection article
- vlm 환각이란
Archives
- Today
- Total
목록vlm evaluation metric (1)
My Vision, Computer Vision

Evaluation Metrics for VLM BenchmarkVLM 벤치마크에서 자주 사용되는 평가 지표 5가지에 대해 알아보자.BLEU, METEOR, ROUGE, CIDEr, SPICE먼저 BLEU와 METEOR는 기계 번역(Machine Translation, MT)의 성능을 측정하기 위해 고안된 지표이다.ROUGE는 4가지 버전이 있고, 요약(Summary) 성능을 측정하기 위해 고안된 지표이다.CIDEr, SPICE는 이미지 캡셔닝 모델의 평가 지표로, 직접적으로 Vision-Langauge를 타겟팅한 메트릭이다.Candidation, Reference란?위 평가 지표들은 모두 모델의 성능을 측정하기 위해 만들어진 지표이다.따라서 모델이 출력한 답과 실제 정답을 비교하는 과정이 필요한데, 모..
공부
2025. 2. 28. 15:22