| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 | 31 |
- clip
- 딥러닝 목적함수
- res
- 1차 미분 마스크
- mobilenetv1
- 딥러닝 엔트로피
- gsoc가 뭔가요
- google summer of code
- 에지 검출
- 논문 요약
- gsoc
- gres
- Object detection article
- gsoc 지원
- gsoc 2025
- res paper
- clip adapter
- object detection
- 엔트로피란
- gsoc 후기
- 원격 학습 안끊기게
- vlm
- 객체 검출
- blip-2
- 이미지 필터링
- 논문 리뷰
- 기계학습
- grefcoco
- grefcoco dataset
- referring expression segmentation
- Today
- Total
목록전체 글 (85)
My Vision, Computer Vision
SPICE: Semantic Propositional Image Caption EvaluationThere is considerable interest in the task of automatically generating image captions. However, evaluation is challenging. Existing automatic evaluation metrics are primarily sensitive to n-gram overlap, which is neither necessary nor sufficient for the taarxiv.orgJournal : ECCV 2016Published Date : 2016년 9월 16일keyword : Evaluation Metric, SP..
CIDEr: Consensus-based Image Description EvaluationJournal : CVPR 2015Published Date : 2014년 11월 20일Keyword : CIDEr score, Evaluation Metric, Microsoft CIDEr: Consensus-based Image Description EvaluationAutomatically describing an image with a sentence is a long-standing challenge in computer vision and natural language processing. Due to recent progress in object detection, attribute classifica..
ROUGE: A Package for Automatic Evaluation of SummariesPublished Date: 2004년 7월 1일 ROUGE: A Package for Automatic Evaluation of SummariesChin-Yew Lin. Text Summarization Branches Out. 2004.aclanthology.orgAbstractROUGE는 기계 요약 성능을 측정하기 위해 만들어진 평가 지표이다.ROUGE는 Recall-Oriented Understudy for Gisting Evaluation의 약자이다.기계가 요약한 내용과 인간이 요약한(이상적인) 내용의 오버래핑을 카운트하는 평가 지표이다.Methods본 논문에서 제안하는 ROUGE는 4가지로, ROU..
METEOR 논문 링크 : https://aclanthology.org/W05-0909.pdf Published Date : 2005년 6월 1일Keyword : Evaluation Metric, METEOR score BLEU의 한계를 설명하며 그 부분을 보완한 평가 지표인 METEOR를 제안하는 논문이다.ProblemBLEU가 제안된 후 기계 번역에서 Automatic Metric에 대한 관심이 증가하고 있다.기계번역(Machine Translation, MT)에서 자동화된 메트릭의 주요 핵심은 사람이 평가하는 것과 밀접한 상관 관계가 있어야 한다는 것이다.하지만 BLEU score는 Recall을 고려하지 않는다.또한 높은 차수(~4)의 N-gram을 사용해서 단어의 순서에 대한 평가를 하는데, 이..
BLEU | Proceedings of the 40th Annual Meeting on Association for Computational LinguisticsWe present the results of an experiment on extending the automatic method of Machine Translation evaluation BLUE with statistical weights for lexical items, such as tf.idf scores. We show that this extension gives additional information about evaluated ...dl.acm.org Published Date : 2002년 7월 1일keyword : BLE..
Learning to Prompt for Vision-Language ModelsLarge pre-trained vision-language models like CLIP have shown great potential in learning representations that are transferable across a wide range of downstream tasks. Different from the traditional representation learning that is based mostly on discretiarxiv.org발행일 : 2021년 9월 2일저널/학회 : SPRINGER 2022ProblemCLIP과 같은 기존 VLM은 프롬프트 엔지니어링을 통한 Zero-shot t..