일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- res paper
- vlm
- gres
- 1차 미분 마스크
- Object detection article
- gsoc midterm evaluations
- grefcoco dataset
- 2호선 완주
- mobilenetv1
- referring expression segmentation
- 기계학습
- 원격 학습 안끊기게
- 객체 검출
- gsoc 2025
- clip adapter
- res
- grefcoco
- blip-2
- 대학원 일상
- 논문 리뷰
- 엔트로피란
- object detection
- 논문 요약
- gsoc 후기
- 딥러닝 목적함수
- 에지 검출
- 이미지 필터링
- 2호선 따라걷기
- clip
- 딥러닝 엔트로피
- Today
- Total
목록전체 글 (84)
My Vision, Computer Vision

CIDEr: Consensus-based Image Description EvaluationJournal : CVPR 2015Published Date : 2014년 11월 20일Keyword : CIDEr score, Evaluation Metric, Microsoft CIDEr: Consensus-based Image Description EvaluationAutomatically describing an image with a sentence is a long-standing challenge in computer vision and natural language processing. Due to recent progress in object detection, attribute classifica..
ROUGE: A Package for Automatic Evaluation of SummariesPublished Date: 2004년 7월 1일 ROUGE: A Package for Automatic Evaluation of SummariesChin-Yew Lin. Text Summarization Branches Out. 2004.aclanthology.orgAbstractROUGE는 기계 요약 성능을 측정하기 위해 만들어진 평가 지표이다.ROUGE는 Recall-Oriented Understudy for Gisting Evaluation의 약자이다.기계가 요약한 내용과 인간이 요약한(이상적인) 내용의 오버래핑을 카운트하는 평가 지표이다.Methods본 논문에서 제안하는 ROUGE는 4가지로, ROU..

METEOR 논문 링크 : https://aclanthology.org/W05-0909.pdf Published Date : 2005년 6월 1일Keyword : Evaluation Metric, METEOR score BLEU의 한계를 설명하며 그 부분을 보완한 평가 지표인 METEOR를 제안하는 논문이다.ProblemBLEU가 제안된 후 기계 번역에서 Automatic Metric에 대한 관심이 증가하고 있다.기계번역(Machine Translation, MT)에서 자동화된 메트릭의 주요 핵심은 사람이 평가하는 것과 밀접한 상관 관계가 있어야 한다는 것이다.하지만 BLEU score는 Recall을 고려하지 않는다.또한 높은 차수(~4)의 N-gram을 사용해서 단어의 순서에 대한 평가를 하는데, 이..

BLEU | Proceedings of the 40th Annual Meeting on Association for Computational LinguisticsWe present the results of an experiment on extending the automatic method of Machine Translation evaluation BLUE with statistical weights for lexical items, such as tf.idf scores. We show that this extension gives additional information about evaluated ...dl.acm.org Published Date : 2002년 7월 1일keyword : BLE..

Learning to Prompt for Vision-Language ModelsLarge pre-trained vision-language models like CLIP have shown great potential in learning representations that are transferable across a wide range of downstream tasks. Different from the traditional representation learning that is based mostly on discretiarxiv.org발행일 : 2021년 9월 2일저널/학회 : SPRINGER 2022ProblemCLIP과 같은 기존 VLM은 프롬프트 엔지니어링을 통한 Zero-shot t..

LLaMA: Open and Efficient Foundation Language ModelsWe introduce LLaMA, a collection of foundation language models ranging from 7B to 65B parameters. We train our models on trillions of tokens, and show that it is possible to train state-of-the-art models using publicly available datasets exclusively, withoarxiv.org발행일 : 2023. 02. 27.Meta AIProblem최근, 한정된 컴퓨터 예산(Budget)에서 LLM과 데이터셋 크기에 대한 최적화 연구..