반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- polling-based object probing evaluation
- dinov2: learning robust visual features without supervision 논문 리뷰
- 객체 검출
- clip adapter
- 딥러닝 엔트로피
- 에지 검출
- mobilenetv1
- 논문 요약
- evaluating object hallucination in large vision-language models paper
- dinov2: learning robust visual features without supervision 논문
- vlm hallucination
- 엔트로피란
- vlm 환각이란
- clip
- 1차 미분 마스크
- 딥러닝 목적함수
- evaluating object hallucination in large vision-language models
- 원격 학습 안끊기게
- object detection
- evaluating object hallucination in large vision-language models 논문
- 논문 리뷰
- 이미지 필터링
- vlm
- blip-2
- Object detection article
- 기계학습
- vlm hallucination paper
- dinov2 논문 리뷰
- dinov2: learning robust visual features without supervision
- vlm 환각
Archives
- Today
- Total
목록엔트로피 (1)
My Vision, Computer Vision

이 글은『크리스토퍼 비숍, 패턴 인식과 머신 러닝, 김형진 옮김, 제이펍(2018년)』에서 공부한 내용을 토대로 작성되었다.정보 이론(Information Theory)정보 이론이란 정보를 수학적으로 정의하고 측정하는 방법을 연구하는 학문이다. 머신 러닝은 데이터 정보를 다루기 때문에 정보 이론의 개념이 중요하다. (실제로 loss 함수에서 엔트로피 개념이 쓰임) 정보량(Information Content)이산 확률 변수 $x$가 있다고 하자. 이 때, 이 $x$가 가지고 있는 정보량이라는게 있다. 정보량은 ‘놀라움의 정도’라고도 하는데, 일어날 가능성이 낮은 사건이 발생했을 때의 정보량이 더 크기(더 놀랍기) 때문이다. 즉 정보량은 $x$가 발생할 확률에 반비례하며 따라서 확률 분포 $p(x)$에 종속..
공부
2024. 12. 18. 21:23