반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- clip
- 원격 학습 안끊기게
- polling-based object probing evaluation
- gres: generalized referring expression segmentation
- Object detection article
- mobilenetv1
- 이미지 필터링
- 논문 요약
- vlm hallucination paper
- 엔트로피란
- grefcoco
- gres: generalized referring expression segmentation 논문
- vlm 환각이란
- 딥러닝 엔트로피
- 딥러닝 목적함수
- vlm
- 객체 검출
- grefcoco dataset
- referring expression segmentation
- object detection
- clip adapter
- 기계학습
- 논문 리뷰
- blip-2
- gres: generalized referring expression segmentation 논문 리뷰
- gres 논문
- 에지 검출
- gres
- 1차 미분 마스크
- gres 논문 리뷰
Archives
- Today
- Total
목록정보이론 (1)
My Vision, Computer Vision

이 글은『크리스토퍼 비숍, 패턴 인식과 머신 러닝, 김형진 옮김, 제이펍(2018년)』에서 공부한 내용을 토대로 작성되었다.정보 이론(Information Theory)정보 이론이란 정보를 수학적으로 정의하고 측정하는 방법을 연구하는 학문이다. 머신 러닝은 데이터 정보를 다루기 때문에 정보 이론의 개념이 중요하다. (실제로 loss 함수에서 엔트로피 개념이 쓰임) 정보량(Information Content)이산 확률 변수 $x$가 있다고 하자. 이 때, 이 $x$가 가지고 있는 정보량이라는게 있다. 정보량은 ‘놀라움의 정도’라고도 하는데, 일어날 가능성이 낮은 사건이 발생했을 때의 정보량이 더 크기(더 놀랍기) 때문이다. 즉 정보량은 $x$가 발생할 확률에 반비례하며 따라서 확률 분포 $p(x)$에 종속..
공부
2024. 12. 18. 21:23