반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 이미지 필터링
- dinov2: learning robust visual features without supervision 논문 리뷰
- 원격 학습 안끊기게
- evaluating object hallucination in large vision-language models paper
- 딥러닝 목적함수
- vlm hallucination
- polling-based object probing evaluation
- evaluating object hallucination in large vision-language models
- 논문 요약
- evaluating object hallucination in large vision-language models 논문
- clip
- dinov2: learning robust visual features without supervision
- blip-2
- 객체 검출
- vlm hallucination paper
- vlm
- dinov2 논문 리뷰
- 1차 미분 마스크
- vlm 환각
- 기계학습
- object detection
- mobilenetv1
- Object detection article
- 에지 검출
- clip adapter
- 엔트로피란
- 논문 리뷰
- vlm 환각이란
- 딥러닝 엔트로피
- dinov2: learning robust visual features without supervision 논문
Archives
- Today
- Total
목록딥러닝 정보량 (1)
My Vision, Computer Vision

이 글은『크리스토퍼 비숍, 패턴 인식과 머신 러닝, 김형진 옮김, 제이펍(2018년)』에서 공부한 내용을 토대로 작성되었다.정보 이론(Information Theory)정보 이론이란 정보를 수학적으로 정의하고 측정하는 방법을 연구하는 학문이다. 머신 러닝은 데이터 정보를 다루기 때문에 정보 이론의 개념이 중요하다. (실제로 loss 함수에서 엔트로피 개념이 쓰임) 정보량(Information Content)이산 확률 변수 $x$가 있다고 하자. 이 때, 이 $x$가 가지고 있는 정보량이라는게 있다. 정보량은 ‘놀라움의 정도’라고도 하는데, 일어날 가능성이 낮은 사건이 발생했을 때의 정보량이 더 크기(더 놀랍기) 때문이다. 즉 정보량은 $x$가 발생할 확률에 반비례하며 따라서 확률 분포 $p(x)$에 종속..
공부
2024. 12. 18. 21:23