반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- mobilenetv1
- 엔트로피란
- object detection
- clip
- evaluating object hallucination in large vision-language models 논문
- 기계학습
- 1차 미분 마스크
- 이미지 필터링
- polling-based object probing evaluation
- vlm
- vlm hallucination paper
- evaluating object hallucination in large vision-language models
- 딥러닝 엔트로피
- evaluating object hallucination in large vision-language models paper
- dinov2: learning robust visual features without supervision
- vlm 환각
- dinov2 논문 리뷰
- clip adapter
- vlm 환각이란
- 논문 리뷰
- vlm hallucination
- dinov2: learning robust visual features without supervision 논문 리뷰
- Object detection article
- 에지 검출
- 딥러닝 목적함수
- blip-2
- 객체 검출
- dinov2: learning robust visual features without supervision 논문
- 논문 요약
- 원격 학습 안끊기게
Archives
- Today
- Total
목록cross entropy loss (1)
My Vision, Computer Vision
[딥러닝 공부] KL Divergence와 Cross Entropy
[딥러닝 공부] 정보 이론과 엔트로피이 글은『크리스토퍼 비숍, 패턴 인식과 머신 러닝, 김형진 옮김, 제이펍(2018년)』에서 공부한 내용을 토대로 작성되었다.정보 이론(Information Theory)정보 이론이란 정보를 수학적으로 정의하고 측mvcv.tistory.com 정보량, 엔트로피는 위 글을 참고할 것.Kullback-Leibelr Divergence(쿨백-라이블러 발산)두 확률 분포 $P(x)$와 $Q(x)$ 간의 차이를 측정하는 비대칭적 척도이다.분포간의 "정보 손실"을 나타낸다.$$D_{KL}(P||Q) = \sum_x P(x)\log \frac{P(x)}{Q(x)}$$$P(x)$ : 실제 데이터 분포$Q(x)$ : 모델이 추정한 분포$\log\frac{P(x)}{Q(x)}$ : $Q(..
공부
2025. 1. 26. 15:25