일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- evaluating object hallucination in large vision-language models
- 에지 검출
- dinov2: learning robust visual features without supervision 논문
- vlm 환각
- 딥러닝 엔트로피
- clip adapter
- object detection
- polling-based object probing evaluation
- vlm 환각이란
- vlm
- clip
- vlm hallucination
- dinov2: learning robust visual features without supervision
- 딥러닝 목적함수
- Object detection article
- 논문 요약
- dinov2: learning robust visual features without supervision 논문 리뷰
- 기계학습
- mobilenetv1
- 이미지 필터링
- evaluating object hallucination in large vision-language models 논문
- vlm hallucination paper
- 논문 리뷰
- dinov2 논문 리뷰
- evaluating object hallucination in large vision-language models paper
- 1차 미분 마스크
- 엔트로피란
- blip-2
- 객체 검출
- 원격 학습 안끊기게
- Today
- Total
My Vision, Computer Vision
[딥러닝 공부] Bernoulli Distribution, Laplace Distribution(베르누이 분포, 라플라스 분포) 본문
[딥러닝 공부] Bernoulli Distribution, Laplace Distribution(베르누이 분포, 라플라스 분포)
gyuilLim 2025. 1. 15. 15:46이번에는 가우시안 분포를 비롯하여 딥러닝 목적 함수에 자주 등장하는 분포들인 베르누이 분포와 라플라스 분포에 대해 알아보자.
베르누이 분포는 딥러닝 목적 함수에서 자주 등장하는 분포이며, Binary Cross Entropy에서 사용된다.
라플라스 분포는 가우시안 분포와 유사하게 뾰족한 종 모양으로 그려지는 분포이다.
Bernoulli Distribution(베르누이 분포)
이진 확률 분포의 일종으로, 두가지 가능한 결과 중 하나가 발생할 확률을 모델링한다.
발생할 수 있는 사건이 두 가지 경우밖에 없기때문에 이산 확률 분포이다.
따라서 PMF(Probability Mass Function, 확률 질량 함수)로 정의할 수 있다.
P(X=x)=px(1−p)1−x,x∈0,1P(X=x)=px(1−p)1−x,x∈0,1
위 식이 의미하는 것은 xx가 1인 경우의 확률은 pp, 0인 경우의 확률은 1−p1−p라는 것이다.
베루누이 분포의 기대값은 x=1x=1일 때 이므로,
E[X]=0⋅(1−p)+1⋅p=p 이고
분산은 다음과 같이 계산된다.
Var(x)=E[X2]−(E[X])2=p−p2=p(1−p)
Laplace Distribution(라플라스 분포)
f(x)=12bexp[−|x−μ|b]
라플라스 분포는 위와 같은 확률 밀도 함수로 표현된다.
가우시안 분포와 유사한 모양의 확률 밀도 함수이다.
범위는 −∞<f(x)<∞ 으로 모든 실수 범위이다.
평균 : μ, 분산 : 2b2, 표준편차 : √2b, 이 때 b는 스케일 상수라고도 함
라플라스 분포는 확률 밀도 함수기 때문에 적분했을 때 1이 된다. 절대값을 포함하기 때문에, 구간을 나누어서 적분해야한다.
x≥0 의 경우
∫∞012bexp(xb)dx=12b∫∞0exp(−xb)dx=12b[−bexp(−xb)]∞0=12
x<0 의 경우
∫0−∞12bexp(xb)dx=12b∫0−∞exp(−xb)dx=12b[bexp(−xb)]0−∞=12
두 구간에 대한 적분을 합치면 합이 1이 된다.
다음은 가우시안 분포와 라플라스 분포를 시각화한 그래프이다.

'공부' 카테고리의 다른 글
[논문 리뷰/요약] LLaVA : Visual Instruction Tuning (0) | 2025.02.02 |
---|---|
[딥러닝 공부] KL Divergence와 Cross Entropy (0) | 2025.01.26 |
[딥러닝 공부] 딥러닝 최적화4 - 하이퍼 파라미터 최적화 (0) | 2025.01.03 |
[딥러닝 공부] 딥러닝 최적화3 - 규제 기법, 하이퍼 파라미터 최적화 (0) | 2025.01.03 |
[딥러닝 공부] 딥러닝 최적화2 - 모멘텀, 적응적 학습률, 배치 정규화 (1) | 2025.01.03 |