| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
- gres
- 1차 미분 마스크
- gsoc 후기
- E2E 자율주행
- res paper
- 에지 검출
- vlm
- res
- gsoc
- TransFuser
- mobilenetv1
- 논문 요약
- gsoc 2025
- referring expression segmentation
- grefcoco
- 엔트로피란
- clip adapter
- 논문 리뷰
- google summer of code
- object detection
- clip
- 원격 학습 안끊기게
- 딥러닝 목적함수
- 객체 검출
- 이미지 필터링
- transfuser++
- 딥러닝 엔트로피
- grefcoco dataset
- Object detection article
- blip-2
- Today
- Total
목록Paper (53)
My Vision, Computer Vision
Hidden Biases of End-to-End Driving ModelsEnd-to-end driving systems have recently made rapid progress, in particular on CARLA. Independent of their major contribution, they introduce changes to minor system components. Consequently, the source of improvements is unclear. We identify two biases tharxiv.orgOverview본 논문은 TransFuser의 후속 연구로, TransFuser++ 모델을 제안한다. 네트워크 구조는 거의 비슷하지만 설계 철학같은 것들이 새로 반..
TransFuser: Imitation with Transformer-Based Sensor Fusion for Autonomous DrivingHow should we integrate representations from complementary sensors for autonomous driving? Geometry-based fusion has shown promise for perception (e.g. object detection, motion forecasting). However, in the context of end-to-end driving, we find that imitaarxiv.org 이 논문이 나오게 된 배경본 논문은 2022년 5월에 아카이브에 업로드되었다. 참고로 Uni..
Golden Cudgel Network for Real-Time Semantic SegmentationRecent real-time semantic segmentation models, whether single-branch or multi-branch, achieve good performance and speed. However, their speed is limited by multi-path blocks, and some depend on high-performance teacher models for training. To overcome thearxiv.org초록기존 Real-time 시멘틱 세그멘테이션 모델은 Multi-path 블럭에 의해 속도가 제한되거나고성능 티쳐 모델과에 의존한다는 한..
Overview본 논문에서는 CLIP 모델을 REF(Referring Expression Segmentation) Task에 사용한다.동시에 Vision-Language Decoder 및 Text-to-pixel 대조 학습을 제안한다.Problem Statement(당시) Multi-modal 분야에서 CLIP 모델이 성공적인 결과를 보여준 바 있다. 따라서 본 논문에서는 CLIP을 RES에 도입한다.하지만 위 사진에서처럼, CLIP을 Naive하게 사용하는 방법으로는 최적의 성능을 내지 못하는데, 이유는 Pixel-level 예측 태스크인 RES와 다르게, CLIP은 Image-level(Contrastive)로 훈련되었기 때문이다.따라서 시각적 특징을 세부적으로 학습해야하는 목표와 맞지 않게, CLI..
GSVA: Generalized Segmentation via Multimodal Large Language ModelsGeneralized Referring Expression Segmentation (GRES) extends the scope of classic RES to refer to multiple objects in one expression or identify the empty targets absent in the image. GRES poses challenges in modeling the complex spatial relationships of tarxiv.orgAuthor: Xia, Zhuofan, et al.Journal: CVPR 20204Published Date: 202..
Bring Adaptive Binding Prototypes to Generalized Referring Expression SegmentationReferring Expression Segmentation (RES) has attracted rising attention, aiming to identify and segment objects based on natural language expressions. While substantial progress has been made in RES, the emergence of Generalized Referring Expression Segmentarxiv.orgAuthor : Li, Weize, et al.Journal : IEEE Transactio..