일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 딥러닝 목적함수
- 1차 미분 마스크
- 에지 검출
- vision transformers for dense prediction 논문 요약
- vision transformers for dense prediction paper
- Object detection article
- vision transformers for dense prediction
- vit segmentation
- blip-2
- 논문 리뷰
- mobilenetv1
- albert 논문 리뷰
- clip
- 딥러닝 엔트로피
- 기계학습
- 엔트로피란
- 객체 검출
- vlm
- clip adapter
- dpt paper
- albert 모델
- vision transformers for dense prediction 논문
- albert 논문
- 논문 요약
- vision transformers for dense prediction 논문 리뷰
- 이미지 필터링
- 원격 학습 안끊기게
- vit dense prediction
- object detection
- dpt 논문
- Today
- Total
목록WorkPlace (4)
My Vision, Computer Vision

GSoC(Google Summer of Code) 2025구글 서머 오브 코드는 여름에 진행되는 오픈 소스 프로젝트이다.여러 해외 기업들이 프로젝트를 들고오면 프로젝트 당 학생 한명씩 맡고, 해당 기업 멘토들이 도와주고 피드백을 주는 그런 시스템이다.Organizations List를 보면 AI, Security, Web 등 필드 별로 구분되어 있고 AI 분야에는 무려 딥마인드도 있다.나는 인텔의 OpenVINO에 지원했는데(총 3개까지 가능한데 1개만 함), 딥러닝 모델을 간편하게 사용할 수 있게 해주는 툴킷이다.컨택부터 지원까지의 과정은 기업마다, 프로젝트 멘토마다 다른데 내 경험을 바탕으로 후기를 남긴다..프로젝트 공개 및 컨택(2/27 ~ 3/24)GSoC 2025는 2월 27일에 기업 별 프로젝..

Youtube 영상 장면 검색(Colab)https://github.com/gyuilLim/youtube-scene-search-with-text GitHub - gyuilLim/youtube-scene-search-with-text: Finding scenes that you want by text automaticallyFinding scenes that you want by text automatically - gyuilLim/youtube-scene-search-with-textgithub.com 장면 검색 비디오 플레이어https://github.com/gyuilLim/Scene-search-video-player GitHub - gyuilLim/Scene-search-video-player: ..

LAVIS/projects/blip2 at main · salesforce/LAVIS LAVIS - A One-stop Library for Language-Vision Intelligence - salesforce/LAVIS github.com 이 글은 위 Github을 참고하여 작성했습니다. 본 글에서는 이미지 캡셔닝(Image2 Text) BLIP-2 모델 사용법을 알려드리려고 합니다. BLIP-2은 입력 이미지에 대한 Text를 출력해주는데, 사용자가 원하는 형태의 답변을 지정해 줄 수 있습니다. Google Colab T4(15GB) 환경에서 실행가능하며, 약 12GB 정도의 GPU memory를 사용합니다. 1. Install BLIP-2 패키지를 설치해줍니다. BLIP-2은 salesforc..
GitHub - openai/CLIP: CLIP (Contrastive Language-Image Pretraining), Predict the most relevant text snippet given an image CLIP (Contrastive Language-Image Pretraining), Predict the most relevant text snippet given an image - openai/CLIP github.com 이 글은 위 Github을 참고하여 작성했습니다. 본 글에서는 Open AI의 CLIP 모델 사용법을 알려드리려고 합니다. CLIP은 이미지와 텍스트를 혼합하여 학습시킨 모델입니다. 이미지와 텍스트를 입력하면 이미지와 텍스트 간의 유사도를 출력해 줍니다. Google..