일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- blip-2
- grefcoco dataset
- mobilenetv1
- 엔트로피란
- 딥러닝 엔트로피
- 이미지 필터링
- gsoc 2025
- gsoc
- google summer of code
- gres
- 에지 검출
- 기계학습
- clip adapter
- referring expression segmentation
- 1차 미분 마스크
- grefcoco
- 딥러닝 목적함수
- res paper
- 객체 검출
- gsoc가 뭔가요
- gsoc 후기
- clip
- Object detection article
- vlm
- 논문 리뷰
- object detection
- 논문 요약
- res
- gsoc 지원
- 원격 학습 안끊기게
- Today
- Total
목록WorkPlace (6)
My Vision, Computer Vision
GSoC는 준비기간 1달을 포함하여 5월부터 8월까지 총 4개월 동안 진행된다.7월 초쯤 중간 평가, 8월 말에 최종 평가가 있는데 시험을 본다거나 발표를 하는건 아니고 설문조사 같은 걸 간단하게 한다. 내가 지원한 기업에서는 평가 기간에 맞춰 멘토, 멘티끼리 모여 데모 미팅을 하기도 했다.이 글에서는 프로젝트를 마무리하면서 정리한 것들에 대해 기록한다.Medium Blog Postinghttps://medium.com/openvino-toolkit/google-summer-of-code-2025-improve-otx-classification-via-peft-and-transformer-backbone-7736cbdaaf81 Google Summer of Code 2025: Improve OTX Cla..

지쏙(GSoC) 프로젝트가 시작한지 아직도 한 달 반이다..영어가 잘 안되는 걸 알면서 맨 땅에 해딩을 해보았지만 생각보다 빡세다.역시 제일 필요하고 제일 중요하고 제일 급한 건 언어 공부인가보다. 나는 독일 인텔에 계신 멘토 두 분과 함께하고 있는데 이 분들은 영어가 유창하다.미팅할 때 가끔 하나씩 물어보시는데 "Okay"라고만 대답한 적이 두어 번있다. 어찌됐든 이제 한 달 반이 지나서 이번주에 중간 평가가 끝이 났고 이제 후반이다.Midterm Evaluations지쏙(GSoC)은 6월부터 9월까지 3개월동안 진행되는데, 중간에 Midterm Evaluations가 한 번 있고 마지막에 Final Evaluations가 있다. 중간 평가가 무슨 시험이나 발표같은 건 줄 알았는데 그냥 설문조사였다.작..

GSoC(Google Summer of Code) 2025구글 서머 오브 코드는 여름에 진행되는 오픈 소스 프로젝트이다.여러 해외 기업들이 프로젝트를 들고오면 프로젝트 당 학생 한명씩 맡고, 해당 기업 멘토들이 도와주고 피드백을 주는 그런 시스템이다.Organizations List를 보면 AI, Security, Web 등 필드 별로 구분되어 있고 AI 분야에는 무려 딥마인드도 있다.나는 인텔의 OpenVINO에 지원했는데(총 3개까지 가능한데 1개만 함), 딥러닝 모델을 간편하게 사용할 수 있게 해주는 툴킷이다.컨택부터 지원까지의 과정은 기업마다, 프로젝트 멘토마다 다른데 내 경험을 바탕으로 후기를 남긴다..프로젝트 공개 및 컨택(2/27 ~ 3/24)GSoC 2025는 2월 27일에 기업 별 프로젝..

Youtube 영상 장면 검색(Colab)https://github.com/gyuilLim/youtube-scene-search-with-text GitHub - gyuilLim/youtube-scene-search-with-text: Finding scenes that you want by text automaticallyFinding scenes that you want by text automatically - gyuilLim/youtube-scene-search-with-textgithub.com 장면 검색 비디오 플레이어https://github.com/gyuilLim/Scene-search-video-player GitHub - gyuilLim/Scene-search-video-player: ..

LAVIS/projects/blip2 at main · salesforce/LAVIS LAVIS - A One-stop Library for Language-Vision Intelligence - salesforce/LAVIS github.com 이 글은 위 Github을 참고하여 작성했습니다. 본 글에서는 이미지 캡셔닝(Image2 Text) BLIP-2 모델 사용법을 알려드리려고 합니다. BLIP-2은 입력 이미지에 대한 Text를 출력해주는데, 사용자가 원하는 형태의 답변을 지정해 줄 수 있습니다. Google Colab T4(15GB) 환경에서 실행가능하며, 약 12GB 정도의 GPU memory를 사용합니다. 1. Install BLIP-2 패키지를 설치해줍니다. BLIP-2은 salesforc..
GitHub - openai/CLIP: CLIP (Contrastive Language-Image Pretraining), Predict the most relevant text snippet given an image CLIP (Contrastive Language-Image Pretraining), Predict the most relevant text snippet given an image - openai/CLIP github.com 이 글은 위 Github을 참고하여 작성했습니다. 본 글에서는 Open AI의 CLIP 모델 사용법을 알려드리려고 합니다. CLIP은 이미지와 텍스트를 혼합하여 학습시킨 모델입니다. 이미지와 텍스트를 입력하면 이미지와 텍스트 간의 유사도를 출력해 줍니다. Google..