🚀 Transformer 파이썬으로 이해하기!
🚀 Transformer 파이썬으로 완전정복! “Attention is All You Need” - 2017년 구글의 혁명적인 논문 🎯 이제 우리도 Transformer를 처음부터 끝까지 파이썬으로 구현해보자! 💪 🎯 목차 🔍 Transformer 개요 📚 Attention의 역사 🔍 초기 Atten...
🚀 Transformer 파이썬으로 완전정복! “Attention is All You Need” - 2017년 구글의 혁명적인 논문 🎯 이제 우리도 Transformer를 처음부터 끝까지 파이썬으로 구현해보자! 💪 🎯 목차 🔍 Transformer 개요 📚 Attention의 역사 🔍 초기 Atten...
🧠 (한국어) Tokenizer 알아보기?!! 🔍 텍스트를 AI가 이해할 수 있는 의미 있는 단위로 나누기!!! 우리가 문장을 단어로 나누어 이해하듯이, AI 모델도 토크나이저를 통해 텍스트를 처리 가능한 단위로 변환해야 합니다! 주요 논문들: Neural Machine Translation of Rare Words wit...
🧠 (한국어) GLIP 알아보기! 🔍 Faster R-CNN의 Open Vocabulary 버전!! 객채 인식(Object Detection) 중 Stage2 모델의 대표 Faster R-CNN에, 자유로운 택스트 프롬포트 기능을 추가한!! GLIP에 대해 알아보아요!! OVOD : Open Vocabulary Object Detection ...
🧠 Understanding YOLO-World!! 🔍 YOLO finally enters the Zero-Shot world!!! Paper: YOLO-World: Real-Time Open-Vocabulary Object Detection Conference: CVPR 2024 (Tencent AI Lab, Cheng, Tianheng,...
🧠 Understanding CLIP4HOI 🔍 Combining CLIP and DETR for Zero-Shot HOI Detection!!! Paper CLIP4HOI: Towards Adapting CLIP for Practical Zero-Shot HOI Detection Conference: NeurIPS 2023 (Mao, Yu...
💡 (한국어) 철학의 언어로 ‘행복’을 말하다 『니코마코스 윤리학』을 읽고 📖 책 제목: 『니코마코스 윤리학』 ✍️ 작가: 아리스토텔레스 🎯 추천 대상: 잠들기 전 읽을 수면제 책이 필요하신 분 🌟 한줄 감상: 어렵고, 어렵고, 어렵다.. 😅 어렵다,.., 처음 책을 펼쳤을 때의 당혹감이 아직도 잊을 수가 없다,,, 글자 하나하나는 한글이...
🧠 (English) Understanding EZ-HOI?!! 🔍 Creating Perfect Prompts for Zero-shot and Unseen Cases!! Paper: EZ-HOI: VLM Adaptation via Guided Prompt Learning for Zero-Shot HOI Detection Conference...
🧠 Understanding CLIP-Adapter! 🔍 Easy Fine-Tuning for CLIP with Just One Adapter! Paper: CLIP-Adapter: Better Vision-Language Models with Feature Adapters Published: IJCV 2024 (Gao, Peng, et a...
🧠 Understanding YOLO in One Page 🔍 Detecting objects lightning-fast with a single unified model! Just like classic literature is essential beyond trending new books, today we’re diving into the...
🦖 (English) LoRA Hands-On Practice!! LoRA: Low-Rank Adaptation of Large Language Models Today, we’re diving into the practice of LoRA, the essence of fine-tuning, which we studied the theory o...