📕 『고양이』를 읽고 - Reading “Demain les chats”
💡 (한국어) 첫사랑 같은 작가, 낯선 재회 『고양이』를 읽고 📖 책 제목: 『고양이』 ✍️ 작가: 베르나르 베르베르 🎯 추천 대상: 베르베르의 열렬한 팬이라면 한 번쯤. 🌟 한줄 감상: 낯설게 느껴진 익숙한 이름, 그리고 아련한 실망. 🐜 나의 20대를 장악한 이름, 베르베르 ‘개미’, ‘빠삐용’, ‘타나토노트’… 내 20대의 상상력을 흔...
💡 (한국어) 첫사랑 같은 작가, 낯선 재회 『고양이』를 읽고 📖 책 제목: 『고양이』 ✍️ 작가: 베르나르 베르베르 🎯 추천 대상: 베르베르의 열렬한 팬이라면 한 번쯤. 🌟 한줄 감상: 낯설게 느껴진 익숙한 이름, 그리고 아련한 실망. 🐜 나의 20대를 장악한 이름, 베르베르 ‘개미’, ‘빠삐용’, ‘타나토노트’… 내 20대의 상상력을 흔...
🧠 (한국어) Training-Free 조합 이미지 검색!! CIReVL (ICLR 2024) CIRCO(ICCV 2023)의 뒤를 이어, CIR 연구가 학습 기반에서 완전한 Training-Free 방식으로 확장!! 제목: Vision-by-Language for Training-Free Compositional Image Retr...
🧠 (한국어) Textual Inversion을 활용한 제로샷 조합 이미지 검색!! CIRCO 기존 CIR연구에서 ZS-CIR 모델을 공개하고, CIRCO 데이터셋도 공개!! 제목: Zero-Shot Composed Image Retrieval with Textual Inversion 학회: ICCV 2023 (Zhang et a...
🧠 (English) Image+Text based Composed Image Retrieval!! CIRR In this paper, they presented a solution based on a transformer model. But in this post, I will focus only on the dataset. Ti...
🧠 Fashion Image Retrieval with Natural Language: A New Standard Title: Fashion IQ: A Novel Dataset for Fashion Image Retrieval with Natural Language Conference: CVPR 2021 (WU et al.) Code...
👁️ MLLMs Know Where to Look: Training-free Perception of Visual Details Title: MLLMs know where to look: Training-free perception of small visual details with multimodal LLMs Conference: ICLR...
💡 (한국어) 인간의 본성을 해부하다 『카라마조프가의 형제들』을 읽고 📖 책 제목: 『카라마조프가의 형제들』 ✍️ 작가: 표도르 도스토옙스키 🎯 추천 대상: 상식을 위한 필독서!! 지식 함양이 목표인사람들! 🌟 한줄 감상: 도스토옙스키의 작품스럽게 우중충한 느낌! 😵 처음엔 콩가루 가족 이야기!? 처음 이 책을 읽을 때는, “그냥 막장 가족...
🧠 (English) Notes-guided MLLM Reasoning Title: Notes-guided MLLM Reasoning: Enhancing MLLM with Knowledge and Visual Notes Conference: CVPR 2025 (Fang et al.) Key Keywords: Multimodal LLM, ...
🚀 Understanding Wikidata - 무료로 Wiki 데이터 활용하기!! Wikidata는 위키미디어 재단이 운영하는 자유 지식 그래프(Open Knowledge Graph)입니다. 전 세계 인물, 장소, 개념 등에 대한 정보를 구조화된 방식으로 제공합니다. 🧠 “GPT가 사용하는 세계 지식, 우리도 무료로 쓸 수 있을까?” 👉 그...
🧠 Reading the Paper Lost in the Middle 🔍 LLMs struggle to remember information located in the middle of long documents! Paper: Lost in the Middle: How Language Models Use Long Contexts Venue: T...