๐ง CIR - Composed Image Retrieval on Real-life Images : ์ด๋ฏธ์ง ํ์์ ์์์ฐ๊ตฌ!!
๐ง (English) Image+Text based Composed Image Retrieval!! CIRR
- Title: Image Retrieval on Real-life Images with Pre-trained Vision-and-Language Models
- Conference: ICCV 2021 (Zhang et al.)
- Code: CIRR (GitHub)
- Dataset : CIRR
- Keywords:
Composed Image Retrieval
,Open-domain Retrieval
,CIRR Dataset
,MLLM
,Zero-Shot
๐ Research Background
Traditional image retrieval generally relies on a text query or image query (single modality).
However, in real-world scenarios, users often want to provide compositional information such as:
โI want an image similar to this one, but with a different background.โ
โ Reference Image + Modification Text = Composed Image Retrieval (CIR)
๐ง Main Contributions
Definition of CIR Task
- Clearly defines Composed Image Retrieval (CIR)
- Query:
Reference Image
+Textual Modification
- Goal: Retrieve the image that matches the composed query
CIRR Dataset Proposal
- Large-scale benchmark for real-life CIR
- Over 21,000 queryโtarget pairs
- Includes natural scenes, object diversity, and complex textual expressions
Evaluation Set Design
- Fine-grained distractors: semantically similar images increase retrieval difficulty
- Multiple reference forms: ensures diversity at instance-level and scene-level
Benchmarking Existing Methods
- Evaluates representative methods such as TIRG, FiLM, and MAAF
- Demonstrates the difficulty and realism of the CIRR dataset
๐ง CIRR Dataset: Real-life Composed Retrieval
CIRR (Composed Image Retrieval on Real-life Images) is the first major benchmark for compositional image retrieval (CIR).
Its goal is to understand user intent expressed as โreference image + modification text.โ
- Generality: Includes a wide variety of real-world scenes and objects (not domain-specific like fashion).
- Scale: ~17,000 images and 21,000 queryโtarget pairs.
- Difficulty: Contains semantic distractors (very similar images), requiring models to capture precise modification intent.
This dataset formally defines CIR and sets a realistic benchmark, becoming the foundation for subsequent research.
๐ท Example Query in CIRR
- Reference Image: A woman sitting on a bench
- Text Modification: โThe same woman is standing, wearing different clothes.โ
- Target Image: The real-life image that satisfies the condition
๐ง Significance of CIRR Dataset
Focused on defining a new problem and demonstrating its difficulty.
Benchmarked existing models (TIRG, FiLM, MAAF) on the dataset.
Showed limitations in complex queries, motivating future solutions.
Existing Models and Their Limitations
Model | Key Idea | Role in CIRR |
---|---|---|
TIRG | Combines image and text with residual gating | Tests text-guided image modification |
FiLM | Feature-wise linear modulation based on text | Reveals limitations for simple compositional queries |
MAAF | Modality-aware attention fusion | Explores handling of complex multimodal queries |
- Results:
Method | Recall@1 | Recall@5 |
---|---|---|
TIRG | 20.1% | 47.6% |
FiLM | 18.4% | 44.1% |
MAAF | 22.0% | 49.2% |
- All models show relatively low performance
- Limitations exposed in complex queries
- CIRR task is inherently difficult
- Conclusion & Impact
- Defined a new task + provided a realistic benchmark + proved limitations of existing methods
- Inspired follow-up datasets and methods (CIRCO, FashionIQ, CIRPL, etc.)
- A landmark study that initiated CIR research
โ Timeline of Major Follow-up Research after CIRR (2021โ2025)
In the future, we will explore these studies in more detail!!
2021 โ CIRR (ICCV 2021)
- Contribution: First to define the Composed Image Retrieval (CIR) task and release the CIRR dataset
- Significance: Demonstrated limitations of existing models โ Sparked follow-up research
2022 โ CIRPLANT
- Contribution: Proposed a dedicated model architecture for CIR
- Idea: Gradually fused image features with textual modifications to better represent intended changes
- Significance: One of the first attempts to tackle CIR challenges through dedicated modeling
2022 โ CIRCO (ECCV 2022)
- Contribution: Expanded dataset for object-centric composed retrieval
- Idea: Allowed text modifications to apply to individual objects in the reference image
- Significance: Provided a more fine-grained benchmark
2023 โ CIRPL
- Contribution: Proposed Language-guided Pretraining for CIR
- Idea: Adapted large-scale multimodal pretraining models to CIR โ Improved performance
- Significance: Connected CIR research with the trend of MLLMs
2024 โ CIReVL (Vision-by-Language, ICLR 2024)
- Contribution: Introduced a training-free CIR model
- Idea: Used VLM for image captioning โ LLM for caption rewriting โ CLIP-based retrieval
- Significance: Scalable and interpretable modular design for zero-shot CIR
2024 โ Contrastive Scaling (arXiv 2024)
- Contribution: Proposed a contrastive scaling strategy to expand positive/negative samples
- Idea: Generated triplets via MLLMs โ Two-stage fine-tuning for better CIR performance
- Significance: Improved results even in low-resource settings
2025 โ ConText-CIR (CVPR 2025)
- Contribution: Proposed a new framework with Text Concept-Consistency Loss
- Idea: Ensured noun phrases in the modification text align with correct parts of the reference image using synthetic data pipeline
- Significance: Achieved state-of-the-art in both supervised and zero-shot settings
2025 โ OSrCIR (CVPR 2025 Highlight)
- Contribution: Introduced a training-free, one-stage reflective CoT-based zero-shot CIR model
- Idea: Replaced two-stage pipeline with one-stage multimodal Chain-of-Thought reasoning using MLLMs
- Significance: Preserved visual information better, improved performance by 1.8โ6.44%, and enhanced interpretability
2025 โ COR (Composed Object Retrieval) + CORE
- Contribution: Proposed a new object-level retrieval task and dataset
- Idea: Instead of retrieving the whole image, it focuses on retrieving/segmenting a specific object guided by reference object + text
- Significance: Established a foundation for fine-grained multimodal object retrieval
Overall Summary
- 2021: CIRR โ Task definition + dataset release
- 2022: CIRPLANT โ Model design; CIRCO โ Fine-grained dataset
- 2023: CIRPL โ Connection with large-scale pretraining
- 2024: CIReVL โ Training-free CIR; Contrastive Scaling โ Expanded contrastive learning
- 2025: ConText-CIR โ Concept consistency loss; OSrCIR โ One-stage reasoning;
โโโCOR/CORE โ Object-level retrieval and segmentation
This trajectory shows how CIR research has become increasingly sophisticated, enhancing both expressiveness and real-world applicability.
๐งฉ Conclusion
CIRR (ICCV 2021) was the first work to formally define the CIR task and provide a realistic benchmark!!
Subsequent datasets and methods such as CIRCO, FashionIQ, and CIRPL have all built upon this foundation.
๐ง (ํ๊ตญ์ด) ์ด๋ฏธ์ง+ํ ์คํธ๋ฅผ ๋ฐํ์ผ๋ก ํ์ํ ์ด๋ฏธ์ง๋ฅผ ๊ฒ์ํ๋ค!! CIRR
- ์ ๋ชฉ: Image Retrieval on Real-life Images with Pre-trained Vision-and-Language Models
- ํํ: ICCV 2021 (Zhang et al.)
- ์ฝ๋: CIRR (GitHub)
- ๋ฐ์ดํฐ์ : CIRR
- ํต์ฌ ํค์๋:
Composed Image Retrieval
,Open-domain Retrieval
,CIRR Dataset
,MLLM
,Zero-Shot
๐ ์ฐ๊ตฌ ๋ฐฐ๊ฒฝ
๊ธฐ์กด ์ด๋ฏธ์ง ๊ฒ์(image retrieval)์ ์ผ๋ฐ์ ์ผ๋ก ํ
์คํธ ์ฟผ๋ฆฌ ๋๋ ์ด๋ฏธ์ง ์ฟผ๋ฆฌ ๋จ์ผ modality์ ์์กดํ์ต๋๋ค.
ํ์ง๋ง ํ์ค ์ธ๊ณ์์ ์ฌ์ฉ์๋ ๋ค์๊ณผ ๊ฐ์ด ์กฐํฉ์ ์ ๋ณด๋ฅผ ์ ๊ณตํ๊ณ ์ ํ๋ ๊ฒฝ์ฐ๊ฐ ๋ง์ต๋๋ค:
โ์ด ์ด๋ฏธ์ง์ ๋น์ทํ๋ฐ, ๋ฐฐ๊ฒฝ๋ง ๋ค๋ฅด๊ฒ ํด์คโ
โ ์ฐธ์กฐ ์ด๋ฏธ์ง + ์์ ํ ์คํธ = ์กฐํฉ์ ์ด๋ฏธ์ง ๊ฒ์ (Composed Image Retrieval)
๐ง ์ฃผ์ ๊ธฐ์ฌ
CIR ๊ณผ์ ์ ๋ฆฝ
- Composed Image Retrieval (CIR) ๊ฐ๋ ์ ๋ช ํํ ์ ์
- ์ฟผ๋ฆฌ:
Reference Image
+Textual Modification
- ๋ชฉํ: ์กฐํฉ๋ ์ฟผ๋ฆฌ์ ๋ถํฉํ๋ ์ด๋ฏธ์ง๋ฅผ ๊ฒ์
CIRR ๋ฐ์ดํฐ์ ์ ์
- ์ค์ ์ฌ์ง ๊ธฐ๋ฐ์ ๋๊ท๋ชจ CIR ๋ฒค์น๋งํฌ
- ์ด 21,000๊ฐ ์ด์์ ์ฟผ๋ฆฌ-ํ๊น ์
- ์์ฐ์ ์ฅ๋ฉด, ๊ฐ์ฒด ๋ค์์ฑ, ๋ณต์กํ ๋ฌธ์ฅ ํํ ๋ฐ์
ํ๊ฐ ์ธํธ ์ค๊ณ
- Fine-grained distractors: ์๋งจํฑ ์ ์ฌํ ์ด๋ฏธ์ง๋ฅผ ํฌํจํ์ฌ ๊ฒ์ ๋์ด๋ ์์น
- Multiple reference forms: instance-level, scene-level ๋ค์์ฑ ๋ณด์ฅ
๊ธฐ์กด ๊ธฐ๋ฒ ์ฑ๋ฅ ๋น๊ต
- TIRG, FiLM, MAAF ๋ฑ ๋ํ์ ์ธ CIR ๋ฐฉ์๋ค์ ์คํ
- CIRR ๋ฐ์ดํฐ์ ์ ๋์ด๋์ ํ์ค์ฑ์ ์ค์ฆํจ
๐ง CIRR ๋ฐ์ดํฐ์ : ํ์ค ์ด๋ฏธ์ง ๊ธฐ๋ฐ ์กฐํฉ์ ๊ฒ์
CIRR (Composed Image Retrieval on Real-life images) ๋ฐ์ดํฐ์ ์ ์กฐํฉ์ ์ด๋ฏธ์ง ๊ฒ์(CIR) ์ฐ๊ตฌ์ ์์ด๊ฐ ๋ ์ค์ํ ๋ฒค์น๋งํฌ์ ๋๋ค. โ์ฐธ์กฐ ์ด๋ฏธ์ง + ์์ ํ ์คํธโ๋ฅผ ๊ฒฐํฉํ ์ฟผ๋ฆฌ๋ฅผ ํตํด ์ฌ์ฉ์์ ๋ณต์กํ ์๋๋ฅผ ํ์ ํ๋ ๊ฒ์ ๋ชฉํ๋ก ํฉ๋๋ค.
- ๋ฒ์ฉ์ฑ: ํจ์ ๋ฑ ํน์ ๋๋ฉ์ธ์ด ์๋, ํ์ค ์ธ๊ณ์ ๋ค์ํ ํ๊ฒฝ๊ณผ ๊ฐ์ฒด๋ฅผ ํฌํจํฉ๋๋ค.
- ๊ท๋ชจ: ์ฝ 17,000๊ฐ์ ์ด๋ฏธ์ง์ 21,000๊ฐ์ ์ฟผ๋ฆฌ-ํ๊ฒ ์์ผ๋ก ๊ตฌ์ฑ๋ฉ๋๋ค.
- ๋์ด๋: ์ ๋ต๊ณผ ๋ฏธ๋ฌํ ์ฐจ์ด๊ฐ ์๋ โ์๋ฏธ๋ก ์ ๋ฐฉํด๋ฌผโ์ ํฌํจํ์ฌ, ๋ชจ๋ธ์ด ์ ํํ ์์ ์๋๋ฅผ ํ์ ํด์ผ๋ง ์ ๋ต์ ์ฐพ์ ์ ์๊ฒ ์ค๊ณ๋์์ต๋๋ค.
์ด ๋ฐ์ดํฐ์ ์ CIR ๊ณผ์ ๋ฅผ ๋ช ํํ ์ ์ํ๊ณ , ํ์ค์ ์ธ ๋์ด๋๋ฅผ ์ ์ํจ์ผ๋ก์จ ์ดํ ๊ด๋ จ ์ฐ๊ตฌ๋ค์ ์ค์ํ ํ ๋๊ฐ ๋์์ต๋๋ค.
๐ท CIRR์ ์ฟผ๋ฆฌ ์์
- Reference Image: ์ด๋ค ์ฌ์ฑ์ด ๋ฒค์น์ ์์ ์๋ ์ด๋ฏธ์ง
- Text Modification: โ๊ฐ์ ์ฌ์ฑ์ด ๋ค๋ฅธ ์ท์ ์ ๊ณ ์ ์๋คโ
- Target Image: ์กฐ๊ฑด์ ๋ง์กฑํ๋ ํ์ค ์ด๋ฏธ์ง
๐ง CIRR ๋ฐ์ดํฐ์ ์ ์์
์๋ก์ด ๋ฌธ์ ์ ์์ ๋์ด๋ ์ ์ฆ์ ์ด์ ๋ค ๋๊ณ ,
๊ธฐ์กด ๋ชจ๋ธ(TIRG, FiLM, MAAF) ํ์ฉ์ ํตํ ์ฑ๋ฅ ํ๊ฐํด์์
๋ณต์กํ ์ฟผ๋ฆฌ ์ํฉ์์ ๊ธฐ์กด ๋ชจ๋ธ์ ํ๊ณ ์ฆ๋ช , ์ดํ ์ฐ๊ตฌ์๋ค์ ํด๊ฒฐ์ฑ ๊ฐ๋ฐ์ ์ ๋ํ ์ ๊ตฌ์ ์ญํ ์ ํจ
๊ธฐ์กด ๋ชจ๋ธ ์ ์ฉ๊ณผ ํ๊ณ ๊ฒ์ฆ
๋ชจ๋ธ๋ช | ์ฃผ์ ์์ด๋์ด | CIRR ์ ์ฉ ์์ |
---|---|---|
TIRG | ์ด๋ฏธ์ง์ ํ ์คํธ๋ฅผ residual gating ๋ฐฉ์์ผ๋ก ๊ฒฐํฉ | ํ ์คํธ ๊ธฐ๋ฐ ์ด๋ฏธ์ง ์์ ์ฑ๋ฅ ๊ฒ์ฆ |
FiLM | ํ ์คํธ ์กฐ๊ฑด์ ๋ฐ๋ผ ํผ์ฒ๋ฅผ ์ ํ ๋ณ์กฐ | ๋จ์ ์กฐํฉ ์ฟผ๋ฆฌ ์ฒ๋ฆฌ ํ๊ณ ํ์ธ |
MAAF | ๋ชจ๋ฌ๋ฆฌํฐ ์ธ์ attention ์ตํฉ | ๋ณต์กํ ๋ฉํฐ๋ชจ๋ฌ ์ฟผ๋ฆฌ ์ฒ๋ฆฌ ๊ฐ๋ฅ์ฑ ํ์ |
- ๊ฒฐ๊ณผ๋?
๋ฐฉ๋ฒ | Recall@1 | Recall@5 |
---|---|---|
TIRG | 20.1% | 47.6% |
FiLM | 18.4% | 44.1% |
MAAF | 22.0% | 49.2% |
- ๋ชจ๋ ๋ชจ๋ธ ์ฑ๋ฅ์ด ์ ๋์ ์ผ๋ก ๋ฎ๊ฒ ์ธก์
- ๋ณต์กํ ์ฟผ๋ฆฌ ์ํฉ์์ ๊ธฐ์กด ๋ชจ๋ธ์ ํ๊ณ ์ฆ๋ช
CIRR ๊ณผ์ ๊ฐ ๋ณธ์ง์ ์ผ๋ก ์ด๋ ค์ด ๋ฌธ์ ์์ ์ ์ฆ
- ๊ฒฐ๋ก ๋ฐ ์ํฅ
- ์๋ก์ด ๊ณผ์ ์ ์ + ํ์ค์ ๋ฒค์น๋งํฌ ์ ์ + ๊ธฐ์กด ๋ฐฉ๋ฒ ํ๊ณ ์ฆ๋ช
- ์ดํ CIRCO, FashionIQ, CIRPL ๋ฑ ํ์ ๋ฐ์ดํฐ์ ยท๋ชจ๋ธ ์ฐ๊ตฌ๋ก ๋ฐ์
- CIR ์ฐ๊ตฌ์ ์ถ๋ฐ์ ์ด์ ๊ธฐ๋ ๋น์ ์ฐ๊ตฌ
โ CIRR ์ดํ ์ฃผ์ ํ์ ์ฐ๊ตฌ ํ์๋ผ์ธ (2021โ2025)
์์ผ๋ก ์๋ ์ฐ๊ตฌ๋ค์ด ๋ํ์ฌ ์์ธํ ์์๋ณผ๊ฒ์ด๋น๋ค!!
2021 โ CIRR (ICCV 2021)
- ๊ธฐ์ฌ: ์ต์ด๋ก ์กฐํฉ์ ์ด๋ฏธ์ง ๊ฒ์(CIR) ๊ณผ์ ๋ฅผ ์ ์ํ๊ณ , CIRR ๋ฐ์ดํฐ์ ๊ณต๊ฐ
- ์์: ๊ธฐ์กด ๋ชจ๋ธ ํ๊ณ ์ ์ฆ โ ํ์ ์ฐ๊ตฌ ์ด๋ฐ
2022 โ CIRPLANT
- ๊ธฐ์ฌ: CIR ์ ์ฉ ๋ชจ๋ธ ๊ตฌ์กฐ ์ ์
- ์์ด๋์ด: ์ด๋ฏธ์ง ํน์ง + ํ ์คํธ ์์ ์ ๋ณด๋ฅผ ์ ์ง์ ์ผ๋ก ์ตํฉํด ๋ณ๊ฒฝ ์๋ ํํ ๊ฐํ
- ์์: ์ค์ ๋ชจ๋ธ๋ง์ ํตํ ์ด๊ธฐ ํด๊ฒฐ ์๋
2022 โ CIRCO (ECCV 2022)
- ๊ธฐ์ฌ: ๊ฐ์ฒด ์ค์ฌ์ ์ธ๋ฐํ ๊ตฌ์ฑ ๊ฒ์์ ์ํ ๋ฐ์ดํฐ์ ํ์ฅ
- ์์ด๋์ด: ์ฐธ์กฐ ์ด๋ฏธ์ง์ ๊ฐ๋ณ ๊ฐ์ฒด ๋จ์๋ก ํ ์คํธ ์์ ๋ฐ์
- ์์: ๋ ์ ๊ตํ ์์ค์ ๋ฒค์น๋งํฌ ์ ๊ณต
2023 โ CIRPL
- ๊ธฐ์ฌ: ์ธ์ด ๊ธฐ๋ฐ ํํ ํ์ต(Language-guided Pretraining) ๊ธฐ๋ฒ ์ ์
- ์์ด๋์ด: ๋๊ท๋ชจ ๋ฉํฐ๋ชจ๋ฌ ์ฌ์ ํ์ต ๋ชจ๋ธ์ CIR์ ๋ง๊ฒ ์ ์ โ ์ฑ๋ฅ ํฅ์
- ์์: CIR ์ฐ๊ตฌ์ MLLM ํ๋ฆ์ ์ฐ๊ฒฐ
2024 โ CIReVL (Vision-by-Language, ICLR 2024)
- ๊ธฐ์ฌ: ํ์ต ์์ด ๊ตฌ์ฑ ๊ฒ์ ์ํํ๋ Training-Free ๋ชจ๋ธ ์ ์
- ์์ด๋์ด: VLM์ผ๋ก ์ด๋ฏธ์ง ์บก์ ๋ โ LLM์ผ๋ก ์ฌ๊ตฌ์ฑ๋ ์บก์ ๊ธฐ๋ฐ CLIP ๊ฒ์
- ์์: ์ ๋ก์ท CIR์์ ํ์ฅ์ฑ ๋๊ณ ์ธ๊ฐ ์ดํด ๊ฐ๋ฅํ ๋ชจ๋์ ๊ตฌ์กฐ ์ ๊ณต :contentReference[oaicite:1]{index=1}
2024 โ Contrastive Scaling (arXiv 2024)
- ๊ธฐ์ฌ: ๋์กฐ ํ์ต์ผ๋ก ์ยท์์ฑ ์ํ ํ์ฅ ์ ๋ต ์ ์
- ์์ด๋์ด: MLLM์ ํ์ฉํด triplets ์์ฑ โ ๋ ๋จ๊ณ ํ์ธํ๋์ผ๋ก ์ฑ๋ฅ ๊ฐ์
- ์์: ์ ๋ฆฌ์์ค ์ํฉ์์๋ CIR ์ฑ๋ฅ ํฅ์ :contentReference[oaicite:2]{index=2}
2025 โ ConText-CIR (CVPR 2025)
- ๊ธฐ์ฌ: Text Concept-Consistency Loss ๊ธฐ๋ฐ ์๋ก์ด CIR ํ๋ ์์ํฌ
- ์์ด๋์ด: ๋ช ์ฌ๊ตฌ๊ฐ ์ฐธ์กฐ ์ด๋ฏธ์ง์ ์ฌ๋ฐ๋ฅธ ๋ถ๋ถ์ ์ง์คํ๋๋ก ์ ๋ํ๋ ํฉ์ฑ ๋ฐ์ดํฐ ํ์ดํ๋ผ์ธ ํฌํจ
- ์์: supervised ๋ฐ zero-shot ์ค์ ์์ SOTA ์ฑ๋ฅ ๋ฌ์ฑ :contentReference[oaicite:3]{index=3}
2025 โ OSrCIR (CVPR 2025 Highlight)
- ๊ธฐ์ฌ: Training-Free, One-Stage Reflective CoT ๊ธฐ๋ฐ ZS-CIR ๋ชจ๋ธ ์ ์
- ์์ด๋์ด: ๊ธฐ์กด ๋ ๋จ๊ณ ๋์ , MLLM์ ํ์ฉํ ์ผ๋จ๊ณ multimodal Chain-of-Thought reasoning ์ ์ฉ
- ์์: ์๊ฐ ์ ๋ณด ์ ์ง ๊ฐํ, 1.8~6.44% ์ฑ๋ฅ ํฅ์, ํด์๋ ฅ ํฅ์ :contentReference[oaicite:4]{index=4}
2025 โ COR (Composed Object Retrieval) + CORE
- ๊ธฐ์ฌ: ๊ฐ์ฒด ์์ค ์ ๋ฐ ๊ฒ์์ ์ํ ์๋ก์ด ๊ณผ์ ์ ๋ฐ์ดํฐ์ ๋ฐํ
- ์์ด๋์ด: ์ด๋ฏธ์ง ์ ์ฒด๊ฐ ์๋๋ผ ์ฐธ์กฐ ๊ฐ์ฒด + ํ ์คํธ๋ก ํน์ ๊ฐ์ฒด๋ฅผ Segmentation ๋ฐ Retrieval
- ์์: ์ ๋ฐํ ๊ฐ์ฒด ๊ธฐ๋ฐ ๋ค์ค๋ชจ๋ฌ ๊ฒ์์ ๊ธฐ์ด๋ฅผ ๋ง๋ จ :contentReference[oaicite:5]{index=5}
์ข ํฉ ์์ฝ
- 2021: CIRR โ ๋ฌธ์ ์ ์ + ๋ฐ์ดํฐ์ ๊ณต๊ฐ
- 2022: CIRPLANT โ ๋ชจ๋ธ ๊ตฌ์กฐ; CIRCO โ ์ธ๋ฐํ ๋ฐ์ดํฐ์
- 2023: CIRPL โ ๋๊ท๋ชจ ์ฌ์ ํ์ต ์ฐ๊ณ
- 2024: CIReVL โ ํ์ต ์์ด ๊ฒ์; Contrastive Scaling โ ๋์กฐ ํ์ต ํ์ฅ
- 2025: ConText-CIR โ ๊ฐ๋
์ผ๊ด์ฑ ์์ค; OSrCIR โ ํ๋ จ ์์ด ์ผ๋จ๊ณ reasoning;
โโโCOR/CORE โ ๊ฐ์ฒด ์์ค ๊ฒ์ ๋ฐ ๋ถํ
์ด ํ๋ฆ์ ํตํด CIR ์ฐ๊ตฌ๋ ์ ์ ์ ๊ตํด์ง๊ณ , ํํ๋ ฅ๊ณผ ํ์ค์ฑ์ ๊ฐํํ๋ฉฐ ๋ฐ์ ํด์์์ ์ ์ ์ด์ฐ์~~
๐งฉ ๊ฒฐ๋ก
CIRR (ICCV 2021)๋ CIR ๊ณผ์ ๋ฅผ ์ฒ์์ผ๋ก ๋ช ์์ ์ผ๋ก ์ ์ํ๊ณ , ํ์ค์ ๋ฒค์น๋งํฌ๋ฅผ ์ ์ํ ์ ๊ตฌ์ ์ฐ๊ตฌ!!
์ดํ ๋ฑ์ฅํ CIRCO, FashionIQ, CIRPL ๋ฑ์ ๋ฐ์ดํฐ์ ๊ณผ ๋ฐฉ๋ฒ๋ก ๋ค์ ์ด ์ฐ๊ตฌ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๋ฐ์ ๋์์ต๋๋ค.