×
📋
Loading text ...
🌓
odevtube: 개발 관련 유튜브
검색
esc X
NLP 코기
2025-12-14
[EN] Google’s Introduction to LLM Fundamentals
NLP 코기
2025-12-14
[KO] Google이 말해주는 LLM학 교양
NLP 코기
2025-12-13
[KO] 아직도 AI Agent가 뭔지 모르겠다고요? Google이 말해주는 Agent학개론
NLP 코기
2025-12-13
[EN] Still Not Sure What an AI Agent Is? Google Explains the Basics of Agents
NLP 코기
2025-12-08
[EN] Introduction to MoE Studies
NLP 코기
2025-12-08
[KO] MoE학 개론
NLP 코기
2025-12-08
[EN] From LLMs to Multimodality…
NLP 코기
2025-12-08
[KO] LLM부터 멀티모달까지...
NLP 코기
2025-12-08
[EN] DeepSeek v3.2 — An Open Model on Par with Gemini 3.0?
NLP 코기
2025-12-08
[KO] Deepseek v3.2 - Gemini 3.0 급 오픈 모델?
NLP 코기
2025-12-08
[EN] Kimi K2 : Hints About the Agentic Model
NLP 코기
2025-12-08
[KO] Kimi K2 에이전틱 모델에 대한 힌트
NLP 코기
2025-12-07
[EN] Google’s Perspective on Prompt Engineering
NLP 코기
2025-12-07
[KO] Google이 말하는 Prompt Engineering
NLP 코기
2025-12-07
[EN] Google’s Perspective on Agent Evaluation
NLP 코기
2025-12-07
[KO] Google이 말하는 Agent 평가
NLP 코기
2025-12-07
[EN] Google’s Take on Context Engineering
NLP 코기
2025-12-07
[KO] Google이 말하는 Context Engineering
NLP 코기
2025-12-07
[EN] Google’s Perspective on Agentic AI Tools
NLP 코기
2025-12-07
[KO] Google이 말하는 Agentic AI의 Tool | 꼬리의 꼬리를 무는 페이퍼
NLP 코기
2025-12-06
[KO] 스스로 진화하며 학습하는 LLM? | 꼬리의 꼬리를 무는 페이퍼
NLP 코기
2025-12-06
[EN] An LLM That Evolves and Learns on Its Own?(Guided Self-Evolving LLMs with Minimal Human )
NLP 코기
2025-12-06
[EN] Applying RL to Pretraining? (PretrainZero: Reinforcement Active Pretraining)
NLP 코기
2025-12-06
[KO] Pretraining에 RL을 적용한다? | 꼬리의 꼬리를 무는 페이퍼
NLP 코기
2025-12-06
[EN] A Realistic Environment for Training Agents? | A Paper That Leads to Another
NLP 코기
2025-12-06
[KO] 에이전트를 학습시킬 수 있는 리얼한 환경? | 꼬리의 꼬리를 무는 페이퍼
NLP 코기
2025-12-05
[EN] ToolOrchestra: Elevating Intelligence via Efficient Model and Tool Orchestration | DeepDive
NLP 코기
2025-12-05
[KO] 엔비디아가 만든 오케스트레이터 모델 (ToolOrchestra: Elevating Intelligence via Efficient Model and Tool) 꼬꼬페
NLP 코기
2025-05-12
OpenAI가 말하는 AI Agents 가이드북 (A practical guide to building agents) | 꼬꼬엔
NLP 코기
2025-05-10
Google이 말하는 AI Agents (Google AI Agents Whitepaper) | 꼬꼬엔
NLP 코기
2025-03-23
LLM이 도구를 쓰게 트레이닝해봐요. (ToolLLM: Facilitating Large Language Models to Master 16000+ ...) | 꼬꼬엔
NLP 코기
2025-03-22
Query Routing으로 LLM을 골라써요. (Routing to the Expert: Efficient Reward-guided Ensemble of ...) | 꼬꼬엔
NLP 코기
2025-03-18
Query routing으로 Retriever를 골라써요. (Query Routing for Homogeneous Tools: An Instantiation ...) | 꼬꼬엔
NLP 코기
2025-03-17
MoE를 넘어 Multi of Agents (Mixture-of-Agents Enhances Large Language Model Capabilities) | 꼬꼬엔
NLP 코기
2025-01-22
Recursive Retrieval (RAPTOR: Recursive Abstractive Processing for Tree-Organized Retrieval) | 꼬꼬엔
NLP 코기
2025-01-21
Text를 넘어서 Video로 RAG (VideoRAG: Retrieval-Augmented Generation over Video Corpus) | 꼬꼬엔
NLP 코기
2024-11-12
Chain of Thought로 Retrieval 성능 향상시키기 (Interleaving Retrieval with Chain-of-Thought ...) | 꼬꼬엔
NLP 코기
2024-11-07
시간을 고려하는 Retrieval (Time-sensitive Retrieval-Augmented Generation for Question Answering) | 꼬꼬엔
NLP 코기
2024-10-11
반복적 긴 문서 압축과 RAG 성능 향상 (COMPACT: Compressing Retrieved Documents Actively for Question ...) | 꼬꼬엔
NLP 코기
2024-09-25
Speculative RAG (Speculative RAG: Enhancing Retrieval AugmentedGeneration through Drafting) | 꼬꼬엔
NLP 코기
2024-09-16
RAG는 오타에 취약하다 (Typos that Broke the RAG’s Back: Genetic Attack on RAG Pipeline by ...) | NLP 코기
NLP 코기
2024-09-10
Domain-specific RAG를 위한 LLM 파인튜닝 (RAFT: Adapting Language Model to Domain Specific RAG) | NLP 코기
NLP 코기
2024-08-22
Graph RAG (From Local to Global: A Graph RAG Approach toQuery-Focused Summarization) | NLP 코기
NLP 코기
2024-08-13
학습 없이 리랭커만을 이용해서 RAG 성능과 효율을 늘리는 방법 (DSLR: Document Refinement with Sentence-Level... ) | NLP 코기
NLP 코기
2024-07-12
LLM의 인퍼런스 속도를 2배 이상 높여주는 Speculative Decoding(Accelerating Large Language Model Decoding with..)|꼬꼬엔
NLP 코기
2024-06-19
Instruction-finetuned한 Embedding[One Embedder, Any Task: Instruction-Finetuned Text Embeddings]|꼬꼬엔
NLP 코기
2024-05-24
RAG말고 Gen-read[Generate rather than Retrieve: Large Language Models are Strong Context ...]|꼬꼬엔
NLP 코기
2024-04-13
LLM은 훌륭한 Document 리랭커다[Large Language Models are Effective Text Rankers with Pairwise Ranking..]|꼬꼬엔
NLP 코기
2024-04-03
RAG에서 Query에 따라서 다른 전략으로 Retrieval 하자[Adaptive-RAG: Learning to Adapt Retrieval-Augmented ...]|꼬꼬엔
NLP 코기
2024-03-27
얼마나 작은 단위로 검색해야 할까요?[Dense X Retrieval: What Retrieval Granularity Should We Use?]|꼬꼬엔
NLP 코기
2024-03-22
기나긴 프롬프트, RAG로 해결하자.[Retrieval meets Long Context Large Language Models]|꼬꼬엔
NLP 코기
2024-03-11
ChatGPT가 프롬프트 중간 정보를 활용하지 못한다고?![Lost in the Middle: How Language Models Use Long Contexts]|꼬꼬엔
NLP 코기
2024-02-06
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-2[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
NLP 코기
2024-02-06
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-1[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
NLP 코기
2024-01-16
스스로 자신을 평가하는 RAG?-2[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]
NLP 코기
2024-01-15
스스로 자신을 평가하는 RAG?[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]|꼬꼬엔
NLP 코기
2024-01-12
어떻게 AI 논문을 읽어야 할까요?[How to Read a Paper?]|꼬꼬엔
NLP 코기
2024-01-09
Q: Bias-variance trade off에 대해서 설명해주시겠어요? 그리고 이는 머신러닝 모델의 성능에 어떤 영향을 미칠까요? |꼬꼬면
NLP 코기
2024-01-06
Q: 이미지 인식을 위해 컨볼루션 신경망(CNN)을 구현하는 방법을 설명하세요. CNN의 주요 레이어는 무엇이며 이미지 처리에 어떻게 기여하나요? |꼬꼬면
NLP 코기
2024-01-04
GPT의 할루시네이션을 줄이고 최신 지식을 업데이트 시킬 수 있다고?(RAG)-2[Retrieval-Augmented Generation for Knowledge-....]|꼬꼬엔
First
Previous
1
2
3
Next
Last
-
삽질없이 쉽게 따라하는 윈도우 개발 환경 셋업: https://inf.run/9Y2oY
-
VS Code에서 쉽게 사용하는 Git: https://inf.run/LPpDg
,
Udemy
-
React + API Server 프로젝트 개발과 배포 (CI/CD): https://inf.run/DsVWz
subscribe
top
* Contact:
[email protected]
, OKdevTV:
https://youtube.com/@KenuHeo