NLP 코기
|
[EN] If You’re Considering Deploying Agents in Production, You Must Watch This!
|
12-14 12:08:33
|
12-14 17:05:09
|
x
|
NLP 코기
|
[KO] Agent를 상용을 고려하고 있다면 이 영상을 꼭 보셔야합니다! Agent운영의 철학:AgentOps
|
12-14 11:58:23
|
12-14 17:05:10
|
x
|
NLP 코기
|
[EN] Google’s Introduction to LLM Fundamentals
|
12-14 11:20:09
|
12-14 17:05:10
|
x
|
NLP 코기
|
[KO] Google이 말해주는 LLM학 교양
|
12-14 11:19:08
|
12-14 17:05:11
|
x
|
NLP 코기
|
[KO] 아직도 AI Agent가 뭔지 모르겠다고요? Google이 말해주는 Agent학개론
|
12-13 17:19:12
|
12-13 18:05:09
|
x
|
NLP 코기
|
[EN] Still Not Sure What an AI Agent Is? Google Explains the Basics of Agents
|
12-13 17:19:08
|
12-13 18:05:09
|
x
|
NLP 코기
|
[EN] Introduction to MoE Studies
|
12-08 23:09:42
|
12-09 00:05:09
|
x
|
NLP 코기
|
[KO] MoE학 개론
|
12-08 23:08:07
|
12-09 00:05:09
|
x
|
NLP 코기
|
[EN] From LLMs to Multimodality…
|
12-08 22:37:08
|
12-08 23:05:09
|
x
|
NLP 코기
|
[KO] LLM부터 멀티모달까지...
|
12-08 22:36:06
|
12-08 23:05:09
|
x
|
NLP 코기
|
[EN] DeepSeek v3.2 — An Open Model on Par with Gemini 3.0?
|
12-08 19:11:43
|
12-08 20:05:09
|
x
|
NLP 코기
|
[KO] Deepseek v3.2 - Gemini 3.0 급 오픈 모델?
|
12-08 19:10:33
|
12-08 20:05:09
|
x
|
NLP 코기
|
[EN] Kimi K2 : Hints About the Agentic Model
|
12-08 18:47:50
|
12-08 19:05:09
|
x
|
NLP 코기
|
[KO] Kimi K2 에이전틱 모델에 대한 힌트
|
12-08 18:46:03
|
12-08 19:05:10
|
x
|
NLP 코기
|
[EN] Google’s Perspective on Prompt Engineering
|
12-07 19:25:32
|
12-07 20:05:09
|
x
|
NLP 코기
|
[KO] Google이 말하는 Prompt Engineering
|
12-07 19:25:00
|
12-07 20:05:10
|
x
|
NLP 코기
|
[EN] Google’s Perspective on Agent Evaluation
|
12-07 19:05:05
|
12-07 19:05:09
|
x
|
NLP 코기
|
[KO] Google이 말하는 Agent 평가
|
12-07 19:03:53
|
12-07 19:05:10
|
x
|
NLP 코기
|
[EN] Google’s Take on Context Engineering
|
12-07 18:32:00
|
12-07 19:05:10
|
x
|
NLP 코기
|
[KO] Google이 말하는 Context Engineering
|
12-07 18:30:35
|
12-07 19:05:11
|
x
|
NLP 코기
|
[EN] Google’s Perspective on Agentic AI Tools
|
12-07 16:16:49
|
12-07 17:05:09
|
x
|
NLP 코기
|
[KO] Google이 말하는 Agentic AI의 Tool | 꼬리의 꼬리를 무는 페이퍼
|
12-07 16:15:16
|
12-07 17:05:10
|
x
|
NLP 코기
|
[KO] 스스로 진화하며 학습하는 LLM? | 꼬리의 꼬리를 무는 페이퍼
|
12-06 21:29:09
|
12-06 22:05:09
|
x
|
NLP 코기
|
[EN] An LLM That Evolves and Learns on Its Own?(Guided Self-Evolving LLMs with Minimal Human )
|
12-06 21:27:11
|
12-06 22:05:09
|
x
|
NLP 코기
|
[EN] Applying RL to Pretraining? (PretrainZero: Reinforcement Active Pretraining)
|
12-06 20:36:35
|
12-06 21:05:09
|
x
|
NLP 코기
|
[KO] Pretraining에 RL을 적용한다? | 꼬리의 꼬리를 무는 페이퍼
|
12-06 20:35:24
|
12-06 21:05:10
|
x
|
NLP 코기
|
[EN] A Realistic Environment for Training Agents? | A Paper That Leads to Another
|
12-06 01:53:59
|
12-06 02:05:08
|
x
|
NLP 코기
|
[KO] 에이전트를 학습시킬 수 있는 리얼한 환경? | 꼬리의 꼬리를 무는 페이퍼
|
12-06 01:51:50
|
12-06 02:05:09
|
x
|
NLP 코기
|
[EN] ToolOrchestra: Elevating Intelligence via Efficient Model and Tool Orchestration | DeepDive
|
12-05 22:38:40
|
12-05 23:05:09
|
x
|
NLP 코기
|
[KO] 엔비디아가 만든 오케스트레이터 모델 (ToolOrchestra: Elevating Intelligence via Efficient Model and Tool) 꼬꼬페
|
12-05 22:36:22
|
12-05 23:05:10
|
x
|
NLP 코기
|
OpenAI가 말하는 AI Agents 가이드북 (A practical guide to building agents) | 꼬꼬엔
|
05-12 23:18:07
|
05-13 00:05:19
|
x
|
NLP 코기
|
Google이 말하는 AI Agents (Google AI Agents Whitepaper) | 꼬꼬엔
|
05-10 01:26:04
|
05-10 02:05:22
|
x
|
NLP 코기
|
LLM이 도구를 쓰게 트레이닝해봐요. (ToolLLM: Facilitating Large Language Models to Master 16000+ ...) | 꼬꼬엔
|
03-23 23:29:41
|
03-24 00:05:21
|
x
|
NLP 코기
|
Query Routing으로 LLM을 골라써요. (Routing to the Expert: Efficient Reward-guided Ensemble of ...) | 꼬꼬엔
|
03-22 23:46:26
|
03-23 00:05:20
|
x
|
NLP 코기
|
Query routing으로 Retriever를 골라써요. (Query Routing for Homogeneous Tools: An Instantiation ...) | 꼬꼬엔
|
03-18 23:45:35
|
03-19 00:05:22
|
x
|
NLP 코기
|
MoE를 넘어 Multi of Agents (Mixture-of-Agents Enhances Large Language Model Capabilities) | 꼬꼬엔
|
03-17 00:34:37
|
03-17 03:05:21
|
x
|
NLP 코기
|
Recursive Retrieval (RAPTOR: Recursive Abstractive Processing for Tree-Organized Retrieval) | 꼬꼬엔
|
01-22 20:44:28
|
01-22 21:05:22
|
x
|
NLP 코기
|
Text를 넘어서 Video로 RAG (VideoRAG: Retrieval-Augmented Generation over Video Corpus) | 꼬꼬엔
|
01-21 22:14:24
|
01-21 23:05:19
|
x
|
NLP 코기
|
Chain of Thought로 Retrieval 성능 향상시키기 (Interleaving Retrieval with Chain-of-Thought ...) | 꼬꼬엔
|
11-12 21:11:09
|
11-12 22:05:21
|
x
|
NLP 코기
|
시간을 고려하는 Retrieval (Time-sensitive Retrieval-Augmented Generation for Question Answering) | 꼬꼬엔
|
11-07 23:56:31
|
11-08 00:05:19
|
x
|
NLP 코기
|
반복적 긴 문서 압축과 RAG 성능 향상 (COMPACT: Compressing Retrieved Documents Actively for Question ...) | 꼬꼬엔
|
10-11 02:32:37
|
10-11 03:05:19
|
x
|
NLP 코기
|
Speculative RAG (Speculative RAG: Enhancing Retrieval AugmentedGeneration through Drafting) | 꼬꼬엔
|
09-25 01:23:43
|
09-30 21:05:19
|
x
|
NLP 코기
|
RAG는 오타에 취약하다 (Typos that Broke the RAG’s Back: Genetic Attack on RAG Pipeline by ...) | NLP 코기
|
09-16 18:30:24
|
09-30 21:05:19
|
x
|
NLP 코기
|
Domain-specific RAG를 위한 LLM 파인튜닝 (RAFT: Adapting Language Model to Domain Specific RAG) | NLP 코기
|
09-10 02:25:16
|
09-30 21:05:19
|
x
|
NLP 코기
|
Graph RAG (From Local to Global: A Graph RAG Approach toQuery-Focused Summarization) | NLP 코기
|
08-22 01:53:58
|
09-30 21:05:19
|
x
|
NLP 코기
|
학습 없이 리랭커만을 이용해서 RAG 성능과 효율을 늘리는 방법 (DSLR: Document Refinement with Sentence-Level... ) | NLP 코기
|
08-13 01:54:58
|
08-13 02:05:08
|
x
|
NLP 코기
|
LLM의 인퍼런스 속도를 2배 이상 높여주는 Speculative Decoding(Accelerating Large Language Model Decoding with..)|꼬꼬엔
|
07-12 03:11:55
|
07-12 06:05:19
|
x
|
NLP 코기
|
Instruction-finetuned한 Embedding[One Embedder, Any Task: Instruction-Finetuned Text Embeddings]|꼬꼬엔
|
06-19 00:29:24
|
06-19 02:05:21
|
x
|
NLP 코기
|
RAG말고 Gen-read[Generate rather than Retrieve: Large Language Models are Strong Context ...]|꼬꼬엔
|
05-24 01:54:37
|
05-24 02:05:21
|
x
|
NLP 코기
|
LLM은 훌륭한 Document 리랭커다[Large Language Models are Effective Text Rankers with Pairwise Ranking..]|꼬꼬엔
|
04-13 18:15:15
|
05-16 23:30:57
|
x
|
NLP 코기
|
RAG에서 Query에 따라서 다른 전략으로 Retrieval 하자[Adaptive-RAG: Learning to Adapt Retrieval-Augmented ...]|꼬꼬엔
|
04-03 23:41:21
|
05-16 23:30:57
|
x
|
NLP 코기
|
얼마나 작은 단위로 검색해야 할까요?[Dense X Retrieval: What Retrieval Granularity Should We Use?]|꼬꼬엔
|
03-27 22:25:54
|
05-16 23:30:57
|
x
|
NLP 코기
|
기나긴 프롬프트, RAG로 해결하자.[Retrieval meets Long Context Large Language Models]|꼬꼬엔
|
03-22 21:52:28
|
05-16 23:30:57
|
x
|
NLP 코기
|
ChatGPT가 프롬프트 중간 정보를 활용하지 못한다고?![Lost in the Middle: How Language Models Use Long Contexts]|꼬꼬엔
|
03-11 02:18:09
|
05-16 23:30:57
|
x
|
NLP 코기
|
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-2[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
|
02-06 22:44:00
|
05-16 23:30:57
|
x
|
NLP 코기
|
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-1[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
|
02-06 22:26:48
|
05-16 23:30:57
|
x
|
NLP 코기
|
스스로 자신을 평가하는 RAG?-2[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]
|
01-16 22:10:44
|
05-16 23:30:57
|
x
|
NLP 코기
|
스스로 자신을 평가하는 RAG?[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]|꼬꼬엔
|
01-15 15:28:08
|
05-16 23:30:57
|
x
|
NLP 코기
|
어떻게 AI 논문을 읽어야 할까요?[How to Read a Paper?]|꼬꼬엔
|
01-12 17:28:43
|
05-16 23:30:57
|
x
|
NLP 코기
|
Q: Bias-variance trade off에 대해서 설명해주시겠어요? 그리고 이는 머신러닝 모델의 성능에 어떤 영향을 미칠까요? |꼬꼬면
|
01-09 00:25:56
|
05-16 23:30:57
|
x
|