NLP 코기
|
Graph RAG (From Local to Global: A Graph RAG Approach toQuery-Focused Summarization) | NLP 코기
|
2024-08-22 01:53:58
|
2024-09-30 21:05:19
|
x
|
NLP 코기
|
학습 없이 리랭커만을 이용해서 RAG 성능과 효율을 늘리는 방법 (DSLR: Document Refinement with Sentence-Level... ) | NLP 코기
|
2024-08-13 01:54:58
|
2024-08-13 02:05:08
|
x
|
NLP 코기
|
LLM의 인퍼런스 속도를 2배 이상 높여주는 Speculative Decoding(Accelerating Large Language Model Decoding with..)|꼬꼬엔
|
2024-07-12 03:11:55
|
2024-07-12 06:05:19
|
x
|
NLP 코기
|
Instruction-finetuned한 Embedding[One Embedder, Any Task: Instruction-Finetuned Text Embeddings]|꼬꼬엔
|
2024-06-19 00:29:24
|
2024-06-19 02:05:21
|
x
|
NLP 코기
|
RAG말고 Gen-read[Generate rather than Retrieve: Large Language Models are Strong Context ...]|꼬꼬엔
|
2024-05-24 01:54:37
|
2024-05-24 02:05:21
|
x
|
NLP 코기
|
LLM은 훌륭한 Document 리랭커다[Large Language Models are Effective Text Rankers with Pairwise Ranking..]|꼬꼬엔
|
2024-04-13 18:15:15
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
RAG에서 Query에 따라서 다른 전략으로 Retrieval 하자[Adaptive-RAG: Learning to Adapt Retrieval-Augmented ...]|꼬꼬엔
|
2024-04-03 23:41:21
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
얼마나 작은 단위로 검색해야 할까요?[Dense X Retrieval: What Retrieval Granularity Should We Use?]|꼬꼬엔
|
2024-03-27 22:25:54
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
기나긴 프롬프트, RAG로 해결하자.[Retrieval meets Long Context Large Language Models]|꼬꼬엔
|
2024-03-22 21:52:28
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
ChatGPT가 프롬프트 중간 정보를 활용하지 못한다고?![Lost in the Middle: How Language Models Use Long Contexts]|꼬꼬엔
|
2024-03-11 02:18:09
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-2[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
|
2024-02-06 22:44:00
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
불필요한 내용을 줄이면 RAG가 성능이 올라간다고?!-1[RECOMP: IMPROVING RETRIEVAL-AUGMENTED LMS WITH COMPRESSION ...]|꼬꼬엔
|
2024-02-06 22:26:48
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
스스로 자신을 평가하는 RAG?-2[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]
|
2024-01-16 22:10:44
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
스스로 자신을 평가하는 RAG?[SELF-RAG: LEARNING TO RETRIEVE, GENERATE, ANDCRITIQUE THROUGH SELF-REFLECTION]|꼬꼬엔
|
2024-01-15 15:28:08
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
어떻게 AI 논문을 읽어야 할까요?[How to Read a Paper?]|꼬꼬엔
|
2024-01-12 17:28:43
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: Bias-variance trade off에 대해서 설명해주시겠어요? 그리고 이는 머신러닝 모델의 성능에 어떤 영향을 미칠까요? |꼬꼬면
|
2024-01-09 00:25:56
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: 이미지 인식을 위해 컨볼루션 신경망(CNN)을 구현하는 방법을 설명하세요. CNN의 주요 레이어는 무엇이며 이미지 처리에 어떻게 기여하나요? |꼬꼬면
|
2024-01-06 00:09:00
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT의 할루시네이션을 줄이고 최신 지식을 업데이트 시킬 수 있다고?(RAG)-2[Retrieval-Augmented Generation for Knowledge-....]|꼬꼬엔
|
2024-01-04 02:27:04
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT의 할루시네이션을 줄이고 최신 지식을 업데이트 시킬 수 있다고?(RAG)[Retrieval-Augmented Generation for Knowledge-....]-1|꼬꼬엔
|
2024-01-04 02:08:00
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: Cross validation과 boot strapping과 같은 기술은 머신러닝 모델에서 오버피팅과 언더피팅을 확인하고 방지하는데 어떻게 도움이 됩니까? |꼬꼬면
|
2024-01-02 23:16:29
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: 머신러닝에서 overfitting과 underfitting에 대해서 설명해주세요. |꼬꼬면
|
2024-01-01 23:51:09
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: GPT 모델은 어떤 한계가 있으며 real-world applications에 어떤 영향을 끼칩니까? |꼬꼬면
|
2023-12-31 23:41:54
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: GPT란 무엇이며 아키텍처 및 애플리케이션 측면에서 BERT와 어떻게 다른가요? |꼬꼬면
|
2023-12-30 23:48:26
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: Word Embeddings과 같은 다른 텍스트 벡터화 기술과 TF-IDF를 비교하고, 어떤 상황에서 어떻게 써야하는지 알려주세요.|꼬꼬면
|
2023-12-30 00:21:11
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: TF-IDF가 무엇이며 어떻게 계산합니까?|꼬꼬면
|
2023-12-29 00:12:43
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: 트랜스포머 모델의 Self-Attention은 LSTM 기반의 seq2seq와 같은 이전 모델에서 사용했던 Attention과 어떻게 다릅니까?|꼬꼬면
|
2023-12-26 14:05:15
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Q: 트랜스포머 모델과 NLP에서 트랜스포머가 갖는 의미에 대해서 설명하세요.|꼬꼬면
|
2023-12-25 12:37:52
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
ChatGPT에서 긴 프롬프트를 더 좋게 압축해보자-2[LongLLMLingua: ACCELERATING AND ENHANCING LLMS IN LONG ...]|꼬꼬엔
|
2023-12-24 22:02:48
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
ChatGPT에서 긴 프롬프트를 더 좋게 압축해보자[LongLLMLingua: ACCELERATING AND ENHANCING LLMS IN LONG CONTEXT ...]|꼬꼬엔
|
2023-12-24 21:27:20
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
ChatGPT에서 Prompt를 압축해서 API비를 줄이자![LLMLingua: Compressing Prompts for Accelerated Inference ....]|꼬꼬엔
|
2023-11-02 13:05:01
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
LLM끼리 앙상블!?[LLM-BLENDER: Ensembling Large Language Models with Pairwise Ranking and Generati...]|꼬꼬엔
|
2023-10-23 15:50:18
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT와 Python의 환상의 콜라보[PAL: Program-aided Language Models] | 꼬꼬엔
|
2023-10-02 15:48:35
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT가 스스로 정답을 검토한다.[Large Language Models are Better Reasoners with Self-Verification] | | 꼬꼬엔
|
2023-09-18 00:17:34
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT의 성능을 36% 늘리는 방법. GPT가 점점 더 똑똑해진다?[SELF-REFINE: Iterative Refinement with Self-Feedback] | | 꼬꼬엔
|
2023-08-21 14:05:16
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
Chain of Thought의 시대는 끝났다. 프롬프트의 신 혁명[UNLEASHING COGNITIVE SYNERGY IN LARGE LANGUAGE MODELS..] | 꼬꼬엔
|
2023-08-10 13:39:03
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT야, 너 혹시 T야?? [Do LLMs Possess a Personality? Making the MBTI Test an Amazing Evaluation...] | 꼬꼬엔
|
2023-08-04 11:06:50
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT는 이미 프롬프트 엔지니어다. [Large Language Models are Human-Level Prompt Engineers] | 꼬꼬엔
|
2023-08-02 00:48:19
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
프롬프트 엔지니어링의 종말!? GPT가 스스로 프롬프트를 만든다? [Automatic Prompt Optimization] | 꼬꼬엔
|
2023-07-26 23:24:18
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
사람의 말을 단 1000개의 데이터만으로 알아들을 수 있는 GPT? [LIMA: Less Is More for Alignment]| 꼬꼬엔
|
2023-07-15 15:07:59
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT에게 더 어려운 문제를 풀게하자. [ Tree of Thoughts:Deliberate Problem Solving with Large Language Models]| 꼬꼬엔
|
2023-07-10 22:10:19
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT가 스스로 똑똑해진다!? [ Generated Knowledge Prompting for Commonsense Reasoning]| 꼬꼬엔
|
2023-05-29 13:57:28
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT는 수학을 못한다? 수학을 잘하게 하자 2탄[Self-Consistency Improves Chain of Thought Reasoning in Language Models]
|
2023-05-22 13:02:51
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT는 수학을 못한다? 수학을 잘하게 하자[Chain-of-Thought Prompting Elicits Reasoning in Large Language Models]|꼬꼬엔
|
2023-05-16 01:53:53
|
2024-05-16 23:30:57
|
x
|
NLP 코기
|
GPT와 효율적으로 대화하는 법 : 두 가지 원칙만 알면 GPT 200% 활용 가능![프롬프트 엔지니어링] | 꼬꼬엔
|
2023-05-08 01:38:24
|
2024-05-16 23:30:57
|
x
|