논문리뷰(작성중) - A Survey on In-context Learning

2025. 3. 24. 15:45·공부/논문
목차
  1. 1. Introduction

GPT-3 논문을 읽으며, In-context Learning(ICL)에 대한 설명을 보며 이해가 잘 되지 않았기 때문에, 

관련 서베이 논문을 리뷰하며 ICL에 대한 이해를 해보려고 한다.

 

 

https://arxiv.org/abs/2301.00234

 

A Survey on In-context Learning

With the increasing capabilities of large language models (LLMs), in-context learning (ICL) has emerged as a new paradigm for natural language processing (NLP), where LLMs make predictions based on contexts augmented with a few examples. It has been a sign

arxiv.org


1. Introduction

In-Context Learning(ICL)은 NLP에서 LLM이 몇가지 예제를 통해 작업을 학습하는 새로운 능력을 보여준다.

ICL은 직역한 그대로, context 내에 있는 몇개의 예제로부터 학습하는 것이다. 

 

핵심 아이디어는 analogy(유추)를 통해 학습하는 것이다.

논문에서 소개한 ICL의 예시이다. 

  • k Demonstration Examples: 여러개의 예시가 주어진다. 각 예시는 review와 해당 review의 (Positive or Negative) Sentiment(감정)가 포함되어 있다. ex) "Delicious food!" -> Positive(1)   "The food is awful." -> Negative(0)
  • Template: input이 template으로 정의되어 있다. New Query와 함께 사용되는 template도 있다. 
    ex) "Review: [Text] Sentiment: [Label]"
  • Query: New review가 입력된다.  ex) "Review: Good meal!"
  • Large Language Model(LLM): Template과 input data를 바탕으로 model이 판단하여 output을 생성한다. 
    이때, 보이는 것처럼 Parameter Freeze, 즉 매개변수 학습이 이루어지지 않는다. 
  • 최종 흐름은 다음과 같다. 
    i. Demonstration Examples가 제공된다. 
    ii. New Query가 입력된다. 
    iii. LLM이 주어진 Example 및 Template를 이용해 output를 도출한다.

 

'공부 > 논문' 카테고리의 다른 글

논문리뷰 - Chain of Agents: Large Language Models Collaborating on Long-Context Tasks  (1) 2025.04.14
논문리뷰 - Mixture of Agents Enhances Large Language Model Capabilities (MoA)  (1) 2025.03.24
논문리뷰 - LLM-Pruner: On the Structural Pruning of Large Language Models  (1) 2025.03.17
논문리뷰 - (GPT-1) Improving Language Understandingby Generative Pre-Training  (1) 2025.02.12
논문리뷰 - AN IMAGE IS WORTH 16x16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE (ViT)  (1) 2025.02.06
  1. 1. Introduction
'공부/논문' 카테고리의 다른 글
  • 논문리뷰 - Chain of Agents: Large Language Models Collaborating on Long-Context Tasks
  • 논문리뷰 - Mixture of Agents Enhances Large Language Model Capabilities (MoA)
  • 논문리뷰 - LLM-Pruner: On the Structural Pruning of Large Language Models
  • 논문리뷰 - (GPT-1) Improving Language Understandingby Generative Pre-Training
seungdeng
seungdeng
기록을 해보자
일기장기록을 해보자
  • seungdeng
    일기장
    seungdeng
  • 전체
    오늘
    어제
    • 홈 (25)
      • 프로젝트 (0)
        • AI기반 구인구직 웹사이트 (0)
      • 일상 (0)
        • 주절주절 (0)
        • 여행 (0)
        • 맛집 (0)
      • 공부 (25)
        • 인공지능 (1)
        • 밑바닥부터 시작하는 딥러닝 (16)
        • 논문 (8)
        • LLM의 시대: 언어모델의 혁신과 변화 (0)
  • 블로그 메뉴

    • 홈
    • 태그
    • 방명록
  • 링크

    • GitHub
  • 공지사항

  • 인기 글

  • 태그

    positional embedding
    fine tuning
    GPT
    Zero shot
    Inductive Bias
    Attention
    MLP
    self attention
    MLM
    transformer
    NSP
    논문리뷰
    RNN
    few shot
    vision
    qkv
    Bert
    NLP
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.3
seungdeng
논문리뷰(작성중) - A Survey on In-context Learning

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인
상단으로

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.