[Conversational AI 9강] Open-Domain Dialogue systems 2

2024. 7. 7. 13:25·Study Record/AI Data Science
목차
  1. 1. DialoGPT
  2. 2. LaMDA

서울대 조요한 교수님 Conversational AI 9강 정리

 

1. DialoGPT

2020년 개발

GPT-2를 conversational data에 학습

no fine-tuning

 

1) pre-training 

데이터셋 = reddit 데이터 속 (post + comment + comment의 comment)를 하나의 dialogue로 간주

 

2) Inference

(1) Greedy Decoding = 가장 확률 높은 애 내뱉는

-> 문제점: 앞쪽 단어 등장 확률이 낮으면 전체적으로 좋은 response임에도 불구하고 output으로 나올 수 없음

(2) Beam Search = after each decoding step, keep at most K (partial) responses with the highest probability

 

3) Promoting response diversity

(1) maximum mutual information (MMI)

= reverse language modeling

= response가 주어졌을 때 앞에 해당 context가 나올 확률

[질문]

P("I love movies" | "OK")를 구하게 되면

분자가 P("I love movies <s> OK") 와 같은 형태가 되나요?

그냥 위 사진과 같은 공식이면

I love movies가 OK 앞에 나올 확률 뒤에 나올 확률 전부 합하는 꼴이 되지 않나요?

 

4) evaluation

(1) DSTC-7 test

[질문]

1. pretraining dataset도 똑같이 reddit이 source인데 evaluation이 제대로 되었다 평가될 수 있는지

2. 사람들은 의도적으로 다른 사람과 비슷하지 않은 답변을 달려고 할테니까 모델의 response와 더욱 정확한 비교를 하려면 기존에 있던 comment 데이터 중 하나를 human response로 간주하는 게 아니라 기존의 ground truth를 보지 않고 모델이 답변 생성한 것처럼 실제 사람도 새로운 답변을 작성하여 새로운 실험 데이터를 만들어야하지 않았을까 궁금합니다.

 

(2) reddit multi-reference dataset

1) relevance

2) informative

3) human-like

성능은

DialoGPT + MMI > Human > DialoGPT > DialoGPT + Beam 순으로 좋았다.

 

2. LaMDA

limitations of purely LM-based systems -> Nonsensical, Rude, Incorrect

을 극복하기 위해

 

구글이

Language Model for Dialogue Applications 개발!

 

1) 3 main goals: quality, safety, groundedness

 

(1) quality

a. sensible: 자기 모순 안됨

b. specific: general한 response 안됨

c. interesting

 

(2) Groundedness: 출처 명확해야

 

2) self evaluation during inference

(1) beam search로 candidate responses 만들고

(2) 각 candidate response들을 위 quality 기준으로 평가 -> 가장 점수 높은 response를 최종으로 선택 (평가 finetuning)

 

[질문]

 왜 sensible score에만 곱하기 3 하나요? 

중요도? 어떤 기준을 근거로?

질문 유형에 따라 sensible 보다 interesting이 더 중요할 수도 있지 않나?

 

3) generative(pre-training) + discriminative (fine-tuning)

4) grounding in tools during inference

while generating a response, LaMDA use external tools

toolset(TS): consists of a calculator, a translator, and an information retrieval system

grounding 과정도 finetuning 시켜야 함

  1. 1. DialoGPT
  2. 2. LaMDA
'Study Record/AI Data Science' 카테고리의 다른 글
  • [Conversational AI 12강] Grounding in knowledge
  • [Conversational AI 10, 11강] ChatGPT, Grounding in Tools
  • [Conversational AI 7, 8강] CoT and Open-Domain Dialogue Systems 1
  • [Conversational AI 6강] Instruction Tuning
Sungyeon Kim
Sungyeon Kim
goldstaryeon@sookmyung.ac.kr
Sungyeon Kim
Sungyeon Kim
Sungyeon Kim
전체
오늘
어제
  • 분류 전체보기 (605)
    • Paper Review (30)
    • Research Record (9)
    • Study Record (143)
      • Cybersecurity (79)
      • AI Data Science (28)
      • Computer Science (24)
      • Linear Algebra (6)
      • SQL (5)
      • LaTeX (1)
    • English Transcription (256)
    • 한글 필사 (91)
    • 날것 그대로의 생각들 (72)

인기 글

최근 댓글

최근 글

hELLO· Designed By정상우.v4.5.3
Sungyeon Kim
[Conversational AI 9강] Open-Domain Dialogue systems 2
상단으로

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.