Learning Relational Dependency Networks for Relation Extraction paper review

논문 링크

introduction

Knowledge base 를 구축하기 위해 관계추출을 위한 KBP slot filling을 사용
관계 추출을 위한 패턴을 학습하기 위해 RDN을 사용하는 파이프라인을 제시
weak supervision, word2vec, joint learning, humn advice 를 사용

image

Knowledge Base Population (KBP) 란?

불완전한 지식 기반 (예 : Freebase 또는 Wikipedia 정보 상자의 구조화 된 정보)과 큰 텍스트 코퍼스 (예 : Wikipedia)를 가져와 지식 기반의 불완전한 요소를 완성하는 작업이다.
즉, 컴퓨터는 텍스트를 “읽고”정보를 얻어야합니다. Stanford는 이 작업의 두 가지 측면에 중점을 두었음.

  • Slot filling Slot이 주어지면 그에 맞는 Value값에 대량의 텍스트를 읽고 정보를 입력하는 것
  • Entity Linking Entity가 주어지면 관계성이 있는 Entity와 연결 하는 것.

Pipeline

image

Features

기존 텍스트는 Stanford CoreNLP Toolkit을 사용해서 Feature를 얻음 + 기존 텍스트를 Word2vec을 사용해서 Feature를 얻음 = 변환된 Feature 는 시스템의 input으로 사용

image

Labeling

Weak supervision 답과 연결된 것은 별로 없다.
그래서 라벨링 실행 → 외부 데이터를 사용해서 매핑 or markov logic network MLN 을 사용해서 라벨링

image MLN이란?
Markov chain은 한 상태의 확률은 단지 그 이전상태에만 의존한다는 것이 핵심.
이를 이용해 각각의 관계성에 대한 확률논리로써 추론을 가능하게 한다.

image

Relational Dependency Networks (RDN)

RDN의 핵심 아이디어는 주변 분포, 즉 아래의 곱으로 랜덤 변수 집합에 대한 결합 분포를 근사하는 것.
image
RDN에서 일반적으로 각 분포는 RPT(관계형 확률 트리)로 표시된다.
이를 순차적인 방식으로 구축된 relational regression trees로 대체 (Blockeel and Raedt 1998)
즉, 단일 트리를 gradient boosted trees 로 대체

image

아래와 같은 Rules 생성 image

Human Advice

사람이 RDN을 통해 나온 결과에서 추가적으로 조건을 달아서 정답에 대한 확률을 도출

image

Joint Learning

RDN안에서 관계가 도출이 되었을때 독립적으로 학습 VS 관계적으로 학습
→ 관계적으로 학습시키니 성능이 향상되었다.

Experiments - Weak Supervision

image

Experiments - Joint learning

image

Experiments - Word2vec

image

Experiments - human advise

image

Experiments

image

Conclusion

  • Knowledge base 를 구축하기 위해 관계 추출을 위한 KBP의 slot filling을 사용
  • 관계 추출을 위한 패턴을 학습하기 위해 RDN을 사용하는 파이프라인을 제시하였다.
  • weak supervision, word2vec, joint learning, human advice 을 각각 적용해 실험하였다.
  • Weak supervision, Word2vec은 큰 효과를 얻지 못함. joint learning도 절반 정도의 성능향상
    그러나 human advise 에는 큰 효과를 보았다.
  • 나중에는 더 깊은 네트워크를 쌓으면 성능이 오를 것 같다고 함.

Leave a comment