Learning Relational Dependency Networks for Relation Extraction paper review
introduction
Knowledge base 를 구축하기 위해 관계추출을 위한 KBP slot filling을 사용
관계 추출을 위한 패턴을 학습하기 위해 RDN을 사용하는 파이프라인을 제시
weak supervision, word2vec, joint learning, humn advice 를 사용
Knowledge Base Population (KBP) 란?
불완전한 지식 기반 (예 : Freebase 또는 Wikipedia 정보 상자의 구조화 된 정보)과 큰 텍스트 코퍼스 (예 : Wikipedia)를
가져와 지식 기반의 불완전한 요소를 완성하는 작업이다.
즉, 컴퓨터는 텍스트를 “읽고”정보를 얻어야합니다. Stanford는 이 작업의 두 가지 측면에 중점을 두었음.
- Slot filling Slot이 주어지면 그에 맞는 Value값에 대량의 텍스트를 읽고 정보를 입력하는 것
- Entity Linking Entity가 주어지면 관계성이 있는 Entity와 연결 하는 것.
Pipeline
Features
기존 텍스트는 Stanford CoreNLP Toolkit을 사용해서 Feature를 얻음 + 기존 텍스트를 Word2vec을 사용해서 Feature를 얻음 = 변환된 Feature 는 시스템의 input으로 사용
Labeling
Weak supervision 답과 연결된 것은 별로 없다.
그래서 라벨링 실행 → 외부 데이터를 사용해서 매핑 or markov logic network MLN 을 사용해서 라벨링
MLN이란?
Markov chain은 한 상태의 확률은 단지 그 이전상태에만 의존한다는 것이 핵심.
이를 이용해 각각의 관계성에 대한 확률논리로써 추론을 가능하게 한다.
Relational Dependency Networks (RDN)
RDN의 핵심 아이디어는 주변 분포, 즉 아래의 곱으로 랜덤 변수 집합에 대한 결합 분포를 근사하는 것.
RDN에서 일반적으로 각 분포는 RPT(관계형 확률 트리)로 표시된다.
이를 순차적인 방식으로 구축된 relational regression trees로 대체 (Blockeel and Raedt 1998)
즉, 단일 트리를 gradient boosted trees 로 대체
아래와 같은 Rules 생성
Human Advice
사람이 RDN을 통해 나온 결과에서 추가적으로 조건을 달아서 정답에 대한 확률을 도출
Joint Learning
RDN안에서 관계가 도출이 되었을때 독립적으로 학습 VS 관계적으로 학습
→ 관계적으로 학습시키니 성능이 향상되었다.
Experiments - Weak Supervision
Experiments - Joint learning
Experiments - Word2vec
Experiments - human advise
Experiments
Conclusion
- Knowledge base 를 구축하기 위해 관계 추출을 위한 KBP의 slot filling을 사용
- 관계 추출을 위한 패턴을 학습하기 위해 RDN을 사용하는 파이프라인을 제시하였다.
- weak supervision, word2vec, joint learning, human advice 을 각각 적용해 실험하였다.
- Weak supervision, Word2vec은 큰 효과를 얻지 못함. joint learning도 절반 정도의 성능향상
그러나 human advise 에는 큰 효과를 보았다. - 나중에는 더 깊은 네트워크를 쌓으면 성능이 오를 것 같다고 함.
Leave a comment