[paper Review] GNNExplainer: Generating Explanations for Graph Neural Networks

Paper Review
작성자
Hoonsang Yoon
작성일
2021-02-24 05:06
조회
295
1. Topic
  • Graph Neural Network의 Prediction을 설명할 수 있는 GNN XAI 기법의 포문을 연 GNN Explainer를 소개합니다.
2. Overview
  • 머신러닝 / 딥러닝 모델을 연구하여 분류 / 예측과 같은 Task의 성능을 올리는 것도 중요하지만, 해당 모델들의 행동에 대한 설명 또한 중요합니다. 신뢰할 수 없는 모델은 쓰이지 못하며, 모델의 행동을 살펴보는 것을 통해 잘못된 행동을 교정할 수 있기 때문입니다. 이를 위해 XAI 기법 중, 최근에는 특정한 모델에 국한되지 않는 Model-Agnostic XAI인 LIME / SHAP이 많이 사용되지만, 해당 기법들은 Graph와 같은 Relational Data를 설명하는 데에 부족합니다.
  • 이에 GNN Explainer가 나타났으며, 이는 GNN Model에 대하여 Agnostic하여 보편적 GNN 기법의 (Message / Aggregate / Update) 단계를 거치는 모델에 대해서 설명할 수 있는 기법입니다. 또한 기존의 XAI는 데이터의 Feature에 대한 설명에 국한되어 있다면, GNN XAI는 노드의 Feature와 더불어, 하나의 노드를 분류하거나 Embedding을 구성함에 있어 어떤 이웃 노드들이 활용되었는지 설명합니다. GNN Explainer는 Adjacency Matrix에 Masking을 얹는 방식으로 최적의 Subgraph를 얻는 것을 목표로 하고, 최적의 Mask를 얻는 과정 속에 Variational Inference가 근간이 됩니다.
  • 해당 논문은 2019년의 GNN XAI의 최초의 시도이기에 현재는 Baseline으로 사용되지만, GNN을 설명하기 위해 어떤 접근을 해야하는지, 그리고 어떻게 실험을 해야 하는 지에 대한 포문을 연 것에 큰 Contribution을 갖고 있습니다.
3. 발표자료 및 발표영상
  • 발표 자료: 첨부파일 참고
  • 발표 영상: (Link)
4. 참고 문헌
  • GNNExplainer: Generating Explanations for Graph Neural Networks (Ying et al. 2019, NeurIPS)
  • Explainability in Graph Neural Networks: A Taxonomic Survey (Yuan et al. 2020)
전체 8

  • 2021-03-25 19:13

    그래프가 현실의 많은 상황을 잘 구조화하는 만큼 이에 대한 해석도 중요한 이슈라 생각합니다. 그런 의미에서 발표해주신 gnn explainer는 앞으로도 많은 발전이 기대되는 논문이었습니다. 기존 xai 기법들과의 비교, 현실 상황에서의 예시 등을 적절하게 들어 주셔서 보다 쉽게 이해할 수 있었던 것 같습니다. 그래프에서의 설명력이라 함은 예측에 가장 영향을 주는 subgraph를 찾는 것이며, 기존 input graph와 인위적으로 mask를 씌운 graph 간의 consistency loss를 학습하면서 masking function을 학습합니다. 그리고 이 학습된 masking function이 그래프의 예측값에 영향을 미치는 subgraph를 찾는 역할을 합니다. 본 방법론은 특히 추천시스템과 결합하였을 때 좋은 시너지를 낸다고 생각되어 관련된 연구를 진행하셔도 매우 흥미로울 것 같습니다. 발표 잘 들었습니다.


  • 2021-04-01 20:56

    오늘 세미나는 GNN Explainer에 대한 내용으로 진행되었습니다. Explainable AI는 model을 설명해주는 역할을 하는데, 기존의 LIME, SHAP 등의 방법론들은 node 간의 관계 등 그래프의 특성을 반영하지 못하기 때문에 그래프에 특화된 explainer가 필요합니다. prediction에 큰 영향을 주는 이웃 node들을 subgraph라고 했을 때, 이들에게 설명력이 있다고 할 수 있고 subgraph는 인접행렬에 perturbation을 줘서 만들 수 있습니다. 이를 masked input graph라고도 하는데 이 그래프를 input으로 넣어 prediction output을 얻고, 기존 input에 대해서도 prediction output을 얻습니다. 이를 object function에 의해 adjacency mask generation algorithm을 update합니다. 이 과정은 mutual information이 가장 큰 subgraph를 선택하여 이 subgraph가 주어졌을 때 entropy, 즉 model의 불확실성을 줄이는 방향으로 이루어집니다.

    model의 종류나 task 종류에 상관없이 model의 설명력을 얻기 위해 사용할 수 있다는 점에서 유의미한 연구 분야인 것 같습니다. 좋은 발표 감사합니다.


  • 2021-02-24 20:06

    금일 세미나시간에는 연구실 첫 세미나를 수행하게 된 윤훈상 석사과정이 GNN Explainer: Generation Explanation for Graph Neural Network라는 주제를 다루어 보았습니다. 평소에 관심가지고 지켜보는 Graph 관련 논문이기에 더욱 관심을 가지고 참관하였으며, 세미나를 준비하는 과정에서 서로 이야기를 나누었기에 좀더 자연스럽게 세미나에 몰입할 수 있었습니다. 세미나의 서두에서 언급하듯이 해당 논문은 현재 XAI라고 약어로 더욱 친숙한 Explainable AI의 관점에서 최근 많은 관심을 받고있는 GNN을 해석해보고자 하였습니다. 일반적으로 XAI로 대표되는 방법들 을 보면 기존 NLP 혹은 Vision 분야에서 Grad기반 혹은 Attention기반으로 주어진 class label에 대한 설명력을 제시하는 연구들이 이루어졌습니다. 해당 논문에서는 학습된 GNN을 기반으로 특정 노드 혹은 노드의 집합 셋(Multi-instance)으로의 그래프의 class를 예측하는 과정에서 어떤 특정 노드들이 주요한 역할을 수행하였고, 그 노드의 어떤 feature가 주요했는지를 model-agnostic 하게 반환해줍니다. 이과정에서 결국 수행되는 GNNExaplainer 모델의 최적화는 sub-graph의 노드들로 인한 MI(Mutual Information)을 기반으로 수행되게 됩니다. 이과정은 결국 해당 서브그룹의 노드들로 인해서 class를 정의하는 y의 uncertainty가 얼마나 reduction되는 것으로 해석이 가능하며, 이를 통해 가장 큰 reduction이 가능한 sub-group의 노드들을 선택하도록 Mean-Field Variational Approximation과 learnable masking parameter를 통해 최적화가 수행한다고 보시면 되겠습니다. 해당하는 논문이 결국 XAI 목적을 두고 있기에 모델의 퍼포먼스는 사전에 정의된 ground-truth와 얼마나 매칭되는지를 위주로 실험결과를 공유하고 있는데, 최근 GNN의 다수 논문에서는 attention을 통해서 정확하게 XAI라고 명명할 수는 없지만, Visualization을 통해서 간접적으로 제공은 할 수 있고, Simple GNN 대비 성능측면에서도 많은 향상을 보여주고 있습니다. 이러한 점을 생각해보면, 해당 논문은 실질적인 모델학습과 더불어 이후 과정이 진행되는 번거로움이 있기에 baseline 실험에서의 attention모델과의 exploitability 성능 비교는 동일선상에서 바라만 볼 수는 없다고 판단됩니다. 추가적으로, 동일한 GNN환경이 아닌 GNN의 구조 혹은 파라미터의 변화에 따라서 (예를들어 Receptive Field관점에서) 설명력은 달라질 수 있을 텐데, 다양한 실험환경에서 수행되었으면 더욱 재미있는 결과를 제시할 수 있었을 것 같다는 생각이 들었습니다. 마지막으로 첫 발표임에도 불구하고 재미있는 연구를 주제로 세미나를 잘 이끌어준 발표자에게 감사의 인사전합니다.


  • 2021-03-03 14:52

    이번 세미나에서는 GNN explainer로 설명력있는 그래프기반의 컨롤루션을 발표해주셨습니다. 기존 머신러닝의 방법로은 선형적인 lime이나 변수상호작용을 고려하는 sharp기반의 변수중요도를 산출하는 방법들이 있었습니다. GNN은 크게 세가지로 분류되었는데 (1) message: 근접중심노드에 전달하는 정보, (2) aggregate: 이웃노드들의 정보를 취합, (3) (1)의 중심노드 (2)의 취합노드 두가지에 대해서 업데이트 과정이 이루어집니다. GNN에서 변수중요도는 node feature의 중요도로 해석될 수 있습니다. 다시말해서 특정노드가 주변노드에 얼마나 많은 영향을 주었는가로 생각할 수 있을 것 같습니다. 해당 목적을 달성하기 위해 subgraph를 달성하기 위해서 mask matrix를 적용해 생성시킬 수 있었습니다. 목적함수로 mask GNN과 original GNN의 분포가 크게 차이가 나지 않도록 consistency loss를 고려하는 점이 인상 깊었습니다. 좋은 발표감사합니다.


  • 2021-03-04 11:46

    현재 XAI는 LIME과 SHAP으로 대표된다고 생각합니다. 하지만 두 방법론의 경우 그래프에서 그대로 사용하기에는 무리가 있습니다. 그 이유는, 그래프 네트워크의 강점인 노드들간의 관계성을 반영하지 못한다는 치명적인 단점이 존재하기 때문입니다. 본 연구에서는 이를 해결하기 위하여 노드들간의 관계를 반영하는 그래프 네트워크에 맞는 XAI를 제안합니다. 우선 GNN을 학습시킨 후 attention을 활용하여 타겟 노드가 있는 여러 sub graph들을 추출하고 이 중 mutual information이 가장 큰 sub graph를 선택하게 됩니다. 그래프에 XAI를 적용하는 초기 모델이라 XAI가 탄생한 초기 방법론들처럼 매우 투박하고 추가적인 계산량도 많으나 첫 발을 내딛었음에 큰 의의가 있다고 생각합니다. 추가적으로 실험파트에서 정량적으로 제안한 방법론이 얼마나 잘 그래프를 설명하고 있는지에 대한 metric을 제안하는데, 이같은 경우에 본인들의 제안 방법이 더 높은 점수를 받게끔 metric을 만들 수 있기 때문에 후속 연구들에서는 무조건적인 수용이 아니라 잘못된 부분이 있으면 충분히 따지고 수정하는 방향으로 진행이 되어야 NLP에서 BLEU score와 같이 지속적으로 metric에 대한 의심을 가지는 경우를 방지할 수 있을 것 같습니다.


  • 2021-03-09 23:56

    금일 세미나에는 해석 가능한 그래프 방법론인 GNN Explainer에 설명 주셨습니다. 최근들어 XAI는 딥러닝 분야에서 가장 핫한 분야로 알고 있습니다. 게다가 공모전이나 프로젝트 등에서 "딥러닝 모델의 설명력"에 대해 요구를 많이 하고 있으므로 다들 자연스레 범용적인 LIME이나 SHAPE 기법들을 자주 활용합니다. 하지만 그래프와 같이 주변 노드간의 관계를 형성하는 Relational Data는 관계에 보편적인 XAI 방법론을 적용할 경우 관계에 대한 정보를 포함할 수 없으므로 잘 작동하지 않습니다. 오늘 설명주신 GNN Explaniner는 Graph에서 최초로 XAI를 적용한 논문입니다. 핵심 아이디어는 Mask network를 생성하고 consistency loss를 활용하여 MASK 알고리즘을 학습함으로써 중요한 Sub-graph를 도출하는 방식이 인상깊었습니다. 다만 방법론을 적용하기 위해서는 그래프 내부 구조에 모듈을 추가하고 학습하는 과정등이 필요하기 때문에 가볍게 적용하기는 좀 어렵다는 생각이 들었습니다. 재미있는 발표 감사합니다.


  • 2021-03-17 19:50

    오늘 세미나에서는 GNN explainer라는 처음 접해본 개념에 대해 소개를 해주셨습니다. 노드와 같은 그래프의 특성을 반영한 XAI를 위해, sub graph 생성 -> 기존 학습된 GNN의 예측 결과와 consistency loss를 계산해 masking update ->... -> 노드 예측 등에 큰 영향을 미치는 sub graph 도출(설명) 이라는 과정을 거치게 됩니다. 방법론 자체는 크게 다르지만, 결국 노드의 feature를 이용해 목표 task 수행에 대한 영향력을 파악한다는 점에서 grad-cam과 같은 여타 XAI와 유사하다고 느꼈습니다. 요새 특히 XAI가 많은 주목을 받고 있는 것 같은데, 실제로 딥러닝 모형의 '설득력'을 확인하는 것이 굉장히 중요하다고 생각합니다. 최근에 multi-label classification task를 수행할 때 이미지의 어떤 부분을 보고 딥러닝 모형이 해당 레이블에 높은 확률을 부여했는 지 확인할 수 있었는데, 단순히 모델러에게 모형의 신뢰성을 확인하기 위한 요소일 뿐 아니라 성능을 개선하는 데에도 많은 역할을 할 수 있겠구나 느꼈습니다. 그런 관점에서 이번에 소개해주신 GNN explainer가 굉장히 신선했고, 또 그래프 분야가 확장하는 데 있어서 굉장히 중요한 발걸음이라고 느꼈습니다. 좋은 발표 감사하고, 앞으로도 수준 높은 세미나 기대하겠습니다.


  • 2021-03-22 18:42

    금일 발표는 "GNNExplainer: Generating Explanations for Graph Neural Networks"라는 주제로 진행되었습니다. 본 발표에서는 노드들간의 관계를 반영하는 그래프 네트워크에 맞는 XAI 방법론인 GNNExplainer가 소개되었습니다. 개인적으로 XAI에 관심이 많은데 그래프 분야에서 처음으로 XAI 방법론을 접하게 되어 흥미로웠습니다. GNNExplainer는 attention을 기반으로 타겟 노드가 있는 여러 sub-graph들을 추출하고 이 중 mutual information이 가장 큰 sub graph를 선택하는 과정을 통해 GNN에 설명력을 더하였습니다. 본 논문에서는 기존의 방법론들에 LIME 또는 SHAP를 적용하지 않고 GNN의 특성을 기반으로 새로운 설명가능한 방법론을 제안하였는데 이상치 탐지 분야에서도 이런 부분들이 반영된다면 좋겠다는 생각이 들었습니다. 좋은 발표 감사합니다.


전체 129
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 1222
관리자 2020.03.12 0 1222
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 447
관리자 2020.03.12 0 447
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 989
관리자 2020.03.12 0 989
126
[Paper Review] Deep GNNs (3)
Hyungseok Kim | 2021.04.16 | 추천 0 | 조회 33
Hyungseok Kim 2021.04.16 0 33
125
[Paper Review] Don't Stop Pretraining: Adapt Language Models to Domains and Tasks (3)
Takyoung Kim | 2021.04.13 | 추천 0 | 조회 45
Takyoung Kim 2021.04.13 0 45
124
[Paper Review] Uninformed Students: Student–Teacher Anomaly Detection with Discriminative Latent Embeddings (4)
Hyeyeon Kim | 2021.04.07 | 추천 0 | 조회 82
Hyeyeon Kim 2021.04.07 0 82
123
[paper Review] Contrastive Learning for Sequential Recommendation (4)
Jungho Lee | 2021.04.03 | 추천 0 | 조회 121
Jungho Lee 2021.04.03 0 121
122
[Paper Review] Deep Image Retrieval: Learning global representations for image search (5)
Kyoosung So | 2021.03.31 | 추천 0 | 조회 93
Kyoosung So 2021.03.31 0 93
121
[Paper Review] Vq-wav2vec: Self-Supervised Learning of Discrete Speech Representations (6)
Jounghee Kim | 2021.03.24 | 추천 0 | 조회 149
Jounghee Kim 2021.03.24 0 149
120
[Paper Review] Time Series Anomaly Detection with Multiresolution Ensemble Decoding (6)
Heejeong Choi | 2021.03.23 | 추천 0 | 조회 133
Heejeong Choi 2021.03.23 0 133
119
[Paper Review] QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension (8)
Jina Kim | 2021.03.19 | 추천 0 | 조회 164
Jina Kim 2021.03.19 0 164
118
[Paper Review] SOM-DST  : Efficient Dialogue State Tracking by Selectively Overwriting Memory (7)
Yukyung Lee | 2021.03.13 | 추천 0 | 조회 185
Yukyung Lee 2021.03.13 0 185
117
[Paper Review] A Simple Framework for Contrastive Learning of Visual Representations (10)
Donghwa Kim | 2021.03.10 | 추천 0 | 조회 255
Donghwa Kim 2021.03.10 0 255

Data Science & Business Analytics Lab.
School of Industrial Management Engineering
College of Engineering, Korea University

Contact Us

  • 강필성 교수 (pilsung_kang@korea.ac.kr)
    서울특별시 성북구 안암로 145 고려대학교 자연계캠퍼스 창의관 801A호 
  • 대학원 연구실 (총무 이유경: yukyung_lee@korea.ac.kr)
    서울특별시 성북구 안암로 145 고려대학교 자연계캠퍼스 신공학관 220호, 221호, 213호
© 2020 DSBA Lab.