수학/cs224w

[cs224w] 1.1 Why graphs?

AI 꿈나무 2021. 10. 16. 01:23
반응형

https://www.youtube.com/watch?v=JAB_plj2rbA&list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn&index=1 

 

 

 graph는 관계 또는 상호작용으로 entities를 분석하거나 설명하기 위한 일반적인 언어이다.

 

 

 entity들이 위 그림처럼 그래프 구조 또는 연결에 따라 관계된다.

 

 

 많은 데이터들이 그래프로 표현된다.

 

 

 더 나은 예측을 위해 이 관계 구조의 이점을 어떻게 취해야 할까?

 

 

 복잡한 도메인은 풍부한 관계 구조를 갖고 있고 이는 ralational graph로 표현될 수 있다.

 관계들을 모델링 함으로써 더 나은 성능을 얻을 수 있다.

 

 

 

 오늘날 딥러닝은 간단한 데이터에 특화되어있다. text나 speech 같은 seqeunce 데이터, 이미지는 고정된 크기의 그리드로 표현된다. 딥러닝은 이러한 데이터를 처리하는데 매우 좋다. 

 

 

 하지만 그래프나 네트워크는 더 복잡하기 때문에 처리되기가 어렵다. 임의의 사이즈와 복잡한 topological structure를 지니고 있다.(grids 같은 spatial locality가 없다) 고정된 노드의 순서 또는 reference point도 없고 dynamic하고 멀티모달 특징을 갖고 있다. 텍스트는 오르쪽 왼쪽 개념이 있는데 그래프에서는 참고할 포인트가 없어서 특정 spatial locality가 존재하지 않음.

 

 

 모든 것들이 sequence나 grid로 표현되지 않는다. 어떻게 neural network를 광범위하게 적용할 수 있을까? 

 

 

 graph를 입력 받아 node labels, new links, generated graphs 등을 예측한다.

 

 

 graph data로 부터 좋은 representation를 학습하여 downstream task에 사용될 수 있다.

 

 

 node들을 d차원 embedding으로 맵핑하는 걸로도 생각해볼 수 있다. deep learning의 representation learning 방법들을 graph에 적용할 수 있다.

 

 

 이 강의에서는 위 내용들을 다룬다.

 

 graph architecture와 graph에서 representation learning을 배운다.

반응형

'수학 > cs224w' 카테고리의 다른 글

[cs224w] 1.3 Choice of Graph Representation  (0) 2021.10.17
[cs224w] 1.2 Applications of Graph ML  (0) 2021.10.17