반응형

Video 24

[논문 읽기] Mining Better Samples for Contrastive Learning of Temporal Correspondence(2021)

Mining Better Samples for Contrastive Learning of Temporal Correspondence PDF, Video SSL, Sangryul Jeon, Dongbo Min, Seungryong Kim, Kwanghoon Sohn, CVPR 2021 Summary Contrastive learning을 활용하여 correspondence matching을 수행하는 video SSL 논문입니다. 해당 논문은 matching uncertainty를 측정하기 위해 3가지 기준을 사용합니다. (1) pixel-level에서 Forward-backward consistency, (2) image-level에서 optimal transport, (3) video-level에서 te..

[논문 읽기] Space-Time Correspondence as a Contrastive Random Walk(2020)

Space-Time Correspondence as a Contrastive Random Walk PDF, Video SSL, Allan A. Jabri, Andrew Owens, Alexei A. Efos, NIPS 2020 Summary Video SSL 논문입니다. affinity matrix에 softmax를 취하여 확률로 바라봄으로써 target frame까지의 path 확률이 최대화 하도록 학습합니다. 확률이 높은 path를 따라 k frame을 전진하고 다시 원래 frame으로 되돌아왔을 때, 원래 위치에 있도록 학습합니다. 비지도 학습이므로 어떤 수도레이블을 가해야할지가 관건인데, cycle consistent loss를 사용하여 forward와 backward 후 원래 위치로 돌아오도록 ..

[논문 읽기] ViViT: A Video Vision Transformer(2021)

ViViT: A Video VIsion Transformer PDF, Video, Anurang Arnab, Mostafa Dehghani, Georg Heigold, Chen Sun, Mario Lucic, Cordelia Schmid, arXiv 2021 Summary Video 데이터를 Vision Transformer에 적용하여 Video classification task를 수행합니다. Tubelet embedding Tubelet embedding 방법을 사용하여 비디오를 embedding해 transformer로 전달합니다. 논문에서는 (h,w,t)16x16x2를 사용합니다. Video를 ViT에 적용하는 4가지 모델 variant를 제안합니다. 성능이 좋은 모델1과 모델2만 살펴보겠습니다...

[논문 읽기] Contrastive Transformation for Self-supervised Correspondence Learning(2020)

Contrastive Transformation for Self-supervised Correspondence Learning PDF, Video SSL, Ning Wang, Wengang Zhou, Houqiang Li, AAAI 2020 Summary video내에 존재하는 temporal consistency를 correspondence matching 으로 학습하기 위해 image domain에서 사용하는 Contrastive Learning을 video domain에 적용합니다. image domain 에서 단일 image에 augmentation을 적용한 image를 positive, 다른 image의 augmentation view는 negative로 정의하여 NCELoss를 사용합니다. 어..

[논문 읽기] Joint-task Self-supervised Learning for Temporal Correspondence(2019)

Joint-task Self-supervised Learning for Temporal Correspondence PDF, Video SSL, Xuethin Li, Sifei Liu, Shalini De Mello, Xiaolong Wang, Jan Kautz, Ming-Hsuan Yang, arXiv 2019 Summary unlabeled video 로부터 video correspondence를 학습하기 위해 tracking과 colorization을 동시에 수행합니다. 현재 frame에서 무작위로 추출한 image patch와 다음 frame 전체 이미지를 CNN에 전달해 생성한 두 feature map 사이의 유사도를 계산합니다. 계산한 유사도를 기반으로 tracking을 수행합니다. tracki..

[논문 읽기] VisTR(2020), End-to-End Video Instance Segmentation with Transformers

End-to-End Video Instance Segmentation with Transformers PDF, Video, Yuqing Wang, Zhaoliang Xu, Xinlong Wang, Chunhua Shen, Baoshan Cheng, Hao Shen, Huaxia Xia, arXiv 2020 Summary Video instance segmentation(VIS) task를 수행하는 모델입니다. DETR과 유사한 구조를 갖으며 segmentation task를 수행하기 위해 segmentation branch가 추가되었고, video data를 다루기 때문에 temporal axis가 추가되었습니다. 기존 VIS task를 수행하는 모델들은 segmentation을 위한 pixel-leve..

[논문 읽기] Self-supervised Learning for Video Correspondence Flow(2019)

Self-supervised Learning for Video Correspondence Flow PDF, Video SSL, Zihang Lai, Weidi Xie, BMVC 2019 Summary Tracking Emerges by Colorizing VIdeos의 문제점을 개선한 논문입니다. Tracking Emerges by Colorizing Videos는 (1) 흑백 이미지를 입력으로 하여 모델을 학습시켰기 때문에 RGB 색상 채널 사이의 correlation을 포착하지 못합니다. 또한 (2) ground truth video frame의 pair로 학습을 하여 tracker drifting 문제가 발생합니다. 해당 논문은 위에서 언급한 문제점을 개선하기 위해 4가지 방법을 제안합니다. (1)..

[논문 읽기] Tracking Emerges by Colorizing Videos(2018)

Tracking Emerges by Colorizing Videos PDF, Video SSL, Carl Vondrick, Abhinav Shrivastava, Alireza Fathi, Sergio Guadarrama, Kevin Murphy, ECCV 2018 Summary Unlabeled Video 데이터의 색상을 활용하여 colorization 모델을 학습합니다. 흑백 frame에서 직접 색상을 예측하는 대신에 reference frame와 target frame 사이의 유사도를 계산한 후, reference frame의 색상을 copy하여 유사도를 사용해 target frame의 색상을 예측합니다. 비디오에서 색상은 일반적으로 temporally stable 합니다. 갑자기 불이 켜지거나 꺼지..

[Paper Review] STM(2019), Spatio Temporal and Motion Encoding for Action Recognition

STM: Spatio Temporal and Motion Encoding for Action Recognition Boyuan Jiang, MengMeng Wang, Weihao Gan, arXiv 2019 PDF, Video By SeonghoonYu August 3th, 2021 Summary STM consists of the Channel-wise SpatioTemporal Module(CSTM) and the Channel-wise Motion Module(CMM). CSTM encode the spatiotemporal features from different timestamps and CCM encode the motion features between neighboring frames. ..

[Paper Review] GCNet(2019), Non-local Networks Meet Squeeze-Excitation Networks and Beyond

GCNet, Non-local Networks Meet Squeeze-Excitation Networks and Beyond Yue Cao, Jiarui Xu, Stephen Lin, Fangyum Wei, Han Hu, arXiv 2019 PDF, Video By SeonghoonYu July 27th, 2021 Summary This paper observes that the global contexts modeled by non-local network are almost the same for different query positions within an image. They calculate the global context abount only one query because calculat..

반응형