ai

ai

[발표자료] (TCR) Seeing Trough the conflict Transparent

아마 리뷰(발표) 는 스터디에서 작성하기로 한 큰 논문의 주제 방향성을 잡기 전까지는 해당 주제와 관련있는 것으로 구성할 것 같다.

ai

What is HexPlane ( with 4DGS )

4DGS 프로젝트를 하기에 앞서서 먼저 Hex plane 에 대해서 더 이해를 해야될 것 같아서 정리한다. 먼저 간단하게 정리하면 4D공간 ( xyz + time t ) 에서 featrue field D(x,y,z,t) 를 6개의 2D feature plane(XY, XZ, YZ, XT, YT, ZT) 으로 나눠서 저장하고 , 4D 에서 점을 물어보면 ( 그니까 time + space ) 를 물어보면 해당 점을 각 plane 에 투영해서 샘플링 --> 결합 해서 그점의 feature 를 빠르게 복원하는 형식이다. Plane 은 총 6개인데 (x,y,z,t) 에서 두 축을 고르면 2D plane 이다. 공간-공간: XY, XZ, YZ공간-시간: XT, YT, ZT으로 구성된다. HexPlane ..

ai

latent variable Models 에 대한 개념 정리 및 생각

Latent Variable Models● Allow us to define complex models p(x) in terms of simple building blocks p(x|z)● Natural for unsupervised learning tasks (clustering, unsupervised representation learning, etc.)● No free lunch: much more difficult to learn compared to fully observed 라고 간단하게 나와있다. 근데 사실 이것만 가지고는 느낌이 잘 오지 않는다. z 가 뭘 뽑느냐 ? z 뭘 의미하냐 ? 이걸 직관적으로 담고 있어야한다. 보통 노션으로 정리하는데 노션에 정리하면 생각보다 잘 안보게 된다 ..

ai

[Vision Transformer] implement(구현)

(10.2 ~ 10.11) - colab 에 작성한 코드 옮겨둘 것. cf.https://github.com/FrancescoSaverioZuppichini/ViThttps://hongl.tistory.com/232https://www.youtube.com/watch?v=TrdevFK_am4https://csm-kr.tistory.com/54https://github.com/huggingface/pytorch-image-models/blob/main/timm/models/vision_transformer.pyhttps://velog.io/@sjinu/%EB%85%BC%EB%AC%B8%EB%A6%AC%EB%B7%B0AN-IMAGE-IS-WORTH-16X16-WORDS-TRANSFORMERS-FOR-IMAG..

ai

Transformer 구현

들어가기 앞서.. 사지방에서 만들어서 좀 엉성하다모델은 Encoder / Decoder 크게 두가지 부분으로 나뉘어진다.그중에서도 Encoder 부분을 먼저 구현하고 Decoder 부분을 구현하는 걸로 하자. 1. Encoder Decoder 는 크게 Multi-Head-Attention + Position wise Feed-Forward 2가지로 구성되어 있다. 추가적으로, residual 한 부분와 LayerNorm 하는 부분은 forward 에서 구현해 줄 것인데, 일단 Multi-Head-attention 을 먼저 구현하고 나서 차원에 맞춰 구현해보기로 한다. 1-1) Scaled Dot-ProductMulti-Head-Attention 을 구현하기 이전에 Scaled dot product..

Kim_sang_hyeob
'ai' 카테고리의 글 목록