494 words
2 minutes
Research Records Week-2

尝试深入理解 Encoder 和 Decoder 架构#

  • Variational Autoencoders

    In this episode, we dive into Variational Autoencoders, a class of neural networks that can learn to compress data completely unsupervised!

    VAE’s are a very hot topic right now in unsupervised modelling of latent variables and provide a unique solution to the curse of dimensionality.

    This video starts with a quick intro into normal autoencoders and then goes into VAE’s and disentangled beta-VAE’s. I aslo touch upon related topics like learning causal, latent representations, image segmentation and the reparameterization trick!

    • Encoder 本质上就是在 Compress Info ,它其实就和 CNN 中 进行 Convolution 和 Pooling 的过程是一样的,只不过使用 NN 来实现。这个特性很适合压缩数据。
    • Encoded 得到的 Latent Vector 抛弃了信息,而大部分都会是无用的信息,就和 PCA 里面对特征值进行降维一样。这个特性 很适合 Denoising Task。
    • Decoder 会利用得到的 Latent Vector 重构原来的数据,这部分也被称作是 Generative 的。
    • Disentangled VAE 做到了让 Latent Vector 中的每一个维度都对应一个特征(人眼中的特征,例如方向,角度),这样的 NN 解释性更强。
  • Transformer models: Encoder-Decoders

    A general high-level introduction to the Encoder-Decoder, or sequence-to-sequence models using the Transformer architecture. What is it, when should you use it?

    • Encoder 和 Decoder 是两个独立的 NN,他们的权重独立
  • An introduction to variational autoencoders (VAE)

    • 从 Latent Linear Space 中潜藏一大堆 Noise Latent Vector 出发解释为什么要用 VAE
    • VAE 就是让 Input 和 概率分布进行 Mapping,而不是和一个具体的 Vector 进行 Mapping。
    • Sequence to Sequence 的 NLP Task 中 Decoder 会进行一个 Loop Generation,也就是第一次只使用 Latent Vector,生成一个 Token 后,被生成的 Token 会被重新 Feed 到 Decoder 中,生成下一个 Token。这种架构被常用于更具体的 Summarization & Translation Task。
  • Variational Autoencoder - Model, ELBO, loss function and maths explained easily!

    • 了解了很多 Mathematical 的细节:KuIIback-Leibler Divergence, ELBO, Reparameterization Trick, Loss Function.
    • KuIIback-Leibler Divergence 是用来衡量两个概率分布之间的差异的
    • ELBO 和 KL Divergence 一起构成了 VAE 的 Loss Function,由于 KL  Divergence0KL\; Divergence \geq 0,所以 ELBO 被叫做 “Evidence Lower Bound”,也就是 Loss Function 的下界。
Research Records Week-2
https://zivmax.top/posts/research/records-2/
Author
Zivmax
Published at
2024-07-08