【23847】-锋哥原创 Transformer 大语言模型(LLM)基石


第1讲Transformer简介.mp4
第2讲Transformer架构介绍.mp4
第3讲输入嵌入层(Input Embeddings)详解以及算法实现.mp4
第4讲 位置编码(Positional Encoding)详解与算法实现.mp4
第5讲自注意力机制(Self-Attention)原理介绍.mp4
第6讲掩码机制(Masked)原理介绍以及算法实现.mp4
第7讲自注意力机制(Self-Attention)算法实现.mp4
第8讲 多头注意力机制(Multi-head Attention)原理介绍.mp4
第9讲多头注意力机制(Multi-head Attention)算法实现.mp4
第10讲 前馈神经网络(Feed-Forward Neural Network)详解以及算法实现.mp4
第11讲 层归一化(Layer Normalization)详解以及算法实现.mp4
第12讲 残差连接(Residual Connection)详解以及算法实现.mp4
第13讲编码器(Encoder)详解以及算法实现.mp4
第14讲解码器(Decoder)详解以及算法实现.mp4
第15讲输出层(Output Layer)详解以及算法实现.mp4
第16讲构建完整的Transformer模型.mp4
第17讲Transformer PyTorch2内置实现.mp4
配套资源
返回列表
