return tf.contrib.layers.layer_norm(
inputs=input_tensor, begin_norm_axis=-1, begin_params_axis=-1, scope=name)
■(2合1函数)先标准化,再丢弃,然后返回
def layer_norm_and_dropout(input_tensor, dropout_prob, name=None):
"""Runs layer normalization followed by dropout."""
output_tensor = layer_norm(input_tensor, name)
output_tensor = dropout(output_tensor, dropout_prob)
return output_tensor
■初始化权重参数
def create_initializer(initializer_range=0.02): initializer_range初始化范围,就是标准差stddev
"""Creates a `truncated_normal_initializer` with the given range."""
正态分布初始化 // 这是神经网络权重和过滤器的推荐初始值 。
return tf.truncated_normal_initializer(stddev=initializer_range)
tf.truncated_normal_initializer的意思是:从截断的正态分布中输出随机值 。
生成的值服从具有指定平均值和标准偏差的正态分布 ,
如果生成的值大于平均值2个标准偏差的值则丢弃重新选择 。
嵌入查找
■通过词查找对应的嵌入张量
def embedding_lookup(input_ids,
vocab_size,
embedding_size=128,
initializer_range=0.02,
word_embedding_name="word_embeddings",
use_one_hot_embeddings=False):
"""Looks up words embeddings for id tensor.
Args: 入参
input_ids: int32 Tensor of shape [batch_size, seq_length] containing word
ids.包含词的id的整型张量
vocab_size: int. Size of the embedding vocabulary.嵌入词典的大小
embedding_size: int. Width of the word embeddings. 词嵌入的大小
initializer_range: float. Embedding initialization range.权重参数初始化的标准差
word_embedding_name: string. Name of the embedding table.词嵌入名称
use_one_hot_embeddings: bool. If True, use one-hot method for word
embeddings. If False, use `tf.gather()`. 是否使用onehot码
Returns: 返回一个张量
float Tensor of shape [batch_size, seq_length, embedding_size].
""" 假定输入数据形状为 [batch_size, seq_length, num_inputs]
# This function assumes that the input is of shape [batch_size, seq_length,
# num_inputs].
# 如果输入是2D张量,则必须变形为3维张量,增加第三维,并且第三维的大小为1
# If the input is a 2D tensor of shape [batch_size, seq_length], we
# reshape to [batch_size, seq_length, 1].
if input_ids.shape.ndims == 2: 如果输入是2维,则扩张维度tf.expand_dims
input_ids = tf.expand_dims(input_ids, axis=[-1])
嵌入表格
embedding_table = tf.get_variable(
name=word_embedding_name,
shape=[vocab_size, embedding_size],
initializer=create_initializer(initializer_range))
平坦化 , 降维成1维
哪一维使用了-1,那这一维度就不定义大?。?而是根据你的数据情况进行匹配 。
即先不管-1的那一个维度,先看其他维度,然后用原矩阵的总元素个数除以确定的维度,就能得到-1维度的值 。
不过要注意:但列表中只能存在一个-1 。
flat_input_ids = tf.reshape(input_ids, [-1])
if use_one_hot_embeddings:
tf.one_hot()函数是将input转化为one-hot类型数据输出
one_hot_input_ids = tf.one_hot(flat_input_ids, depth=vocab_size)
将one_hot向量和嵌入表相乘,用于向量降维,减少数据量
output = tf.matmul(one_hot_input_ids, embedding_table)
else:
output = tf.gather(embedding_table, flat_input_ids)
input_shape = get_shape_list(input_ids)
张量变形
output = tf.reshape(output,
input_shape[0:-1] + [input_shape[-1] * embedding_size])
return (output, embedding_table)
嵌入
后处理
■嵌入 后处理
def embedding_postprocessor(input_tensor,
use_token_type=False,
token_type_ids=None,
token_type_vocab_size=16,
token_type_embedding_name="token_type_embeddings",
use_position_embeddings=True,
position_embedding_name="position_embeddings",
initializer_range=0.02,
max_position_embeddings=512,
dropout_prob=0.1):
"""Performs various post-processing on a word embedding tensor.
对词嵌入张量进行各种处理
Args: 入参 输入的张量
input_tensor: float Tensor of shape [batch_size, seq_length,
embedding_size].
是否使用类型令牌
use_token_type: bool. Whether to add embeddings for `token_type_ids`.
类型令牌的id,如果要使用类型令牌 , 那么该参数必须指定
token_type_ids: (optional) int32 Tensor of shape [batch_size, seq_length].
Must be specified if `use_token_type` is True.
类型令牌 大小
token_type_vocab_size: int. The vocabulary size of `token_type_ids`.
推荐阅读
- 【lwip】11-UDP协议&源码分析
- 硬核剖析Java锁底层AQS源码,深入理解底层架构设计
- SpringCloudAlibaba 微服务组件 Nacos 之配置中心源码深度解析
- Seata 1.5.2 源码学习
- MindStudio模型训练场景精度比对全流程和结果分析
- .NET 源码学习 [数据结构-线性表1.2] 链表与 LinkedList<T>
- Redisson源码解读-公平锁
- OpenHarmony移植案例: build lite源码分析之hb命令__entry__.py
- 【深入浅出 Yarn 架构与实现】1-2 搭建 Hadoop 源码阅读环境
- JVM学习笔记——内存模型篇