Top-Down TransformerTop-down transformer 的方向与 bottom-up transformer 相反,沿着信息传播的方向 , 其架构如 Figure 2 (d) 所示 。同样的,其学习到的表示也通过捕获立场和自我纠正上下文信息得到增强 。
2.3 The overall Model为了共同捕获整个树中表达的观点,我们利用一个注意力层来选择具有准确信息的重要帖子,这是基于细化的节点表示而获得的 。这将产生:
$\begin{array}{l}\alpha_{i}=\frac{\exp \left(s_{i}^{\prime} \cdot \mu^{\top}\right)}{\sum\limits_{j} \exp \left(s_{j}^{\prime} \cdot \mu^{\top}\right)} \\\tilde{s}=\sum\limits_{i} \alpha_{i} \cdot s_{i}^{\prime}\end{array}\quad\quad\quad(6)$
其中,$s_{i}^{\prime}$ 由 Bottom-Up Transformer 或 Top-Down Transformer 得到,$\mu \in \mathbb{R}^{1 \times d}$ 是注意力机制的参数 。这里的 $\alpha_{i}$ 是节点 $x_i$ 的注意权值,用于生成整个树的表示 $\tilde{s}$ 。最后 , 我们使用一个全连接的输出层来预测谣言类上的概率分布 。
$\hat{y}=\operatorname{softmax}\left(V_{o} \cdot \tilde{s}+b_{o}\right) \quad\quad\quad(7)$
其中,$V_{o}$ 和 $b_{o}$ 是输出层中的权值和偏差 。
此外 , 还有一种直接的方法可以将 Bottom-Up transformer 与 Top-Down transformer 的树表示连接起来,以获得更丰富的树表示,然后将其输入上述的 $softmax (\cdot)$ 函数进行谣言预测 。
我们所有的模型都经过训练,以最小化预测的概率分布和地面真实值的概率分布之间的平方误差:
$L(y, \hat{y})=\sum_{n=1}^{N} \sum_{c=1}^{C}\left(y_{c}-\hat{y}_{c}\right)^{2}+\lambda\|\Theta\|_{2}^{2} \quad\quad\quad(8)$
其中 $y_{c}$ 是 ground-truth label,$\hat{y}_{c}$ 是类C的预测概率,$N$ 是训练的树数 , C 是类的数量,$\|.\|_{2}$ 是所有模型参数 $\Theta$ 上的 $L_{2}$ 正则化项,$\lambda$ 是权衡系数 。
3 ExperimentsDatasets使用 TWITTER 和 PHEME 数据集进行实验 , 按照传播树深度将两个数据集划分为 TWITTER-S (PHEME-S)和 TWITTER-D (PHEME-D) 一共4个数据集,下表展示数据集的统计情况:
文章插图
Experiment
文章插图
Early Rumor Detection Performance
文章插图
推荐阅读
- 一 CPS攻击案例——基于脉冲宽度调制PWM的无人机攻击
- 一篇文章带你掌握主流服务层框架——SpringMVC
- 如何使用 Yolov4 训练人脸口罩检测模型
- Linux命令系列之top——里面藏着很多鲜为人知的宝藏知识
- 2 Libgdx游戏开发——接水滴游戏实现
- 1 Libgdx游戏学习——环境配置及demo运行
- 一篇文章带你掌握主流基础框架——Spring
- Go设计模式学习准备——下载bilibili合集视频
- 学习ASP.NET Core Blazor编程系列五——列表页面
- 轻量级Web框架Flask——Web表单