TRAR:Routing the attention spans in transformer for visual question answering学习笔记

TRAR:Routing the attention spans in transformer for visual question answering学习笔记问题:如何动态调度全局和局部依赖关系建模解决方法:基于实例的路由方案——TRAR

TRAR:Routing the attention spans in transformer for visual question answering学习笔记

摘要

问题:如何动态调度全局和局部依赖关系建模

解决方法:基于实例的路由方案——TRAR。在TRAR中,每个视觉transformer层都配备了具有不同注意广度的路由模块。该模型可以根据前一步推理的输出动态选择相应的注意,以为每个实例制定最优路由路径。

introduction

image transformers:仅依赖SA中的全局依赖项建模难以满足需求

TRAR:实现了注意力的自动选择。

相关工作

动态神经网络:在推理过程中调整结构或参数以适应给定实例。

Transformer Routing

TRAR的整体框架1. routing process(路由过程)

创建多分支网络结构,其中每层都配备不同设置的模块。X为最后一个推理步骤的特征,F为路由空间,n为特征个数,d为特征维度。下一个推理步骤的输出为:
路由过程α是路径控制器预测的路径选择概率,F是一组模块。在测试过程中,α可以二值化以进行硬选择,也可以保持连续以获得软路由。

优化后:
优化后D为邻接掩码,用于计算各元素之间的耦合系数:邻接掩码D的值为0或1,如果在目标元素的注意广度内则为1。因此,注意力只在定义的广度内执行。

SA:
SA简化后的SA:
在这里插入图片描述2. path controller(路径控制器)

在TRAR中,每个视觉SA层都配备了一个路径控制器来预测路由选项的概率,即模块选择:
在这里插入图片描述AttentionPool是基于注意力的池化方法。
3. attention span(注意广度)

注意广度代表注意特征的接受域。
4. optimization

软路由
硬路由
5. network

基于MCAN:将视觉SA模块替换为路由模块;在视觉和语言输出之后添加了两个attentionpooling层。
路由SA

实验结果

实验结果Base为MCAN;S为软路由;H为硬路由。

今天的文章TRAR:Routing the attention spans in transformer for visual question answering学习笔记分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/83794.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注