帕依提提
Open Dataset
AI Technology Community
AI Dataset Trading
AI Technology Database
首页
TagableDB数据集
Open Dataset
AI Technology Community
+ 探索
发布数据集
标注图像
提问题
分享AI知识
TagableDB-箱包数据集
TagableDB-鞋数据集
TagableDB-腕表数据集
劳力士数据集
欧米茄数据集
卡地亚数据集
万国数据集
西铁城数据集
浪琴数据集
美度数据集
汉米尔顿数据集
天梭数据集
梅花数据集
TagableDB-首饰数据集
TagableDB-水果数据集
TagableDB-坚果数据集
Open datasets
查看全部分类
文字の形式
自然言語処理
芸術
機械視覚
画像認識
音声認識
機械翻訳
態度評価
自動運転
農業農学
工業製造
動物識別
無人機
ロボット
テキスト検出
スマートハードウェア
スマートリテール
スマートシティ
植物
衛星リモートセンシング
首页
>
Frontiers of AI Technology
>
搜索
技术文章:将BERT应用于长文本
背景自从谷歌的BERT预训练模型横空出世,预训练-下游任务微调的方式便成了自然语言处理任务的灵丹妙药。然而,复杂度高、显存消耗大等问题一直困扰着BERT等预训练模型的优化;由于BERT中Transformer(多层自注意力)关于输入文本长度L有的O()的时间空间复杂度,长文本消耗显存陡然增加
12-08 00:41
TAG:
CogLTX
BERT
相关搜索
在
Open Dataset
找 CogLTX
在
TagableDB-腕表数据集
找 CogLTX
今日排行
4条
1
机器学习与互联网搜索
35条
2
openCV
14条
3
商汤科技
28条
4
Siri
105条
5
2021
2条
6
助听器
5条
7
腾讯AI
4条
8
建模
42条
9
机器视觉
本周排行
4条
1
机器学习与互联网搜索
2条
2
掌控
2条
3
品味
35条
4
openCV
105条
5
2021
198条
6
要
2条
7
助听器
3条
8
出品
2条
9
不听
本月排行
4条
1
机器学习与互联网搜索
2条
2
掌控
2条
3
品味
35条
4
openCV
19条
5
来源
105条
6
2021
198条
7
要
67条
8
趋
2条
9
助听器
免费注册体验
联系我们
咨询 • 合作
在线咨询
点击在线及时咨询
在线留言
提交您的问题
业务合作
15911018798
返回顶部
返回顶部