yuqingqi
  • 首页
  • web前端
    • HTML5教程
  • 服务端语言
    • 精选文章
    • PHP教程
    • Yii2教程
    • Python3教程
  • AI学习
  • 编程问答
  • Office软件
  • 软件书籍
    • 编程书籍
    • 软件大全
  • 产品库
登录 注册
投稿
全部
java php laravel yii python c c++ c# objective-c javascript swift css html5 ruby perl lua scala bash Dart SQL
  • 自然语言模型 Google BERT(Bidirectional Encoder Representations from Transformers) 论文全文中译

    • NLP
    • 自然语言模型
    • Google
    • BERT
    智慧编程
    2019-06-19 20:26 390 0 0

    全文翻译下载,移步至 GitHub BERT_Paper_Chinese_TranslationBERT:预训练的深度双向 Transformer 语言模型Jacob Devlin;Ming-Wei Chang;Kenton Lee;Kristina ToutanovaGoogle AI Language{jacobdevlin,mingweichang,kentonl,kristout}@goo...

  • 中文语料 Bert finetune(微调)

    • NLP
    • 自然语言模型
    • Google
    • BERT
    • Bert finetune
    • 中文语料
    智慧编程
    2019-06-19 20:26 483 0 0

    Finetune Bert for ChineseNLP 问题被证明同图像一样,可以通过 finetune 在垂直领域取得效果的提升。Bert 模型本身极其依赖计算资源,从 0 训练对大多数开发者都是难以想象的事。在节省资源避免重头开始训练的同时,为更好的拟合垂直领域的语料,我们有了 finetune 的动机。Bert 的文档本身对 finetune 进行了较为详细的描述。随着 Bert as s...

  • 自然语言模型 Google BERT 资源汇总

    • 自然语言模型
    • Google
    • BERT
    智慧编程
    2019-06-19 00:18 400 0 0

    本文介绍了一种新的语言表征模型 BERT——来自 Transformer 的双向编码器表征。与最近的语言表征模型不同,BERT 旨在基于所有层的左、右语境来预训练深度双向表征。BERT 是首个在大批句子层面和 token 层面任务中取得当前最优性能的基于微调的表征模型,其性能超越许多使用任务特定架构的系统,刷新了 11 项 NLP 任务的当前最优性能记录。BERT 相关资源加更BERT在中文和小数...

热点文章

  • PCIE2.0/PCIE3.0/PCIE4.0/PCIE5.0接口的带宽与速率

    2019-04-30 14:48

  • laravel-admin 框架Grid组件的基本用法

    2019-03-27 13:20

  • 修改php运行内存大小的限制

    2018-09-27 18:31

  • TensorFlow 2.0 保存和恢复模型

    2020-03-15 14:52

  • 注意力机制(Attention)

    2020-02-10 22:38

  • jquery判断checkbox是否选中(包含Layui的checkbox)

    2019-03-01 15:54

最新文章

  • 空客A350现代化宽体客机介绍
  • 信息差的定义与影响
  • Windows 11操作系统特点
  • centos7.6系统下安装memcached缓存服务
  • Centos7.6系统编译安装redis缓存服务
  • centos7.6系统下php7.3编译安装redis扩展
huanuoh
  • 用户协议
Copyright © 2016-2024 HUANUOH 版权所有 皖ICP备16018704号

请登录

您还未登录,请登录后再进行相关操作!

登 录 注 册