0%

《机器学习中的常识性问题》 手机扫码阅读
机器学习中的常识性问题定义:作为一名合格的机器学习从业人员必须理解和熟练掌握的机器学习领域的问题。

1. 最新网页版:https://yuanxiaosc.github.io/categories/机器学习中的常识性问题/
2. PDF文件下载或转发分享:在电脑端点击网页右侧打印或转发分享按钮即可
3. 《机器学习宝典》(涵盖本文及扩展内容): https://github.com/yuanxiaosc/Machine-Learning-Book 欢迎Star和分享
4. 编者:袁宵
                                    
阅读全文 »

HuggingFace-Transformers手册 = 官方链接 + 设计结构 + 使用教程 + 代码解析

Transformers(以前称为pytorch Transformers和pytorch pretrained bert)为自然语言理解(NLU)和自然语言生成(NLG)提供了最先进的通用架构(bert、GPT-2、RoBERTa、XLM、DistilBert、XLNet、CTRL…),其中有超过32个100多种语言的预训练模型并同时支持TensorFlow 2.0和Pythorch两大深度学习框架。

阅读全文 »

本文系统性总结了学习机器学习所需的概率论和信息论基础知识。

通过使用概率论,可以计算事件$Y$在事件$X$发生时的概率,这是很多机器学习的算法的构建模型的基础,比如建模$Y=f(X)$。通过使用信息论,可以描述随机事件的信息量也可以计算两种概率分布的差异,而后者是机器学习模型通常要优化的目标,比如度量模型预测分布$\hat Y$和数据分布$Y$的差异$g(\hat Y, Y)$。

阅读全文 »

本文以华氏温度转换为摄氏温度(一元线性回归模型)为例子,讲解了深度学习框架(PyTorch和TensorFlow)自动求导和梯度下降的原理。文章内容分为三节,层层递进,分别是:

  1. 手动反向传播求导、手动梯度下降
  2. 自动求导,手动梯度下降
  3. 自动求导,自动梯度下降
阅读全文 »

神经网络的输入、输出、权重都是张量,神经网络中的各种计算和变换就是对张量操作,张量这种数据结构是神经网络的基石,可以说没有理解张量就没有真正理解神经网络和人工智能。本文由浅入深地详细讲解分析张量,望能给予读者启发——袁宵。

阅读全文 »

请遵守当地法律,科学上网与内网穿透仅作为个人学习科研之用。谨记:没有任何技术可以突破法律的约束,要想人不知,除非己莫为。

本文内容:科学上网与内网穿透理论 + 实践 + 常用资源 + 常见问题

科学上网与内网穿透理论

阅读全文 »

Git手册使用方法:

  1. 首先速览本文第一章和第二章内容;
  2. 跟着廖雪峰 Git教程操作一遍,然后再仔细阅读本文内容;
  3. 如果已经熟悉,直接看阅读更多中的内容即可。

第一章

创建版本库

初始化一个Git仓库,使用git init命令。

阅读全文 »

本文计划内容:ERNIE核心资源+论文解析+实战

飞桨-ERNIE 核心资源

ERNIE 2.0 是基于持续学习的语义理解预训练框架,使用多任务学习增量式构建预训练任务。ERNIE 2.0 中,新构建的预训练任务类型可以无缝的加入训练框架,持续的进行语义理解学习。 通过新增的实体预测、句子因果关系判断、文章句子结构重建等语义任务,ERNIE 2.0 语义理解预训练模型从训练数据中获取了词法、句法、语义等多个维度的自然语言信息,极大地增强了通用语义表示能力。

阅读全文 »

正则表达式是一组由字母和符号组成的特殊文本, 它可以用来从文本中找出满足你想要的格式的句子.

一个正则表达式是在一个主体字符串中从左到右匹配字符串时的一种样式. “Regular expression”这个词比较拗口, 我们常使用缩写的术语”regex”或”regexp”. 正则表达式可以从一个基础字符串中根据一定的匹配模式替换文本中的字符串、验证表单、提取字符串等等.

阅读全文 »