数据科学专业人员必须知道的8大深度学习概念

数据科学专业人员必须知道的8大深度学习概念

对于一个数据科学家来说,要想成功地应用深度学习,首先需要理解如何应用建模的数学,选择正确的算法,使模型适合数据,并提出正确的技术来实现。

1.成本函数

神经网络中使用的成本函数几乎与任何其他机器学习模型中使用的成本函数相似。这有助于确定神经网络与其预测值相比(与实际值相比)有多好。 

简而言之,成本函数与模型的质量成反比。例如,机器学习模型的质量越好,成本函数就越低,反之亦然。 

成本函数的主要意义是获得正确的优化值。当神经网络的成本函数最小化时,您可以轻松实现模型的最佳参数和权重。通过这种方式,可以扩展其性能。 

一些最常见的成本函数包括指数成本,Kullback-Leibler散度,交叉熵成本,Hellinger距离和二次成本。 

2.激活功能

作为数据科学专业人员,您需要了解神经网络的基础知识以及它们的功能。一旦对节点和神经元有了深入的了解,了解激活就变得不那么困难了。了解激活就像按下电灯开关一样简单,它有助于确定是否需要激活神经元。 

虽然您可能会发现多种激活函数可用,但最常见的激活函数之一是“整流线性单元功能”。另外,称为ReLu功能,此功能可加速梯度下降,从而使其更快。 

3.递归神经网络(RNN)

顾名思义,RNN非常适合顺序数据。它可以摄取大小不同的输入。 

RNN同时考虑给定的当前输入和给定的先前输入。这意味着即使输入相同,相同的输入也可以产生不同的输出。 

用技术术语来说,RNN被定义为具有连接的神经网络的类型,该连接在整个时间序列上进一步形成有向图。这种连接需要在节点之间发生,从而进一步允许利用内部存储器并处理输入的可变长度序列。 

RNN非常适合时间序列数据或顺序数据。 

4.反向传播

反向传播与成本函数紧密同步。该算法专门用于计算成本函数的梯度。由于其速度和效率,与其他方法相比,反向传播设法获得了很大的普及。 

反向传播的工作原理如下:

  • 计算单个输入和输出对的正向相位
  • 计算每对的反向相位
  • 两种阶梯相结合 
  • 根据总梯度和学习速率对权值进行更新 

5.长短期记忆网络(LSTM)

LSTM网络属于RNN(递归神经网络)的范畴。LSTM用于解决常规RNN的缺点,因为它们具有短期记忆。 

更重要的是,如果序列中的滞后大于5到10步,则RNN通常会忽略之前步骤中提供的任何信息。 

例如,如果您已将类似段落的信息输入到RNN中,则该信息可能与段落开头给出的信息不同。因此,使LSTM成为解决此类问题的更好选择。 

会发现数据科学提供了无穷无尽的信息,但是,对于每位数据科学家来说,在机器学习和深度学习等领域拥有广泛的知识是必不可少的。在线上有多个数据科学证书计划,可以教您机器学习的基础知识。您可以抓住任何符合您要求的人,然后开始学习之旅。 

6.卷积神经网络(CNN)

CNN通常会选择一个输入(即图像),分配图像的重要特征,然后进行预测。CNN比前馈神经网络要好得多,这是因为CNN从图像中捕获了空间依赖性。简而言之,CNN比其他任何神经网络都能更好地理解图像的组成。 

具体来说,CNN用于对图像进行分类。 

7.超参数( Hyper-parameters

这些变量有助于调节网络结构,从而控制网络的训练方式。一些常见的超参数是–学习率(alpha),批处理大小,epoch数量,网络权重初始化以及模型架构(如许多隐藏单元或层数)。

8.批量和随机梯度下降

两种方法都用于计算梯度。

批梯度下降用于计算完整的数据集,而随机梯度下降一次仅计算单个样本。 

因此,批量梯度下降法非常适合凸或光滑流形,而随机梯度下降法则计算速度更快且价格便宜,因此非常适合。 

总结:

深度学习对数据科学产生了更大的影响。深度学习在很大程度上受到AI的影响,它使用大量无监督的数据来提取任何复杂的表示形式。因此,即使在最困难的情况下,它也有助于观察,分析,学习和制定决策。

作者:Niti Sharma

免责声明:凡未注明来源或者来源为网络的信息均转自其它平台,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。网站只负责对文章进行整理、排版、编辑,不承担任何法律责任。若有侵权或异议请联系我们删除,谢谢。

发表评论

您的电子邮箱地址不会被公开。