切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
观察|深度学习为何强大?适当的神经网络架构+大数据 ...
菲龙网编辑部7
有 744 人收听 TA
147261
主题
147278
回复
173376
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/48
田轩:10月非传统银行市场表现强劲,长期资金入市可促稳定
0/33
理财公司如何探索构建多资产多策略体系?当下时点哪些大类资产更具投资价值?南财理财通第九期策略会成功举办!
0/43
服务实体经济,这家银行不是说说而已
0/34
中国工商银行:未来五年将为苏州市提供不低于10000亿元的投融资支持
0/29
独家专访芝商所全球金属产品主管Jin Hennig:多交易中心对市场参与者有利,金属市场交易参与度上升
0/36
广银理财“幸福添利1个月持有期第3号A”近3月净值增长率领跑最短持有期产品榜单,成立来收益超基准上限75bps丨机警理财日报
0/30
服务实体经济,这家银行不是说说而已|新京智库
0/28
国家医保局发文,商业健康保险迎来利好!国新健康回应
0/32
服务实体经济,这家银行不是说说而已 | 新京智库
查看TA的全部帖子>>
观察|深度学习为何强大?适当的神经网络架构+大数据
时间:2022-4-5 08:21
0
450
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
据Emergen Research分析称,到2028年,全球深度学习市场规模预计将以39.1%的稳定复合年增长率达到933.4亿美元,推动其市场收入的关键因素是采用基于云的技术和在大数据分析中使用深度学习系统。
那么,究竟什么是深度学习?它如何工作?
据《VentureBeat》在近日《这就是深度学习如此强大的原因》一文中总结道:深度学习是机器学习的一个子集,它使用神经网络来执行学习和预测。深度学习在各种任务中都表现出了惊人的表现,无论是文本、时间序列还是计算机视觉。深度学习的成功主要来自大数据的可用性和计算能力,这使得深度学习的表现远远优于任何经典的机器学习算法。
深度学习的本质:神经网络和函数
有网友曾笑言,“当你想要拟合任何函数或者任何分布,而又没有思路时,试试神经网络吧!”
先上两个重要结论:
神经网络是一个相互连接的神经元网络,每个神经元都是一个有限函数逼近器。这样,神经网络被视为通用函数逼近器。
深度学习是具有许多隐藏层(通常大于2个隐藏层)的神经网络。深度学习是从层到层的函数的复杂组合,从而找到定义从输入到输出的映射的函数。
在高中数学我们会学到,函数就是从输入空间到输出空间的映射。一个简单的sin(x)函数是从角空间(-180°到180°或0°到360°)映射到实数空间(-1到1)。函数逼近问题是函数论的重要组成部分,涉及的基本问题是函数的近似表示问题。
那么,为什么神经网络被认为是通用函数逼近器呢?
每个神经元学习一个有限的函数:f(.)=g(W*X)其中W是要学习的权重向量,X是输入向量,g(.)是非线性变换。W*X可以可视化为高维空间(超平面)中的一条线,而g(.)可以是
任何非线性可微函数
,如sigmoid、tanh、ReLU等(常用于深度学习领域)。
在神经网络中学习无非就是找到最佳权重向量W。例如,在y=mx+c中,我们有2个权重:m和c。现在,根据二维平面空间中点的分布,我们找到满足某些标准的m及c的最佳值,那么对于所有数据点,预测y和实际点之间的差异最小。
神经网络“层”效果:学习具体到类别概括的映射
如果输入是狮子的图像,输出是属于狮子类的图像分类,那么深度学习就是学习将图像向量映射到类的函数。类似地,输入是单词序列,输出是输入句子是否具有正面/中性/负面情绪。因此,深度学习是学习从输入文本到输出类的映射:中性或正面或负面。
如何实现上述任务呢?
每个神经元都是一个非线性函数,我们将几个这样的神经元堆叠在一个“层”中,每个神经元接收相同的一组输入但学习不同的权重W。因此,每一层都有一组学习函数:f1,f2,…,fn,称为隐藏层值。这些值再次组合,在下一层:h(f1,f2,...,fn)等等。这样,每一层都由前一层的函数组成(类似于h(f(g(x))))。已经表明,通过这种组合,我们可以
学习任何非线性复函数
。
深度学习是具有许多隐藏层(通常大于2个隐藏层)的神经网络。深度学习是从层到层的函数的复杂组合,从而找到定义从输入到输出的映射的函数。
深度学习作为曲线拟合的
插值:过度拟合挑战与泛化目标
深度学习先驱Yann LeCun(卷积神经网络的创造者和图灵奖获得者)曾在推特上发帖称,“深度学习并没有你想象的那么令人惊叹,因为它仅仅是美化曲线拟合的插值。但是在高维中,没有插值之类的东西。在高维空间,一切都是外推。”
插值(interpolation)是离散函数逼近的重要方法,利用它可通过函数在有限个点处的取值状况,估算出函数在其他点处的近似值。
从生物学的解释来看,人类通过逐层解释图像来处理世界的图像,从边缘和轮廓等低级特征,到对象和场景等高级特征。神经网络中的函数组合与此一致,其中每个函数组合都在学习关于图像的复杂特征。用于图像最常见的神经网络架构是CNN(Convolutional Neural Networks,卷积神经网络),它以分层方式学习这些特征,然后一个完全连接的神经网络将图像特征分类为不同的类别。
比如,给定一组平面上的数据点,我们尝试通过插值拟合曲线,该曲线在某种程度上代表了定义这些数据点的函数。我们拟合的函数越复杂(例如在插值中,通过多项式次数确定),它就越适合数据;但是,它对新数据点的泛化程度越低。
这就是深度学习面临挑战的地方,也就是通常所说的过度拟合问题:尽可能地拟合数据,但在泛化方面有所妥协。几乎所有深度学习架构都必须处理这个重要因素,才能学习在看不见的数据上表现同样出色的通用功能。
深度学习如何学习?问题决定了神经网络架构
那么,我们如何学习这个复杂的函数呢?
这完全取决于手头的问题,其决定了神经网络架构。如果我们对图像分类感兴趣,那么我们使用CNN。如果我们对时间相关的预测或文本感兴趣,那么我们使用RNN(Recurrent Neural Network,循环神经网络) 或Transformer,如果我们有动态环境(如汽车驾驶),那么我们使用强化学习。
除此之外,学习还涉及处理不同的挑战:
·通过使用正则化(regularization,用来防止训练的模型产生过拟合与欠拟合现象)处理确保模型学习通用函数,而不仅仅适合训练数据。
·根据手头的问题,选择损失函数。粗略地说,损失函数是我们想要的(真实值)和我们当前拥有的(当前预测)之间的误差函数。
·梯度下降是用于收敛到最优函数的算法。决定学习率变得具有挑战性,因为当我们远离最优时,我们想要更快地走向最优,而当我们接近最优时,我们想要慢一些,以确保我们收敛到最优和全局最小值。
·大量隐藏层需要处理梯度消失问题。跳过连接和适当的非线性激活函数等架构变化,有助于解决这个问题。
基于神经架构与大数据:深度学习带来计算挑战
现在我们知道深度学习只是一个学习复杂的函数,它带来了其他计算挑战:
要学习一个复杂的函数,我们需要大量的数据;为了处理大数据,我们需要快速的计算环境;因此,我们需要一个支持这种环境的基础设施。
使用CPU进行并行处理不足以计算数百万或数十亿的权重(也称为DL的参数)。神经网络需要学习需要向量(或张量)乘法的权重。这就是GPU派上用场的地方,因为它们可以非常快速地进行并行向量乘法。根据深度学习架构、数据大小和手头的任务,我们有时需要1个GPU,有时,数据科学家需要根据已知文献或通过测量1个GPU的性能来做出决策。
通过使用适当的神经网络架构(层数、神经元数量、非线性函数等)以及足够大的数据,深度学习网络可以学习从一个向量空间到另一个向量空间的任何映射。这就是让深度学习成为任何机器学习任务的强大工具的原因。
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部