加入收藏 | 设为首页 | 会员中心 | 我要投稿 威海站长网 (https://www.0631zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 评论 > 正文

目前无法登陆 用户可申请个人内容备份

发布时间:2021-02-11 13:23:46 所属栏目:评论 来源:互联网
导读:例如,如果你想让一个神经网络从图像中识别猫和狗,那么猫和狗的标签图像(标签图像意味着我们给神经网络一个正确的答案)就会输入到神经网络,进行处理,神经层猜测它是猫还是狗。现在,由于它有了图像答案,便以这种方式调整不同神经元之间的权重,来提高准

例如,如果你想让一个神经网络从图像中识别猫和狗,那么猫和狗的标签图像(标签图像意味着我们给神经网络一个正确的答案)就会输入到神经网络,进行处理,神经层猜测它是猫还是狗。现在,由于它有了图像答案,便以这种方式调整不同神经元之间的权重,来提高准确度。

人类思维——一个巨型神经网络

你有没有观察过蹒跚学步的孩子玩耍?他们总是如此好奇,渴望与周围的世界互动。幼儿的大脑就像简单而未经训练的神经网络,他们一出生就开始学习。由于神经网络在早期阶段非常简单,所以幼儿最早学的都是完成非常基本的任务,如行动、吃饭和爬行等等。

当一个初学走路的孩子拿着一个球时,他会观察它的重量、形状、握着它的感觉与皮肤周围的变化等。这一观察是他最初的部分学习过程,事实上也是在帮助他学习。幼儿玩球训练了他的大脑,为下次的活动做好准备。
 

这和神经网络一样简单。如你所见,这里的每个灰色圆圈都是一个神经元,这个神经网络有三层:输入层、隐藏层和输出层。

现在,神经网络学会了自行处理任务,但它们是如何学习的呢?当然是通过数据。我们将在下一节中讨论更多关于从数据中学习的内容,但我们现在知道了,数据通过输入层输入到神经网络,在中间层进行处理,然后由输出层输出。
 

经元是神经网络中最简单的单位。神经元所做的是从上一层中的所有神经元接收输入值(此案例中神经元y的上一层用蓝色表示,如x1, x2 , x3等等),并将每个输入值与来自输入值的神经元相关的权重相乘。所以这里x1与w1相乘,x2与w2相乘等以此类推,所有这些乘法都是在神经元y内部增加的。

y=x1.w1 + x2*w2 +x3*w3……xm.wm

然后使用激活函数如Sigmoid、tanH、ReLU等将该求和值转换为输出值。那么这些激活函数又是什么呢?下面举个sigmoid激活函数的例子。
 

工智能席卷了世界,所谓的“机器学习算法”已经渗透到现代技术各个可能的层面,它已成为义务而不是创新。有些人可能会争论,我们今天使用的机器学习算法是否足够自主到可以称为真正的AI,这个争论过于宽泛,并不是本文的重点。

在这篇文章中,我试图探索神经网络与人类思维之间的深刻复杂性和深层关系。

当你开始在谷歌上输入时,浏览器怎么就已经猜到你在找什么呢?移动相机又如何在我们称为照片的微小像素海洋中识别人脸呢?像Alexa、Siri或Google Home这样的虚拟助理如何实现复杂的任务,例如安排会议、获取天气信息、阅读睡前故事等呢?

所有这些问题的答案正是机器学习,更具体地说,是神经网络。
 

训练模型时,W&B帐户会实时跟踪和更新进度,在账户内能轻松分析和评估模型的性能。在这里,你可以选择创建报告,提供更专业、更易理解的结果视图,可以在其中覆盖文本和其他视觉效果。

W&B十分有助于跟踪模型的性能,在更改参数并尝试各种技术时更是如此。实际上,这个说法绝不夸张。它确实能帮上大忙:OpenAI和Toyota Research这样的大公司定期使用它,称赞它是灵活且有效用的项目工具。

Uber的Manifold

(编辑:威海站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读