百川宠物医院网站建设 - 专业的宠物医院网站建设

资讯热点
人工智能何时会完全影响搜索算法?

发布时间:2021-2-23 分类: 行业资讯

在过去的一两年里,人工智能一直是最热门的,并迅速进入实用技术领域。以前编写的人工智能将彻底改变SEO,并且还介绍了人工智能在搜索算法中的实际应用,但应该指出的是,到目前为止人工智能还没有被广泛应用于搜索算法中。影响人工智能在搜索算法中广泛使用的最重要因素可能是搜索引擎工程师不知道人工智能系统如何做出判断,然后导致另一个重要问题:它很难调试。

 人工智能是个黑盒子

以不太严格但易于理解的方式,深度学习是标记现有数据(大量数据)的过程,然后系统本身总结了数据与结果之间的关系(即标记被标记) ),面对新数据。 ,您可以根据自己的摘要规则做出判断。对于Go,无论历史游戏还是自我游戏,AlphaGo都知道磁盘并知道结尾(也是标签)。系统将总结规则并判断在新磁盘面前赢得游戏的概率。但AI系统发现的是数据的特征及其与结果的关系,即使是创建AI的工程师也不知道。

因此,目前的人工智能系统是一个黑盒子。我们知道AI判断的正确率很高,但我不知道为什么,我不知道如何判断它。

搜索算法中的AI也是如此。百度搜索工程师的声明很少见,只知道百度现在是All In AI。 Google工程师明确表示他们不确定RankBrain的工作原理。在这种情况下,在算法中广泛使用人工智能更麻烦。一旦出现异常结果,我不知道原因是什么,无法调试。

我写这篇文章是因为我几天前在“纽约时报”上看过一篇文章,“人工智能能学会自己解释吗?”非常有趣。心理学家Michal Kosinski将来自20万个社交网络账户(约会网站)的照片和个人信息(包括很多内容,如性取向)导入人脸识别人工智能系统,并发现人工智能仅在照片被看到了。性准确度很高。通过照片判断一个人是否是同性恋者的准确率比投掷硬币高60%,但人工智能判断男性同性恋率是高达91%,女性是否低,83%。

从照片中,您无法看到有助于判断语气,姿势,日常行为和人际关系的信息。同性恋是纯粹外表的特征吗?我个人的经验是,从外表来判断是不可靠的。我曾经认识一对男同性恋者。他们都很像男人。他们一年四季都很健康,而且礼貌而不是女性。从外面看不到它们。它可能还取决于某种服装特征?表达?背景?人工智能从照片中看到人类可能忽略的特征,或人类根本无法看到的特征,并达到91%的准确度?而且知道,无论如何,只要知道AI看起来正确。

  不能解释自己的AI无法被信任

这个黑匣子的功能有时无关紧要,好像要判断性取向一样。有时你不能这么草率,就像看医生一样。尽管某些癌症的AI系统诊断的正确率已经达到了人类医生的水平,但最终的结论是医生仍然需要,特别是当AI无法告诉我们诊断的原因是什么时。除非人工智能可以解释为什么它会在以后做出这种诊断,否则对人类来说100%信任AI将是一种很大的心理障碍。

就在几天前,新加坡政府开始测试无人驾驶巴士。这显然是正确的方向,我相信它将在不久的将来成为现实。虽然自动驾驶汽车的事故发生率低于人,但我们都知道它实际上更安全。但是当过马路时,旁边的公共汽车上没有司机。我会有点担心,害怕会突然开始吗?转过身看车。巴士旁边没有司机。我会害怕并下意识地远离它吗?至少在早期。和几个朋友谈论这个问题是理性的,并且在情感上是有罪的。

之前的计划依赖于确定性和因果关系。例如,搜索算法中的哪些页面特征是排名因子,以及每个具有多少权重。这是工程师挑选出来并确定的那个。尽管可以由头部决定,但是,在监测结果和调整参数之后,将实现令人满意的平衡。人工智能系统不依赖于工程师给定的因果关系,而是更好地发现概率和相关性的联系。对于人来说,以概率和相关性为特征的判断往往难以解释原因,例如或许看情绪,也许看好不好看。

要求人工智能系统解释自己的判断不仅是一个心理问题,而且可能在未来成为道德和法律问题,就像看医生一样。例如,涉及用户利益的事情,如贷款,基于大量数据的人工智能做出拒绝贷款的决定,银行无法解释为何拒绝,如何向用户解释?今年欧盟可能不得不颁布要求机器制定的法规。必须解释决定。这对谷歌和Facebook等全球公司构成了压力。在军事,法律和金融等许多领域,所有决策都由某人承担责任。如果决定无法解释原因,没有人敢于承担这一责任。

AI需要解释其原因的另一个原因是,如前所述,人工智能可以看到概率和相关性,但看到相关性有时会导致严重错误。 “纽约时报”的文章举了一个例子。数据训练的人工智能系统协助医院急诊室分流,整体效果良好,但研究人员仍然不敢真正使用它,因为数据中的相关性可能会误导人工智能做出错误的判断。例如,数据显示哮喘患者肺炎在最终病情中优于平均水平,这种相关性是真实的。如果由于这些数据,AI系统给予患有肺炎的哮喘患者较低的治疗水平,则可能是意外。因为这些患者处于良好状态,因为他们被给予最高水平并获得最好和最快的治疗。因此,有时从相关性中看不到真正的原因。

  可解释的人工智能

X.A.I. (可解释的AI)可解释的人工智能是一个新兴领域,旨在让AI解释自己的判断,决策和过程。去年,国防高级研究计划局(Darpa)启动了David Gunning博士领导的XAI计划。谷歌仍然是这一领域的领导者,而深度梦似乎是这项研究的副产品:

回到搜索算法和搜索引擎优化,搜索引擎之所以无法完全应用人工智能,其中一个原因可能是人工智能的判断没有被解释或理解。如果算法使用当前的人工智能,一旦排名异常,工程师将无法知道原因是什么,更难以知道如何调整。

我认为自动驾驶是人工智能实际应用的第一个领域之一,它与是否可以解释有一定的关系。关于自动驾驶汽车的大多数决定都没有太多解释,或者说明一目了然。如果你太靠近前车,你需要减速或刹车。这种判断不需要进一步解释。

SEO可能有同样的疑虑。一个竞争对手的页面看起来没什么特别,内容不是很好,视觉设计一般,外链很正常,页面优化也一样,为什么排名那么好?当前的搜索算法也可以探究原因,搜索工程师可能有内部工具来查看排名的合理性。如果搜索工程师查看前面的错误页面,但不知道原因,并且找不到它们,那么他们的内心可能会感到焦虑。

XAI研究刚刚开始,它为SEO提供了最后的缓冲期。从人工智能系统在破碎人类的其他领域的表现,一旦应用于大规模搜索,作弊和黑帽SEO可能成为过去,现在常规的SEO工作可能变得无足轻重,SEO需要返回网站的本质:没有其他方法可以提供有用的信息或产品。

作者: Zac @ SEO每天发布

版权属于:中的新虚拟主机

« 不仅仅是打架,京东天猫苏宁,第一家离线商店——网易严格选择铺设全渠道大网 | 制造流行度:用6分 »