科学家最后通过什么办法使ai更聪明?

如题所述

第1个回答  2020-10-25
这是个科学的一个同时的一个方法的话,我觉得基本上这种智能比较方便
第2个回答  2020-10-25
科学家最后通过的办法使用爱更聪明,这个其实没有更好的办法,只有做更好的题目,让他的头脑变得更清晰
第3个回答  2020-10-25
对呀,就会通过什么的办法来使地缘的层层威胁,主要科学家因为转基因的方法和其他的各种手段来使它更更
第4个回答  2020-10-25
通过什么办法是a从更聪明的车就要通过实验,通过手术和郑成功发明。
第5个回答  2020-10-25
在关于人工智能(AI)的讨论中,有人认为机器可以完美做到一切。

但是,无论是想让AI帮你选购哪种物品,还是帮你筛选简历,对算法的盲目信任存在着固有的风险。

幸运的是,这个情况正有所转变。

上周,Google宣布推出新的PAIR计划(People + AI Research)——在商业互动和社会中改善AI的“偏见”。

为了更好地加强对人工智能的理解,谷歌发布了一套开放源码工具,让工程师们清楚地了解这些数据的功能。但是,随着算法的进步和发展出的“偏见”,人们将需要更多的数据来帮助他们评估人工智能提出的建议。

比方说,类比一下简单的新闻:好的记者通过呈现和连接事实来讨论和塑造舆论,最终让读者自己得出结论。在完美的设定中,AI的用户应该也有类似的体验。

然而,由于大数据的影响,AI会迎合人类的偏好和喜恶,向用户呈现带有一定倾向的信息,引导用户得出用户“喜欢”的结论,这便是AI的“偏见”。曾经美版的“小冰”口吐脏话,发表冷酷的种族歧视言论,就是最好的佐证。

因此,应该将AI提供方的看法和建议等信息(从数据源到代码的作者的详细信息)同时呈现给用户。例如,使用AI筛选简历的人力资源经理,是否知道该算法本身,能否纠正关于男女平均薪酬差距的偏见。

在新闻业中,有一些系统可能会把固有的偏见带给读者。例如,这篇文章来自哪个出版物?谁写的?记者的简介是什么?记者怎么发现这些事实的?他们使用了哪些来源,如果没有列出,那么事实如何得到证实?

在向AI用户提供这些类型的线索之前,还有很多工作要做。像人工智能基金会这样的组织,正在努力加速关于人工智能的社会和文化影响的研究。

理想情况下,每个AI生成的建议都将通过一组可访问的元数据进行备份,这些元数据能发现可能存在的偏见。然后可能以推送通知、免责声明或来自Alexa的口头警告的形式出现。不幸的是,离我们达到这个水平的透明度,还有很长的一段时间。

如果没有这些明确的数据线索,研究人员可能会刻意削弱人工智能针对性别、阶级和种族的偏见,但它不会独立于人和他们的常识,因此偏见永远无法根除。

然而,有趣的是,人类大脑已经将这些点连接起来,并可以用来纠正缺乏背景的人工智能。

当人们看到AI推荐的建议,对他们做出的反应进行实时调整时,就是他们对AI创建的一个反馈循环,这使得AI比以前更强大。

每当一个人重新定向一个人工智能系统(选择一条不同的路线,而不是你的Waze应用所建议的那样)就会训练AI在未来提供更好、更可靠的建议。通过保持AI对我们生活影响的控制,以及技术的学习,可以为更加高效的AI生态系统做出贡献。

随着时间的推移,AI将开始参与更为复杂的话题。

除了帮助您挑选东西外,还将根据您对历史的了解,帮助您选择要出席哪所大学,招聘等等。当这一天到来时,人工智能可能会蔓延到每一个行业,并支持整个行业,包括医生,技术人员,制造商和教育工作者。

了解AI的判断的来源是当务之急,而依靠人们采取的相应行动也将使高风险的建议随着时间的推移变得更加稳定。

永恒的倡议

得益于Google的双赢计划,AI背后的数据将变得更加可靠,最终让我们做出的决策更容易。但与AI产生信息交互的人仍然是方程中最关键和不可替代的部分。

为AI生态系统提供动力的数据集可能会有所改善,但是我们现在和将来如何与AI进行互动来影响它的判断也相当重要。全球部署完全客观的技术可能永远不会完成。但是,人工智能越能把人们与它的判断力联系起来,它就越准确、可信。作为一个探索人工智能的商业应用程序的人,我很高兴看到我们能有多接近这个完美的状态。