首页
关于MONOVIEW
行业解决方案
3C电子 新能源 精密五金 汽车智造 工业自动化 半导体 医疗行业 塑胶行业
新闻中心
企业新闻 行业资讯 技术文章
联系我们
联系我们 工作机会
通往真正合乎道德的AI之路是困难的
日期:2019-10-10 来源:admin

        从使用聊天机器人在线订购比萨饼到生成非虚构文字并优化物流流程,人工智能使许多惊人的事情成为可能。它不仅使企业能够自动化和优化复杂的流程,而且还帮助人们进行研究,分析大量数据并提高了智能手机等个人设备的安全性。
        但是,随着人工智能技术的发展和发展,其帮助网络犯罪分子获取私有数据的潜力也日益增长。全世界许多国家的政府都对启用AI的工具处理的敏感数据的安全性有合理的担忧,并且已经在制定相应的法律和准则。除了安全风险外,许多人还对AI如何改变人们互动的方式以及潜在的工作损失感到担忧。
        显然,通往真正合乎道德的AI之路是困难的,在我们使之成为可能之前,我们必须克服以下障碍。
        这个问题已经成为头条新闻了一段时间了。许多经济学家,科学家和分析家一直在研究人工智能对工资的影响,他们的结论远非正面。
        “我读到的数据是,技术是导致最近不平等加剧的主要动力。”《技术评论》援引麻省理工学院管理学教授埃里克·布林乔尔夫森的话说,“这是最大的因素。”
        确实,随着越来越多的企业正在考虑实现其制造流程自动化,工业4.0正在迅速接近。然而,这次,人工智能将自动化提升到了另一个层次,技术变得更加先进,并能够替代更多的人工。尽管有人呼吁AI也会创造很多工作,但目前对影响的估计尚不全面。
        的确,最富有的组织(可以负担得起使用AI的组织)将利用这项高端技术,从而改善其市场地位并获得更多利润,这并非没有可能。结果,成千上万的小型企业及其员工队伍将越来越落后。
        玛莎·凯恩表示:“要减少甚至减轻财富不平等和人工智能的问题,世界各国政府将必须共同努力制定国际法规。” “由于财富不平等的问题已经存在并且尽管我们为防止这种不平等做出了努力,但要与之抗衡将非常困难。”
        即使AI能够处理和分析大量数据并以无与伦比的有效性执行其他操作,它仍然可能会产生诸如偏见和歧视之类的简单错误。我们已经看到过很多次了,而且我们逐渐意识到,在这一点上通过招聘等方式来信任AI可能不是一个好主意。
        例如,亚马逊发现了这一难题。该公司正在使用一种机器学习工具来招募候选人,并且在自称男性候选人更适合该公司之前研究了很多数据(根据报告,该报告分析了在10年内发送给该公司的简历) ,其中大多数来自男性)。结果,它降低了女性候选人的等级,并以非常偏颇的方式对所有候选人进行了评级。
        据该公司称,该工具从未用于评估候选人的经历。我们永远不会确切知道那里发生了什么,但是有一点很清楚:AI偏见是真实的,因为有可能在数据准备过程中引入它,而在数据处理和分析过程中却无法避免。
        一个更令人沮丧的事实是,由于以下挑战,难以解决AI偏差:
        如果在分析模型构建阶段引入偏差,发现其确切来源将变得异常困难,更不用说如何消除偏差了
        深度学习中的绝大多数标准实践都没有考虑偏见和歧视问题
        人工智能忽略了社会环境。例如,许多像聊天机器人这样的AI模型的创建者自豪地宣称,他们的产品可以在不同的上下文中用于不同的任务,但是要公平地应用社交上下文是他们还需要学习的东西。
        缺乏公平的定义。为了使AI驱动的模型最大程度地减少偏差对数据分析的影响,其创建者必须以数学术语定义公平的概念。这就是问题出现的地方,因为可以用多种方式来定义它,其中许多也是互斥的。
        毫无疑问,这是道德AI的最著名风险。由于AI驱动的系统和模型需要存储大量个人信息,因此网络犯罪分子并非不可能访问它。因此,全世界的政府已经在为AI系统实施数据保护法律。
        为了确保尽快识别和缓解任何数据泄露,我们必须提供强大而全面的保护系统。而且,这也增加了对使用多个国家公民的敏感数据的人工智能国际法规的需求。在当今的监管环境中,这样做并非易事,但这绝对是我们必须采取的措施,以避免网络罪犯大量丢失数据。
        此外,政府可能会将AI系统用于军事目的,这也带来了网络犯罪分子获得控制此类工具的风险。如果恶意使用它们,可能会造成重大损失,因此应建立适当的保护机制,以使AI免受罪犯和恐怖分子的侵害。
        没想到在清单上看到这个吗?好吧,根据Google副总裁安德鲁·摩尔的说法,人工智能“目前非常非常愚蠢”,尤其是与人类相比。正如CNet所述,这是他不得不说的用以解释该声明的内容:
        “这确实擅长做我们大脑无法处理的某些事情,但这不是我们可以敦促进行涉及类比或创造性思维或跳出框框之类的通用推理的事情。”
        显然,对于AI而言,执行“框外思考”和“创造性思维”之类的任务仍然几乎是不可能的,这意味着它无法应用于许多领域。最重要的是,当AI系统学习如何检测正确的模式并采取适当行动时,还必须经历“学习”阶段。但是,很明显,人类无法完全提供系统在现实世界中可能必须处理的所有示例,这使它很脆弱。
        例如,网络犯罪分子可以举一个未经培训的示例来欺骗系统,以得出特定结论。
        在这一点上,我们才刚刚开始设计可以解决诸如涉及重复性流程和其他非常简单的事情的问题之类的事情的AI系统。在我们训练AI系统以认识到有人在愚弄它之前,仍然存在犯错误的风险。
道德AI的道路漫长

        你知道他们说了什么; 有些事情需要时间。考虑到我们刚刚讨论的主要障碍,设计道德的AI会花费很长时间。由于如此众多的行业将从AI,自然语言处理和机器学习中受益,因此我们绝对应该加大努力,使其符合道德和客观要求。毕竟,这是为了我们自己的利益。

返回列表 分享至: