Industry News
Should AI take over human life
Date:2018-12-14
Source:Samsun Technology
人工智能(AI)是未来技术的核心。很少有一种技术能像人工智能那样惠及社会。人工智能系统从大量复杂的非结构化信息中学习,并将其转化为可实施的见解。
可以想象,在未来的几十年内,由于可以收集和分析的数据量不断增加,人类可以在各个领域取得重大突破,比如医学创新、气候分析和复杂的全球经济管理等等。
就像对人产生信任需要时间一样,对AI系统建立信任也不可能短时间内完成。但这并不意味着单靠时间就能解决人工智能的信任问题。人们总是希望事情会像期望的那样发展,但正像人类一样,AI也会犯错。
为什么社会对人工智能充满怀疑?
人工智能及机器人技术的进步日新月异。今天,机器人可以执行许多人类任务,从地毯吸尘到农业生产,将人类从冗长的时间和密集的劳动强度中解脱出来,并为许多行业带来变革。
然而,当提到人工智能和机器人时,特别是在媒体上,人们经常报以怀疑的态度,往往会想到刀锋战士或终结者的场景:人类跪拜在机器人面前。这不是现实,也不可能发生。
还有更多的讨论,比如机器人承担了工作,让人们没有机会谋生。 在某些情况下,人工智能将取代人,这就是技术发展的结果。以自动驾驶车辆为例。
人工智能将会影响出租车司机和货车司机的生意,也将扰动更广泛的汽车行业,因为它会改变汽车的拥有权——为什么要买车?一辆车一年的运行成本超过2000英镑,还不包括燃料。
当然,如果不用考虑停车费、服务费和养车带来的其他费用时,还是可以买一辆。另外一个值得关注的问题就是智能化问题,有朝一日机器人是不是会比人们更聪明,完全“接管”人类的工作?
机器人已经非常聪明,但他们会发展出像感觉或道德认知这样的能力或智能化行为吗?这是人类和机器人之间的主要区别,人类本能地知道什么是对与错。
道德认知并不是AI掌握的东西,而且老实说,将来是否能掌握也是有争议的。这是因为道德规范是没办法通过创建算法实现的。这也突出了AI存在的偏见问题。
“算法偏见”就是看似无害的编程会带有来自创作者或数据的偏见,正如本文开头的例子所强调的那样。但简而言之,机器偏见就是人类的偏见。
处理这个问题的关键取决于技术公司、工程师和开发人员,他们都采取切实的措施,以防止偶然产生的区分算法。通过算法审核和始终保持透明度,可以确保AI算法远离偏见。
AI系统透明度的重要性
展望未来,技术公司和他们所创建的AI系统的透明度是解决所有问题的关键。仅靠强大的性能不会让人们主动接受AI。
的确,当人们想搜寻一家餐厅或一首最喜欢的歌曲时,会发现像Siri和Google Now这样的数字私人助理非常好用,但这并不意味着AI完全被接受了。随着消费者对AI的熟悉程度越来越高,对透明度的认识和需求也会越来越大。如何才能使这些系统变得透明?
AI可以分为两大类:透明和不透明。企业在展示他们AI系统的工作时,首先需要明确他们的系统属于哪个类别。
透明的系统使用自我学习算法,这种方式可以通过评估显示他们的工作内容,以及通过什么方式做出决策。不透明的系统正相反,它只解决自己的问题,并不能显示其推理的过程。
像预测分析这样的功能,属于简单的自动决策,往往遵循相当透明的模式。不透明的人工智能可以超越开发者的梦想形成深刻的见解,但它也会从开发者手中夺走一定程度的控制权。
我们能相信AI吗?
为了对人工智能建立信任,所有人都有责任不断学习和了解行业优势和术语,而科技公司也必须负起责来,确保他们自己创建的人工智能系统是透明化的,明确他们可以做什么。例如,面部识别系统是为了验证一个人的身份,还是也可以分析和记录面部反应?
关于人工智能对社会和文化的影响,还需要进行更多的交流和探讨。例如,未来人类应该有多少时间用于工作?如果某些工作是由机器人完成的,是否应该制定关于工资的相关社会政策?比尔·盖茨还提出了关于机器人是否应该得到报酬以及纳税的问题,以及在未来几十年中资本是否能够在AI时代继续生存的更广泛和复杂的问题。
除了技术以外,机器人的道德规划也必须成为首先需要解决的问题。正如霍金(Stephen Hawking)教授所说:“计算机将在未来100年的某个阶段通过AI超越人类。当发生这种情况时,我们需要确保计算机的目标与我们的目标保持一致。”只有让AI在负责任的状态中不断进步,并保持透明度和充分合作,才能做到这一点。
可以想象,在未来的几十年内,由于可以收集和分析的数据量不断增加,人类可以在各个领域取得重大突破,比如医学创新、气候分析和复杂的全球经济管理等等。
就像对人产生信任需要时间一样,对AI系统建立信任也不可能短时间内完成。但这并不意味着单靠时间就能解决人工智能的信任问题。人们总是希望事情会像期望的那样发展,但正像人类一样,AI也会犯错。
为什么社会对人工智能充满怀疑?
人工智能及机器人技术的进步日新月异。今天,机器人可以执行许多人类任务,从地毯吸尘到农业生产,将人类从冗长的时间和密集的劳动强度中解脱出来,并为许多行业带来变革。
然而,当提到人工智能和机器人时,特别是在媒体上,人们经常报以怀疑的态度,往往会想到刀锋战士或终结者的场景:人类跪拜在机器人面前。这不是现实,也不可能发生。
人工智能将会影响出租车司机和货车司机的生意,也将扰动更广泛的汽车行业,因为它会改变汽车的拥有权——为什么要买车?一辆车一年的运行成本超过2000英镑,还不包括燃料。
当然,如果不用考虑停车费、服务费和养车带来的其他费用时,还是可以买一辆。另外一个值得关注的问题就是智能化问题,有朝一日机器人是不是会比人们更聪明,完全“接管”人类的工作?
机器人已经非常聪明,但他们会发展出像感觉或道德认知这样的能力或智能化行为吗?这是人类和机器人之间的主要区别,人类本能地知道什么是对与错。
道德认知并不是AI掌握的东西,而且老实说,将来是否能掌握也是有争议的。这是因为道德规范是没办法通过创建算法实现的。这也突出了AI存在的偏见问题。
“算法偏见”就是看似无害的编程会带有来自创作者或数据的偏见,正如本文开头的例子所强调的那样。但简而言之,机器偏见就是人类的偏见。
处理这个问题的关键取决于技术公司、工程师和开发人员,他们都采取切实的措施,以防止偶然产生的区分算法。通过算法审核和始终保持透明度,可以确保AI算法远离偏见。
AI系统透明度的重要性
展望未来,技术公司和他们所创建的AI系统的透明度是解决所有问题的关键。仅靠强大的性能不会让人们主动接受AI。
的确,当人们想搜寻一家餐厅或一首最喜欢的歌曲时,会发现像Siri和Google Now这样的数字私人助理非常好用,但这并不意味着AI完全被接受了。随着消费者对AI的熟悉程度越来越高,对透明度的认识和需求也会越来越大。如何才能使这些系统变得透明?
AI可以分为两大类:透明和不透明。企业在展示他们AI系统的工作时,首先需要明确他们的系统属于哪个类别。
透明的系统使用自我学习算法,这种方式可以通过评估显示他们的工作内容,以及通过什么方式做出决策。不透明的系统正相反,它只解决自己的问题,并不能显示其推理的过程。
像预测分析这样的功能,属于简单的自动决策,往往遵循相当透明的模式。不透明的人工智能可以超越开发者的梦想形成深刻的见解,但它也会从开发者手中夺走一定程度的控制权。
我们能相信AI吗?
为了对人工智能建立信任,所有人都有责任不断学习和了解行业优势和术语,而科技公司也必须负起责来,确保他们自己创建的人工智能系统是透明化的,明确他们可以做什么。例如,面部识别系统是为了验证一个人的身份,还是也可以分析和记录面部反应?
关于人工智能对社会和文化的影响,还需要进行更多的交流和探讨。例如,未来人类应该有多少时间用于工作?如果某些工作是由机器人完成的,是否应该制定关于工资的相关社会政策?比尔·盖茨还提出了关于机器人是否应该得到报酬以及纳税的问题,以及在未来几十年中资本是否能够在AI时代继续生存的更广泛和复杂的问题。
除了技术以外,机器人的道德规划也必须成为首先需要解决的问题。正如霍金(Stephen Hawking)教授所说:“计算机将在未来100年的某个阶段通过AI超越人类。当发生这种情况时,我们需要确保计算机的目标与我们的目标保持一致。”只有让AI在负责任的状态中不断进步,并保持透明度和充分合作,才能做到这一点。