广告

人工智能真的会终结人类的终结吗?

令人担忧的是,一些受人尊敬的科学家和技术专家警告说,人工智能的持续发展可能会带来可怕的后果。

人工智能(或AI)是我们越来越习惯于听的术语。从我们的手机的虚拟助手,到我们通过聊天机器人和在线工具(例如面部识别,量身定制的新闻摘要和推荐产品)与公司的互动,我们被告知,人工智能在我们的日常生活中越来越普遍。

因此,令人有些担忧的是,一些受人尊敬的科学家和技术专家警告说,人工智能的发展可能会带来可怕的后果。

早在2014年,史蒂芬·霍金(Stephen Hawking)就警告说:“全面人工智能的发展可能标志着人类的终结。”与此同时,技术专家埃隆·马斯克(Elon Musk)在2017年表示:“人工智能是人类文明生存的根本风险。”

广告

马斯克最近还重复了这样的警告,指出人工智能的发展“比核武器带来更大的风险”。这些都是关于AI未来发展的警告,我们不应忽视。

对于我们大多数人来说,使用虚拟助手等AI工具或自动过滤垃圾邮件来防止垃圾邮件似乎不会造成破坏人类的风险。但是,实际上,我们目前仅看到非常早期的AI形式,而实际上最好将其定义为“机器学习”。

机器学习是一种AI形式,其中对计算机进行编程以能够从数据中学习。在机器学习的情况下,算法允许计算机从中学习并基于它们接收的数据进行预测。

人们对AI未来的担忧越来越普遍,而正在开发更高级的AI。

例如,无人驾驶汽车目前正在世界范围内进行测试,并且比我们目前使用的某些工具需要更复杂的算法。无人驾驶汽车的工作原理是对它们进行编程以对不同的场景和情况做出反应。然后使用人工测试来处理错误的动作,并允许汽车从错误中吸取教训。

即使培训和测试是广泛的,也很难想象将来不会出现必须采取更多的道德或道德决定才能采取正确行动的情况,而汽车不太可能做到这一点有能力应付。因此,尽管可能还有一些问题需要解决,但无人驾驶汽车是大多数人都可以想到的东西,这也是我们大多数人都不认为对人类生存构成威胁的东西。

为了更好地理解Hawking和Musk发出警告的上下文,我们需要考虑的因素与AI的更高级形式有关。

例如,神经进化是AI的一种形式,其中进化算法用于创建人工神经网络。在这种类型的AI中,系统能够以与人脑几乎相同的方式进行进化,变异和发展。因此,这里的AI可以轻松演变成比人脑具有更大认知能力的事物。因此,由于这种发展的终点是未知的,因此这可能更令人担忧。

鉴于埃隆·马斯克(Elon Musk)的警告,看来自相矛盾的是,他投资的AI公司目前正在致力于AI的研究,力求复制甚至超越人脑的能力。 OpenAI声称,该项目将“最终为每个人提供经济上的自由,使他们能够追求自己最满意的东西。”

虽然对于我们大多数人而言,难以复制和超越人类大脑能力的AI概念,但有人认为这种力量将能够用于应对气候变化,改善所有人的医疗保健以及个性化教育。

这些问题很重要,应该探索可以解决这些问题的任何方法。但是,需要理解和控制这种强大的AI带来的未知后果。

作为未来生命研究所(Future Life Institute)于2015年开始的一封公开信,并由8000多名技术人员,科学家以及包括比尔·盖茨(Bill Gates)和史蒂夫·沃兹尼亚克(Steve Wozniak)等在内的其他人签署:好处,同时避免潜在的陷阱。”

这也许就是斯蒂芬·霍金,埃隆·马斯克和其他类似人试图表达的观点。正如史蒂芬·霍金(Stephen Hawking)所说:“总之,强大的AI的兴起对人类来说将是最好的,也可能是最坏的事情。 (问题是)我们还不知道。”

分享

信息管理的更多内容