霍金认为,随着人们科学技术水平的日益上升,导致未来人工智能得到的信息技术会愈发强大。而未来人工智能可能会以生化战争或核子战争的方式摧毁人类。人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的灾难。
网图
霍金还说,当这些人工智能开始学会了思考或是有了自己的“智慧”以后,地球毁灭也只是时间问题。不可否认的是,现阶段的人工智能科技带给人们非常多的好处,对于人们非常有利,人们也热衷于去开发它并且依赖它。但就是人类的这种懒惰和贪婪的心理,未来将会导致我们走向灭亡。
网图
霍金在一次采访中曾说过这样一段话:我说的人工智能将会摧毁人类,并不是他们拥有着常人不可能拥有的智慧或者想法,而是当他们的信息高度发达的时候,如果它们做一件事的目标和人类预期的目标发生冲突,那么人类的噩梦就要开始了。霍金觉得如果现在人们还不能看清未来,不能为未来做好最坏打算,建立相对于人工智能更好的管理办法,人类最终会败给人工智能,而这只不过是时间问题。
上一篇:上一篇:男孩因妈妈怀二胎离家出走
下一篇:下一篇:外星人无力入侵地球 距离和速度是大问题
世界上往往有许多事无法解释,或许是因为现在我们的科学水平还比较低,无法解释。比如有些人会拥有一些我们无法理解的能力,甚至他们自己也无法解释。无论大人还是孩子,都非...详细>>