第262章 黑科技人工智能(3/5)
而人类则受制于生物进化速度,无法与其竞争,最终被超越。
霍金在发表演讲的过程中重申:人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情。
他认为,人类需要警惕人工智能发展带来的威胁。
当它们不再甘心屈服于人类时,将会产生巨大的麻烦,甚至会威胁到人们的生命安全,可见霍金早已预料到人工智能的危害。
王明把自己的担心,还有霍金的言论都跟刘长浩说了一下。
刘长浩:“老板,您的担心是完全正确的,因为,真正成熟的人工智能,会进化出自己的感情和思想,这时候的人工智能跟一个活生生的生命没什么两样。”
“这样的人工智能一旦诞生,只会有三种可能,要么成为人类的朋友,要么成为人类的敌人,要么就是中立。”
“不过,一个人工智能,想要进化成为有思想感情的智能生命的概率,绝对比一个人中一张1000亿龙国币彩票的概率还要低。”
王明:“这世界上有人能中1000亿龙国币的彩票吗?”
刘长浩:“所以说,想要出现一个真正成熟的人工智能,是非常困难的,概率小到可以忽略不计,老板您现在根本不需要担心它会出现。”
王明:“也就是说,你掌握的人工智能黑科技,并不是真正成熟的人工智能了?”
刘长浩:“没错的老板,说穿了它依旧是一段人工智能程序,只不过,它可以自主学习。”
本章未完,下一页继续