zaobao原文:霍金:需防人工智能过度发展超越人类 2014年12月03日 1345 | (联合早报网讯)英国理论物理学家霍金提醒,过度发展人工智能科技可能导致人类最终被超越。 据新华社报道,霍金称,人工智能科技在初级发展阶段的确为人类生活带来便利,不过要警惕其过度发展,因为得到充分发展的人工智能,或许预示著人类最终被超越。 患有运动神经元疾病的霍金,一直都利用机器与外界交流。受智能手机输入法启发,美英两家科技公司合作,为霍金的电脑设计出一款新的打字软件,使这位科学家的“说话”速度提升一倍。 此软件就利用了基础的人工智能技术,可猜测使用者的思维,推荐下一个可能用到的字词。 在这款新软件的发布会上,霍金坦承人工智能的初步发展已证明了其有用性,但他担心这类技术最终会发展出与人类智慧相当甚至超越人类的机器。 他说:“到时它(机器)将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。” 今年5月,霍金曾与另外几位科学家为英国《独立报》撰文,称人们目前对待人工智能的潜在威胁“不够认真”。他表示:“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。” 不过也有科学家认为,霍金对于人工智能的未来过于悲观。他们指出,至少在相当长的时间里,人类会完全掌控这类技术的发展,利用它来解决许多现实问题,而要让人工智能技术得到充分发展,还有很长的路要走。 (联合早报网编辑:郑宝炜 )
游客:匿名[111.194.145.*] |
举报 |
科技是双刃剑 IT是双刃剑 人工智能的科学与技术也必然是这样 人们可以警惕 但人们不可能阻止
2014-12-05 09:23 |
未经允许不得转载:慧康网 » 【转载】 2014-12-04 23:49 dsA14_1204大物理学家霍金的担忧: 杞人忧天?