近来因为伦理问题的大讨论,有媒体报道,要让机器人更加聪明,先学会说“不”。这要从机器人学的三大定律出发,机器人不得伤害人类,或坐视人类受到伤害;在这一前提下,机器人须服从人类的命令,之后机器人必须保护自己。机器人的利用,人们总担心被不良势力操控,从而对大众做出伤天害理的事情。如果机器人能够自己衡量道德标准,主动拒绝人类的无理要求,就可以很好的避免“灾难”。这个说法更是让人啼笑皆非,人类自身的犯罪率都在提高,还谈如何不让机器人犯罪。或许笔者总是自带激进的批判精神,笔者认为,人类先教育好自身再来教育机器人也不迟。
最新消息,Google旗下的人工智能围棋软件AlphaGo,以5:0的绝对优势,战胜了围棋欧洲冠军樊麾。之前,人工智能战胜过国际象棋等其他棋类,但是一直在围棋上败下阵来,这是人工智能第一次战胜职业围棋手,围棋成为人工智能新突破选择的领域,意义重大。一位认知科学家朋友阳志平说,选取棋类作为游戏,是因为它的标准化程度较高;围棋兼具标准测试集与认知复杂度高双重特点,这样使得人工智能在围棋上取得的突破,具有划时代意义。对于人工智能来说,这是一则不错的消息,对于人类来说又何尝不是呢,这也是研发团队的巨大突破。
人工智能围棋软件AlphaGo战胜樊麾
凡事何不往有利面思考,总担心其威胁到自身生存,在笔者看来,这是人类自私本性的体现。人类历史源远流长,不说上下五千年,从文字发明说起,时间上就有七八千年,而这几千年只占人类史的百分之一而已。恐龙尚且在地球上衍生1.6亿多年,难道人类的智慧还不及恐龙么,自己把自己灭绝的想法一定是科幻片看太多。前几年的世界末日传言,我们不是完好的生存下来了么。不过借鉴恐龙的灭绝,人类还是应该保护好环境,与其在纠结人工智能的伦理道德问题,不如让人工智能更好的帮助人类解决地球生存环境问题,比一些人类毁灭论来的更加靠谱些。至于太阳爆炸这种并不是人为可以控制的,关键在把握好当下。
<上一页 1 2 3