人工智能对人类未来的影响

2019-04-05  来自: 苏州优伊机器人科技有限公司 浏览次数:1697

被称为史上比较强“读脑黑科技”的BCI脑控机器人,于近日亮相“2018世界机器人大会”,吸引了不少媒体的关注。在多个项目的比赛中,来自不同国家的技术团队向人们展示了通过人脑发出指令,控制机器人完成文字输入,操纵轮椅、假肢甚至无人机等功能。 人工智能的发展速度超出了许多人的意料,从起步到现在的水平,人类仅用了半个多世纪的时间。借助脑科学、认知科学、生物工程以及网络技术的发展,许多曾经无法想象的事情正加速成为现实。也许在不久的将来,像好莱坞电影《未来战警》(Surrogates)中那样的“机器代理人”就可能进入我们的日常生活。 但是,正如无数科幻电影中展现的那样,人工智能在为人类提供服务的同时,也肯定必然带来隐患——不管这种隐患到什么程度的。问题是,开发人工智能的技术人员和企业,总是给我们展现美好光鲜的一面,而对其可能的危害性避而不谈。 人类脑控科技可能被人类不正当使用,从而增加公共安全隐患 比如脑控机器人,目前已广泛应用于军事、助残康复、灾害救援、娱乐体验航天模拟等领域,企业和媒体总是称它们为伟大的科技创新,但其实我们稍脑筋就能想到,它如果被不当或非法使用的风险很高。 事实上,只要犯罪分子存在,不仅是脑控机器人,类似许多人工智能技术都存在被反人类分子或犯罪分子所利用的类似的问题,它们在实现技术突破的同时,也在打破和重塑人类社会的游戏规则——有的还是根本性的颠覆 比如个人隐私。随着各类数据采集设

人工智能

施的广泛使用,人工智能系统不仅能通过眼底、心跳手指指纹、面相等生理特征来辨别身份,还能识别和记录人的行为喜好性取向、生活轨迹、不同年龄段的谈论的话题甚至某一时段的情绪。人工智能或云数据掌握了大量的个人隐私信息,比使用者自己更了解自己。这些数据如果使用得当,当然可以提升人类的生活品质,但如果被企业或政府非法或犯罪分子不当使用,就会造成隐私侵犯甚至绑架人类的行动 再如公共安全。这是一个相当广泛的议题,从技术本身的缺陷,管理的漏洞,到人工智能技术被犯罪分子利用等,都有可能对公共安全造成危害。还有更为根本的担忧:假设人工智能发展到超级智能阶段甚至已经超过人类自身的智商水平,那时机器人或其他人工智能系统能够自我演化,并可能发展出类人的自我意识,将对人类的主导性甚至存续造成巨大的威胁。 此外,一些问题还涉及人类理论层面。人工智能正在越来越频繁地代替人类做出决策,理论上它们必须遵从人类社会的各项规则;但事实上,要实现这一点不论是在技术还是观念上都有巨大的困难。举一个在我们人类看来或许偏端,但在技术层面却十分重要的例子:假设无人驾驶汽车前方人行道上出现个行人而无法及时刹车,人工智能系统是应该选择撞向这个行人,还是转而撞向路边的个行人来换取比较小的损失这个智能系统无法给出标准答案,就是让人去研判,也无法给出一个令全体人类满意的答案。就像你的妈妈和媳妇都掉水里了,你是先就谁呢?每个人给出的答案都是不一样的,理由也是不一样的。人工智能技术的应用,正在将一些生活中的人类理论性问题在系统中规则化比如在弯管机的使用过程中,加入人工智能成果,人类可以根据管件弯曲的需要,系统可以通过机器人来设计和自动制造出各式各样弯管机及弯管机自动化设备来制造需要的各种导通管件,不论这类管件是油路还是气路,甚至是神经单元,人工智能可以根据需要制造出比人类更厉害的自动加工设备,设备制造设备导致人类完全失控。今后如果在人工智能系统的研发设计中未与社会理论约束相结合并加入强制约束条件,人工智能的高速发展就有可能在决策中违背人类的逻辑或不遵循人类现有的理论和基本的逻辑,从而导致严重后果。但就像上面这个例子一样,人类尚且难以给出完美的答案,在技术层面就无法制定完美的游戏规则,从而必然存在漏洞。 上述这些由技术发展带来的问题很可能具有阶段性。事实上,我们并不是第一次遭遇科技与文明的冲突,如工业革命在18至19世纪造成的大量失业,又如原子弹在二战中导致大规模死伤。也许我们可以将这种现象称为人类社会的“再野蛮化序列”。 面对技术发展带来的冲击,人类社会需要在理论、法律和文化意识层面做出再调整和重塑自身,从混乱中建立新的秩序,经历再度“文明化”的过程。这正如大战之后的秩序重建一样。只是如今我们面临的危险是,人工智能技术发展太快,太缺乏规范性,其带来的变革也更深入,而人类文明秩序的修复过程未必能跟上其节奏。 因此,为了安全起见,对于人工智能可能带来的风险,理应作为基本的技术开发理论被普遍接受。特别是那些热衷于技术突破和市场开拓的人们,更应该认识到这一点。也许比较好的方式是普遍纳入教育体系,使所有可能接触人工智能的人都具备起码的安全意识。也许只有这样,我们才能避免引火玩闹。