{site_name}

{site_name}

🌜 搜索

什么会灭绝人类?

小学作文 𝄐 0
自从《2012》这部灾难片公之于众以来,许多人开始关注起我们人类的未来:我们会有一天不得不迎接全人类的终结吗?我们会遭遇什么灭顶之灾? 有人说,天灾,比如地震海啸,或者夸张一些,小行星撞击地球什么的,可能是我们的末日。在可以预见的将来,这种可能性比彩票中头奖还要低,估计天灾到来前我们可能已经不存在了,这一假说暂且不提。也有人说,机器人将终结我们的未来。仔细想来,人工智能现在发展迅猛,连世界顶级围棋高手都不敌AlphaGo,可见人工智能已经有超越人类智慧的趋势了,是不是也有可能聪明的机器人反抗人类呢?实则不然。即使人工智能可以像人类一样思考,拥有自我意识,它们也不过是一个个程序模块组装而成的,我相信人类程序员在此之前已经做好了充分的准备,有能力与反叛的人工智能对抗,再不济切断电源,无论如何也可以更胜一筹,人工智能灭绝人类就成了天方夜谭。 那么,到底是什么比上述二者更有可能使人类灭绝呢?我觉得答案在于人本身。人如果失去了价值观和同情心——人类特有的两种属性——那么人不仅变得与动物、计算机无异,而且还有可能给人类带来灭顶之灾。 有人会问,价值观不是个人的对于世界的看法吗,怎么和人类命运挂钩了呢?没错,一个人的价值观只能决定个人的成败,但如果是一个小团体呢?那么就是一个团队的命运。如果我们把小团体扩大、再扩大,大到容纳全部人类,那么可想而知,全世界的价值观足以决定人类的命运了。若是如商朝般饮酒为乐,举国上下沉迷酒宴,那么这个国家国力将衰亡,亡国之灾也即将降临。一个人的价值观决定了他对于世界的态度与自身的办事方法,一整个群体的价值观决定了群体处理事件的模式,一个世界的价值观则决定了对过去、现在、未来的态度。现在的人正在走向两个极端:一方面很多人变得极度理性,凡事都追求最优解,把一切都物化,像一个只会执行程序,每走一步都要求自己向最终胜利逼进的AlphaGo;另一方面很多人也开始变得极度盲从,网络上说什么就听什么,大家喊着爱国他们就跟着喊,大家痛斥一个明星他们也跟着骂,就如一个盲目的、只有人输入指令才会运行的算法程序。极度理性和极度盲从,这都是计算机的运行模式,人们显然是把人类本身的价值观给舍弃了。不要以为无伤大雅,极度理性会使人类丧失人性,整个社会都将变得以利益为上,人性的丧失几乎等同于人类灭绝;极度盲从会丧失人类思想的多样性,我们现在所熟知的各种哲学理论都将化为乌有,一旦有一个错误的思想出现并成为主流,那么人类的噩梦就从此开始了。 而同情心,可想而知,没有了同情心的社会将有多可怕,更不要说没有同情心的世界了。现代人对于陌生人的关怀已大不如前,大家如同计算机一样,执行自己的日常任务,其他人都不需要自己的关注。当然,也许是人们听闻了太多太多利用同情心诈骗的事了,以至于为了自保而抛弃了同情心,所以才有路人昏倒无人扶、孤寡老人守空房的社会现象。如果一个世界的人都没有了同情心会怎么样呢?二战的犹太人大屠杀、南京大屠杀便是没有同情心的体现。若是那些刽子手还有一丁点儿的同情心,他们怎么忍心把枪口对准无辜的平民?那些战犯的说辞是,我只是执行任务。当一个人把自己当作杀人的机器时,他便是人类历史上的十恶不赦的罪犯了。现在科技实在是太发达,武器实在太精良,如果世界上出现第二个希特勒,那么人类离灭绝就不远了。而这场灭绝的罪魁祸首,正是丧失了同情心、成为机器人的人类自己。 所以,依我拙见,人类如果像机器人一样思考,那么人类在精神与肉体上都会经历灭绝。我们不怕天灾,我们的科技足以抵御;我们不怕人工智能的反叛,在此之前我们已有万全的准备。我们应当也必须会害怕的,是丧失人类价值观与同情心的人类自己。历史已经为我们敲响了警钟,我们怎么能重蹈覆辙! 不过,令人欣慰的是,已经有很多人开始意识到这一点。网络上开始有人呼吁大家要有自己的价值判断和思想,社会在大力宣传助人为乐,联合国在以各种各样的方式鼓励人类互相同情,维护世界和平。从长远来看,人类的思想还不完全计算机化,我们离因内讧而灭绝的可能性正在逐渐减小。但愿我们不会变成只会执行任务而毫无人性的计算机,在有生之年不会亲眼目睹人类的灭绝。