霍金传奇:成名于黑洞研究,告诉人类“时间有开端”
摘要:全身仅有几个手指可以活动的他,以其对现代物理学突出的贡献和特殊的人生经历成为世人眼中当之无愧的传奇人物。
著名物理学家斯蒂芬·霍金去世,享年76岁。据英国广播公司(BBC)14日报道,霍金的三个孩子发表声明宣布了父亲当天去世的消息,称他的勇气与坚持鼓舞了全世界。
这是2013年4月16日霍金在美国加州理工学院参加活动的资料照片。新华社记者 杨磊 摄
新华社此前报道,如果说当代科学界有谁能和爱因斯坦相提并论,答案莫过于斯蒂芬·霍金。全身仅有几个手指可以活动的他,以其对现代物理学突出的贡献和特殊的人生经历成为世人眼中当之无愧的传奇人物。
霍金的成名始于他对黑洞的研究成果。在结合了广义相对论和量子理论进行研究之后。1974年3月1日,霍金在《自然》上发表论文,阐述了自己的新发现——黑洞是有辐射的。
这一发现被认为是多年来理论物理学最重要的进展,他的论文也被称为“物理学史上最深刻的论文之一”。
从研究黑洞出发,霍金继续探索了宇宙的起源和归宿,解答了人类有史以来一直探索的问题:时间有没有开端,空间有没有边界。1983年霍金发表了自己的研究结论:宇宙是有限的,但无法找到边际,这如同地球表面有限但无法找到边际一样:时间也是有开始的,大约始于150亿到200亿年前。
1988年霍金的惊世之作《时间简史:从大爆炸到黑洞》问世。这本著作被誉为人类科学史上里程碑式的佳作。至1995年10月该书发行量已超过2500万册,译成几十种语言。
2001年,霍金完成了《时间简史》的姐妹篇《果壳中的宇宙》。霍金还与人合作编著出版了《空间-时间的大比例结构》(1973)、《广义相对论:爱因斯坦百年评论》(1979)、《超空间和超重力》(1981)和《宇宙之始》(1983)等著作。
霍金的传奇也源于他不凡的人生经历。早在大学学习后期,霍金被诊断为“肌肉萎缩性脊髓侧索硬化症”,不久半身不遂。1985年霍金丧失语言能力,表达思想唯一的工具是一台电脑声音合成器。他用仅能活动的几个手指操作一个特制的鼠标器在电脑屏幕上选择字母、单词来造句,然后通过电脑播放声音,通常制造一个句子要5、6分钟,为了合成一个小时的录音演讲要准备10天。尽管如此,霍金仍然热衷公众演讲,乐于与人们进行思想的交流,将科学的思想传播到世界各地。
霍金1942年1月8日出生于英国牛津,曾先后求学于牛津大学和剑桥大学三一学院,并获剑桥大学物理学博士学位。
1965年霍金进入剑桥大学冈维尔和凯厄斯学院任研究员。这个时期,他在研究宇宙起源问题上,创立了宇宙之始是“无限密度的一点”的著名理论。1969年霍金开始在冈维尔和凯厄斯学院科学院任杰出成就研究员。
1972年至1975年霍金先后在剑桥大学天文研究所、应用数学和理论物理学部从事研究工作,1975至1977年任重力物理学高级讲师,1977至1979年任教授。1979年起霍金任卢卡斯讲座数学教授,这个位置曾经属于科学巨匠牛顿。
霍金获得过许多荣誉及奖励。1974年他当选为皇家学会最年轻的会员,1974至1975年成为美国加利福尼亚理工学院费尔柴尔德讲座功勋学者。1978年霍金荣获世界理论物理研究的最高奖阿尔伯特.爱因斯坦奖。1988年获沃尔夫物理学奖。
1990年霍金与结婚25年的妻子简·怀尔德离婚,他和怀尔德有三个孩子。1995年霍金与他的护士伊莱恩·梅森结婚。
霍金的遗愿清单:离开地球和警惕人工智能
轮椅上的斯蒂芬·霍金终于离开了地球,可以和爱因斯坦、牛顿他们一起打打牌了。
在过去的二十年里,霍金是明星,除了继续探索宇宙理论,他也出现在各种场合,为所有关切人类命运的主题发声。而在他去世前的这几年中,霍金最关注的话题就是:离开地球和警惕人工智能。
现在我们就梳理下霍金通过各种渠道谈论这两个话题的言论。
关于离开地球,早在2011年霍金在接受美国视频共享网站BigThink访谈时就称地球将在两百年内毁灭,人类要想活命只能移民外星球。
2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出了人类移民太空的原因所在:一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。 2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。这样的指数增长不能持续到下个千年。 到2600年,世界将拥挤得 “摩肩擦踵”,电力消耗将让地球变成“炽热”的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。
而在2017年7月,霍金就痛批美国总统特朗普退出气候问题《巴黎协定》的决定,可能将导致不可逆转的气候变化,警告称此举或将让地球变成一个金星一样的温室星球。霍金在接受BBC专访时表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。
也是在2017年6月播放的纪录片《远征新地球》(Expedition New Earth)中,霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。
离开地球,霍金也不是光嘴皮子吓唬吓唬大家,2016年4月12日在纽约宣布启动“突破射星”计划,将同俄罗斯商人尤里·米尔纳(Yuri Milner),以及美国社交网站面簿创始人兼总裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飞往比邻星的微型星际飞船。
除了地球即将面临的各种风险,霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)。
2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”他还说,“自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种‘优势’”,霍金解释自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。”
2016年10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正式投入使用。霍金在庆祝典礼上发表了演讲。霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。“我们花了大量的时间来学习历史。”霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。” “我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。
2016年1月26日和2月2日在BBC电台第四频道播出霍金瑞思系列演讲(Reith Lectures),在演讲中他直言,科学技术的进一步发展会惹出更多的新麻烦。同样在这个演讲中,霍金依旧认为科技进步是人类的新威胁。他甚至提及若人类最终得以在其他星球建立家园,或许还能幸存下来。
“尽管地球在某一年遭受灭顶之灾的可能性很低,但随着时间的推移,在未来几千或几万年,这会是可以预见的事情。那时,我们应该已经进入太空、住到其他星球上。所以地球上的毁灭并不意味着人类的终结。”“然而,至少在未来数百年里我们还无法在太空世界建起人类的地盘。所以我们现在必须非常小心。”
2015年,霍金曾联合思想家乔姆斯基马斯克等数千名知识分子发表联名公开信中警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。
这封公开信由未来生活研究所(Future of Life Institute)发起,这个团体致力于缓解“人类面临的生存风险”,警告人们启动“人工智能军备竞赛”的危险。公开信中谈到“人工智能技术已经达到了这样一个地步:如果没有法律限制,那么这种系统的部署在未来几年中就可以实现,并不需要等待几十年。”
而早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示:“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”
霍金也许对人类和科技的未来是悲观的,他并不信任人类真的能控制科技这个怪物,但令人讽刺的是,一旦人类用科技毁掉了这个星球,他所能仰赖的也只有科技能帮这个种族在外星球继续繁衍。
让我们别忘记霍金的预言和警告。