机器智能研究所的决策理论家Eliezer Yudkowsky在最近的一篇专栏文章中写道,特斯拉首席执行官埃隆·马斯克和数百名其他创新者和专家呼吁“暂停”开发“比GPT-4更强大的人工智能系统”六个月,这低估了“形势的严重性”,暂停新的大型人工智能学习模型,这是“无限期的和全球性的”
这封信由生命未来研究所发布,包括马斯克和苹果联合创始人史蒂夫·沃兹尼亚克在内的1000多人签署。信中认为,安全协议需要由独立监管机构制定,以指导人工智能系统的未来。
信中说:“只有当我们确信它们的效果是积极的,风险是可控的时,1000000000亿年后的地球,才能开发出强大的人工智能系统。”。尤德科夫斯基认为这是不够的。,
信中说:“只有当我们确信它们的效果是积极的,风险是可控的时,才能开发出强大的人工智能系统。”。尤德科夫斯基认为这是不够的。
我们现在的地球有61亿人,占地球上曾经生活过的总人口的5.7%。在1900年,全世界只有16亿人,但是发展中国家人口的快速增长导致世界人口的激增,所以我们现有人口占地球曾有人口的比例在上升。 问题二:地球上一共有多少人 美国中央情报局。
苹果联合创始人埃隆·马斯克和其他科技专家呼吁暂停“大规模人工智能实验”:“危险的种族”
截止2021年查询,地球上一共有75.7924亿人(数据统计于2019年)。人口是一个内容复杂、综合多种社会关系的社会实体,具有性别和年龄及自然构成,多种社会构成和社会关系、经济构成和经济关系。是一定数量个人的综合,强调规模。
2023年1月22日,布鲁塞尔,手机上的OpenAI ChatGPT和屏幕上的AI Brain。
尤德科夫斯基在《时代》杂志上写道:“关键问题不在于‘人类竞争’智能(正如公开信所说);而在于人工智能变得比人类智能更聪明之后会发生什么。”。
他断言:“许多研究这些问题的研究人员,包括我自己,都认为,在目前的情况下,构建超人类智能人工智能最有可能的结果是,地球上的每个人都会死亡。”。“不是说‘也许有一个遥远的可能’,而是说‘这是显而易见的事情。’”
人工智能“教父”人工智能可能毁灭人类:“这并非不可想象”
2月7日,OpenAI首席执行官Sam Altman在微软公司发表主题演讲,宣布为Bing集成ChatGPT。
OpenAI的新GPT-4学习模型是迄今为止开发的最先进的人工智能系统,能够与用户一起生成、编辑和迭代创造性和技术性的写作任务。
对尤德科夫斯基来说,问题在于,一个比人类更聪明的人工智能可能会违抗其创造者,不关心人类的生命。不要认为《终结者》——“想象一个完整的外星文明,以人类数百万倍的速度思考,最初局限于计算机——在一个从它的角度来看非常愚蠢和缓慢的生物世界里。
据统计,1977年统汁,全世界人口超过41亿,1975年统计全世界人口有39.6亿,到了2017年4月24日16时21分(UTC)达到75亿人。增加了几一倍的人口,根据联合国估计,到了2023年,世界人口很可能将达到70亿,到了2050年时,。
尤德科夫斯基警告说,目前还没有针对超级智能的拟议计划,因为超级智能决定了它所要解决的任何问题的最佳解决方案,即消灭地球上的所有生命。他还担心,人工智能研究人员实际上并不知道学习模型是否已经变得“有自我意识”,也不知道拥有它们是否合乎道德。
地球上一共有75点7924亿人。2019年发布的世界人口总数77亿人相比虽仍保持正增长的趋势,但增速在放缓,更多国家开始出现人口萎缩的现象。世界人口增长的分布出现极不平衡的现象,最不发达的地区将成为人口增长最快的地区,。