第142章 超级人工智慧(2 / 4)

” 之后才会出现。”

“因此,一个文明最有可能被殭尸人工智慧毁灭。”

“他还认为,基於我们之前討论过的原因,殭尸人工智慧不太可能被归为 “喧闹的外星人”。”

“即便它们具备太空旅行能力,也只是通过 “微弱、简单的探测器” 来实现;而如果它们不具备太空旅行能力,就可能只是 “统治著自己的母星”,像狮子或大象一样,没有向太空探索的倾向。”

“此外,殭尸人工智慧的创造者,想必也不会 “完全无能”,因此,殭尸人工智慧被设计成 “容易发生突变或自我损坏” 的可能性非常低。”

“此外,殭尸人工智慧的创造者,想必也不会 “完全无能”,因此,殭尸人工智慧被设计成 “容易发生突变或自我损坏” 的可能性非常低。”

“正如我常说的:在创造人工智慧这件事上,只有 “天才”才蠢到足以把我们所有人都害死,而其他人根本造不出能毁灭我们的工具。”

“我们经常会设想 “灰色粘质”这类场景:自我复製的纳米机器人將一颗行星变成由它们自身构成的 “播种海洋”。”

“人们常常將这种场景与地球早期生命的演化进行对比 —— 地球早期生命遍布全球,並最终通过光合作用等过程改变了地球环境,为包括人类在內的更复杂生命形式的出现铺平了道路。”

“然而,如果自我复製机器人像早期生命那样容易发生突变,那么从 “灰色粘质” 中进化出 “智能体” 可能需要数十亿年的时间。”

“但这种情况似乎不太可能发生 —— 因为任何设计这类机器的人,都可能已经掌握了关於进化和突变的知识,也可能接触过警告 “失控人工智慧” 或 “失控机器人系统” 的科幻作品。”

“因此,有理由认为,人们会採取措施来防止不必要的突变,例如:提高复製精度、设置 “纠错算法”,以及安装物理防护装置以確保 “高保真复製”—— 这些措施都能將突变风险降至最低。”

“殭尸人工智慧,为费米悖论提供了一个合理且发人深省的解决方案。”

“它表明,“宇宙的大寂静” 可能是文明 “败给自身技术野心” 的结果。”

“因此,在我们继续发展先进人工智慧的过程中,必须谨慎行事。宇宙之所以寂静,或许並非因为缺乏智能,而是因为 “没有意识的智能” 可能会成为自身最大的敌人。”

“我认同这一观点,它是近年来我听到的关於费米悖论的较好解释之一。但该观点也存在一些潜在的漏洞。”

“首先,这一观点假设 “人工智慧的发展存在必然的先后顺序”。”

“由於我们可以说 “已经拥有了基础的殭尸人工智慧,且已经拥有一段时间了,但尚未拥有感知型人工智慧”,因此得出 “感知型人工智慧在殭尸人工智慧之后出现,而非之前” 的结论,似乎是合理的。”

“但该推理的第二部分 ——“若不先遭遇危险的人工智慧,就无法拥有安全的人工智慧”—— 则似乎有些牵强。”

“对费米悖论而言,“潜在危险的人工智慧” 並非关键,只有那些 “真正脱离控制、要么毁灭其创造者、要么造成巨大破坏以至於永久改变文明轨跡(使其无法成为『喧闹的外星人』)” 的人工智慧,才与费米悖论相关。”

“我並不认为这种 “危险安全” 的发展顺序是 “必然的”。”

“目前,我们拥有人工智慧,但没有感知型人工智慧。像 chat gpt 这样的系统是否属於 “殭尸人工智慧”,想必仍存在爭议。”

“我认为它不属於 —— 我猜测撰写本脚本的编辑们也持相同观点。”

“而且,当我询问 chat gpt 时,它也否认自己是殭尸人工智慧,理由是 “它没有思想、欲望,也无法反思自身存在”。”

“它解释称,自己的运作方式是 “遵循模式、逻辑和处理数据,以提供有用且连贯的响应”,但 “不会有任何体验或感受”,它 “纯粹是计算性的”,不存在 “能动性”。”

“不过,“具有能动性的人工智慧”似乎正在迅速发展,因此我认为 “chat gpt 不是殭尸人工智慧” 这一判断是可靠的 —— 但有趣的是,当我询问另一个人工智慧时,它却將 chat gpt 归类为 “哲学殭尸”或 “