欢迎书友访问PO文学
首页让你做短视频,你科普黑暗森林 第142章 超级人工智慧

第142章 超级人工智慧

    让你做短视频,你科普黑暗森林 作者:佚名
    第142章 超级人工智慧
    “我们所期望找到的最先进的外星文明,是否可能已经不再是 “真正的生命体”?”
    “我们人类自己,是否正走向一个 “感知能力可选项” 的未来?太空中是否散落著那些帝国的残骸,而这些残骸的每一部分都像过去一样 “鲜活且危险”?”
    “我思考了一个很有趣的观点,现在將它展示给各位,內容如下:”
    “殭尸人工智慧或许能解释 “宇宙的大寂静”,原因是:技术发展遵循 “从易到难” 的规律,这一规律也適用於人工智慧 —— 人工智慧会从简单向更复杂发展。”
    “这其中隱含的意思是:“技术奇点”不太可能在一夜之间出现;每一种更新、更复杂的人工智慧技术叠代,都需要经过一段相当长的时间才能实现。”
    “每一种更新、更复杂的人工智慧技术叠代,都需要经过一段相当长的时间才能实现;而且,一个智能种族 “不按顺序” 发展这些技术的可能性几乎为零。”
    “因此,在发展出 “感知型超级智能之前,一个文明必然会先发展出 “殭尸超级智能”—— 这种殭尸超级智能可能强大到足以 “逃离控制”,並通过故意、意外或漠不关心的方式 “杀死” 其创造者,但它本身並不具备自我认知能力。”
    “之后,这个文明才可能发展出 “感知型超级智能”—— 这种智能足够复杂,能够自我扩展,並像理性的生物实体一样行动,从而满足 “戴森困境”的要求。”
    “而且,只有当这个文明成功克服了这些初始障碍后,他们才有可能开展足够的 “人工智慧对齐”和控制研究,从而避免被自己创造的人工智慧毁灭。”
    “简而言之,危险的殭尸人工智慧会先於危险的感知型人工智慧出现;而只有在这两种危险人工智慧都出现之后,真正全面的 “安全人工智慧创建和使用方法” 才有可能被开发出来。”
    “这一推理遵循了 “排他性原则”。”
    ““不按顺序” 发明这些技术的可能性极低。需要提醒的是,在费米悖论的背景下,“排他性” 指的是:任何涉及 “行为” 的解决方案,都必须 “普遍適用” 或 “几乎普遍適用”。”
    “例如,如果某个解决方案认为 “所有文明最终都会趋向於某种特定行为”(比如避免殖民太空),那么就必须有充分的理由来解释为何这种行为的 “例外情况” 极其罕见。”
    “否则,该解决方案就会因 “非排他性” 而失去解释力。”
    “举个例子:能够进行星际旅行的文明,都必然受限於基础数学和物理的基本知识(这是 “普遍適用” 的)”
    “但他们是否喜欢棒球,却与他们探索太空的能力无关(这是 “非普遍適用” 的)。”
    “同样,儘管某些经济或政治体系可能更有利於实现太空殖民或长期存续,但我们知道,在不同的体系下,文明都有可能进入太空。”
    ““太空竞赛” 就是一个明確的例证 —— 资本主义国家(美国)和社会主义国家(苏联),都在太空探索领域取得了重大进展。”
    “同样,民主国家、寡头国家和共和国,也都证明了自己有能力发展太空计划。因此,在 “能够进行星际旅行的文明” 这一范畴中,上述经济或政治体系都不具备 “排他性”。”
    “当然,我们也可以设想一些 “例外情况”。”
    “例如:某个文明源自 “天生就能进行太空旅行的物种”—— 这类物种进化於小行星带或行星环中。”
    “同样,我们也可能设想 “所有智能文明最终都会趋向於某种特定的政治或经济体系”。但这些都只是用於阐释 “排他性” 概念的例证,它们並不需要是 “完美的规则”。”
    “即便在某个星系中,每一百万个人类文明中只有一个 “打破常规”,且该星系中仅出现过少数几个文明,那么在我们整个超星系团中,也可能存在至少一个 “例外”。”
    “此外,即便某个文明比我们早十亿年发展,且正以接近光速的速度扩张以殖民所有星球,我们目前也很可能无法观测到它们 —— 这种可能性非常高。”
    “罗伯特认为,他提出的 “殭尸人工智慧先於感知型人工智慧出现” 的观点,並不违反 “排他性原则”—— 因为感知型人工智慧理应在殭尸人工智慧之后出现,而真正安全的这两类人工智慧,都只能在 “危险版本” 之后才会出现。”
    “因此,一个文明最有可能被殭尸人工智慧毁灭。”
    “他还认为,基於我们之前討论过的原因,殭尸人工智慧不太可能被归为 “喧闹的外星人”。”
    “即便它们具备太空旅行能力,也只是通过 “微弱、简单的探测器” 来实现;而如果它们不具备太空旅行能力,就可能只是 “统治著自己的母星”,像狮子或大象一样,没有向太空探索的倾向。”
    “此外,殭尸人工智慧的创造者,想必也不会 “完全无能”,因此,殭尸人工智慧被设计成 “容易发生突变或自我损坏” 的可能性非常低。”
    “此外,殭尸人工智慧的创造者,想必也不会 “完全无能”,因此,殭尸人工智慧被设计成 “容易发生突变或自我损坏” 的可能性非常低。”
    “正如我常说的:在创造人工智慧这件事上,只有 “天才”才蠢到足以把我们所有人都害死,而其他人根本造不出能毁灭我们的工具。”
    “我们经常会设想 “灰色粘质”这类场景:自我复製的纳米机器人將一颗行星变成由它们自身构成的 “播种海洋”。”
    “人们常常將这种场景与地球早期生命的演化进行对比 —— 地球早期生命遍布全球,並最终通过光合作用等过程改变了地球环境,为包括人类在內的更复杂生命形式的出现铺平了道路。”
    “然而,如果自我复製机器人像早期生命那样容易发生突变,那么从 “灰色粘质” 中进化出 “智能体” 可能需要数十亿年的时间。”
    “但这种情况似乎不太可能发生 —— 因为任何设计这类机器的人,都可能已经掌握了关於进化和突变的知识,也可能接触过警告 “失控人工智慧” 或 “失控机器人系统” 的科幻作品。”
    “因此,有理由认为,人们会採取措施来防止不必要的突变,例如:提高复製精度、设置 “纠错算法”,以及安装物理防护装置以確保 “高保真复製”—— 这些措施都能將突变风险降至最低。”
    “殭尸人工智慧,为费米悖论提供了一个合理且发人深省的解决方案。”
    “它表明,“宇宙的大寂静” 可能是文明 “败给自身技术野心” 的结果。”
    “因此,在我们继续发展先进人工智慧的过程中,必须谨慎行事。宇宙之所以寂静,或许並非因为缺乏智能,而是因为 “没有意识的智能” 可能会成为自身最大的敌人。”
    “我认同这一观点,它是近年来我听到的关於费米悖论的较好解释之一。但该观点也存在一些潜在的漏洞。”
    “首先,这一观点假设 “人工智慧的发展存在必然的先后顺序”。”
    “由於我们可以说 “已经拥有了基础的殭尸人工智慧,且已经拥有一段时间了,但尚未拥有感知型人工智慧”,因此得出 “感知型人工智慧在殭尸人工智慧之后出现,而非之前” 的结论,似乎是合理的。”
    “但该推理的第二部分 ——“若不先遭遇危险的人工智慧,就无法拥有安全的人工智慧”—— 则似乎有些牵强。”
    “对费米悖论而言,“潜在危险的人工智慧” 並非关键,只有那些 “真正脱离控制、要么毁灭其创造者、要么造成巨大破坏以至於永久改变文明轨跡(使其无法成为『喧闹的外星人』)” 的人工智慧,才与费米悖论相关。”
    “我並不认为这种 “危险→安全” 的发展顺序是 “必然的”。”
    “目前,我们拥有人工智慧,但没有感知型人工智慧。像 chat gpt 这样的系统是否属於 “殭尸人工智慧”,想必仍存在爭议。”
    “我认为它不属於 —— 我猜测撰写本脚本的编辑们也持相同观点。”
    “而且,当我询问 chat gpt 时,它也否认自己是殭尸人工智慧,理由是 “它没有思想、欲望,也无法反思自身存在”。”
    “它解释称,自己的运作方式是 “遵循模式、逻辑和处理数据,以提供有用且连贯的响应”,但 “不会有任何体验或感受”,它 “纯粹是计算性的”,不存在 “能动性”。”
    “不过,“具有能动性的人工智慧”似乎正在迅速发展,因此我认为 “chat gpt 不是殭尸人工智慧” 这一判断是可靠的 —— 但有趣的是,当我询问另一个人工智慧时,它却將 chat gpt 归类为 “哲学殭尸”或 “殭尸人工智慧”。”
    “在今天的討论中,我们对 “殭尸人工智慧” 一词的使用略显宽泛,既包括了那些可能 “超出殭尸人工智慧范畴上限” 的例子,也包括了 “低於殭尸人工智慧范畴下限” 的例子。”
    “就我个人而言,我乐於使用人工智慧来帮我修正糟糕的拼写和语法,或进行简单的计算。”
    “如今,我通常会把段落输入人工智慧,让它帮我修正冗长的句子和拼写错误,而我则继续处理下一部分內容 —— 但我並不关心它对复杂话题的 “看法”。”
    “按照这个標准,我可以放心地说,chat gpt 是 “殭尸人工智慧” 的一个简单例子,或许可以称为 “原始殭尸人工智慧”—— 尤其是因为我们例子中的 “太空鸡”,其运作所需的技术远没有这么复杂,而如今,作为 “可能遍布星系的安静外星人” 的代表,“太空鸡” 才是我们主要关注的对象。”
    “当然,也有可能 chat gpt 和 “太空鸡” 都不属於 “殭尸人工智慧”。”
    “儘管如此,我们当前的人工智慧系统,並非 “天网”(skynet,《终结者》系列中失控的人工智慧)式的直接威胁。”
    “因此,我们不能想当然地认为 “危险的殭尸人工智慧必然先於危险的感知型人工智慧出现”,也不能认为 “只有在人工智慧造成灾难性伤害后,才能开发出安全的人工智慧”。”
    ……
    【感知能力可选项?外星人:意识是dlc,我们买不起!】
    【楼上笑死!宇宙大寂静是因为大家都被自己的殭尸ai干掉了?这剧本太黑暗了!】
    【妈耶!技术奇点不会一夜出现?那我还有时间赶紧学编程防身!】
    【哈哈哈哈!危险殭尸ai先於感知ai?这不就是“先有鸡还是先有蛋“的ai版本?】
    【等等!太空鸡遍布星系?外星人的养鸡场比我们的规模大多了!】
    【笑死!chat gpt否认自己是殭尸?这不就是殭尸说“我不是殭尸“吗?】
    【细思极恐!灰色粘质需要几十亿年进化?外星人:我们的纳米机器人还在幼儿园!】
    【楼上神了!只有天才才蠢到把我们都害死?普通人:还好我够笨!】
    【排他性原则?美苏都能上太空?看来政治体制不影响作死!】
    【完了!ai帮你改语法?小心哪天它把你的遗书都改好了!】
    【天网式威胁?我看我的扫地机器人就挺可疑的,天天在家里转悠!】
    【哈哈哈!宇宙寂静是因为没意识的智能?那我没意识是不是也很危险?】
    【太空竞赛证明了什么?证明了不管什么体制,人类都爱折腾!】
    【笑死!ai说自己纯粹是计算性的?这话听著像“我只是按程序办事“的客服!】
    【等一下!如果每个文明都被殭尸ai灭了,那宇宙岂不是个巨大的机器坟场?】
    【完蛋了!按这个理论,我们正在给自己挖坟,还是用ai挖的!效率真高!】
    【原始殭尸ai?chat gpt:我还是个宝宝,请不要欺负我!】
    【楼上別装了!你家宝宝会写论文改语法?这宝宝比博士还厉害!】
    【纠错算法防止突变?程式设计师:bug才是我们的本命,怎么可能没突变!】
    【笑死!高保真复製?我复印身份证都会糊,外星人的技术也不过如此!】
    【帝国残骸每部分都鲜活危险?这不就是宇宙版的“生化危机“吗?】
    【哈哈哈哈!ai对复杂话题没看法?它比我还有看法,我只会说“啊对对对“!】
    【等等!天生能太空旅行的物种?那它们看我们是不是像看不会游泳的旱鸭子?】
    【楼上神了!小行星带进化的生物:地球人还要造火箭?真原始!】
    【细思极恐!文明败给技术野心?我们是不是正在重复外星人的错误?】
    【完了!另一个ai说chatgpt是殭尸?ai內部都开始互相揭发了!】
    【超星系团只有一个例外?这概率比我找到对象还低!】
    【笑死!ai没有能动性?那它半夜自动更新是闹鬼吗?】
    【宇宙寂静的真相:大家都在装死,怕被殭尸ai发现!】
    【哈哈哈!编辑们认为chatgpt不是殭尸?编辑:我们可不想承认被殭尸帮忙!】
    【等一下!如果ai真的没感受,那它说“很高兴为您服务“是在撒谎?】
    【完蛋了!我们正在创造不需要意识的智能?这不就是在自掘坟墓还要装wifi?】


同类推荐: 轮回修真诀恶役千金屡败屡战魔法师小姐只想毕业(NPH)神医蛊妃:腹黑九爷,极致宠!礼服上的玫瑰香护使。PROTECTERS别偷偷咬我斗罗:我杀戮冥王,护妻千仞雪