本文归档自微信公众号「脑机共生」。
“在物理世界,实体主要优先考虑保护人。但在一些情况下,资产却是优先于人得到保护的。”
因为想今年想考CISSP,所以一直在读教材。上面那句话是今天在教材中看到的,刚看到这句话我都有些诧异,可能还带一点点恐惧,因为,作为信息安全从业者,难道在有些情况下系统比自己的命还重要?所以我放下书和AI对话。
这句话其实揭示了一个我们平时忽略的问题:
在面对极端风险时,我们真的总是把人放在第一位吗?还是说,那只是我们在和平日常中的一种“想当然”?
一、当系统面对极端风险时,什么才最重要?
当风险上升到更高层面,我们的判断逻辑也会随之发生变化。这个变化,不只是技术层面的选择,更是整个社会、整套价值体系的反映。而这些价值观,并不是一成不变的。
从现实讲起。
当资源不足时,为防止更大损害时。
如:面对工业园区或重要设施起火,消防部队会优先保护关键设备(如高压油罐、电站、化工仓库),而不是分散资源全力搜救每一个人。在部分情形中,甚至暂停对边缘受困人员的救援,以腾出力量保护资产核心区。
当牺牲极少数人,可以保全更大范围的公众安全与利益时。
如:切尔诺贝利事故中,技术人员留在高辐射区以手动维持控制,牺牲自己以避免更大灾难。
当“个体生命权”与“更高级别的安全”产生冲突时。
如:国外一些军事区域中设置“禁止进入、违者射杀”的标识,在未经授权入侵时,安全部队优先保护设施而不是入侵者生命。
当以系统效能为最高目标,人的生命被视作可预期损耗时。
如:美苏冷战时期核潜艇或导弹基地中,核发射控制官员被要求在必要时即使自己受到攻击,也必须优先完成核指令的执行。这些系统的设计原则是“保证资产(武器系统)的绝对执行性”,哪怕牺牲控制者自身。
这些极端场景下的决策,其实可能早已被写进了应急预案等制度文件。它们不是突发奇想,而是理性规划的一部分。在某些系统中,“人”不是不重要,但确实不是唯一重要的。
二、现实版电车难题:“资产优先?人优先?”
“人优先”的假设并不总成立,不是因为人不重要,而是在某些情境中,有比个体生命更难以承受的后果。但这并不代表“资产更重要”,也不一定代表某种道德沦丧,它其实只是反映了背后的一套被制度、文化与历史长期塑造的价值排序。
有一种经典的道德难题叫“电车难题”。一列失控的电车即将撞死五个人,你站在控制杆前,可以拉动操纵杆让车转向,只会撞死另一个人。你拉还是不拉?
这个难题已经被讨论了几十年,因为它触及了人类最根本的一个问题:当所有选择都带来牺牲,我们要优先保护谁?
今天看似冰冷的安全策略、资产保护优先级,其实也都是现实世界版本的“电车难题”。你以为自己没有参与选择,但其实每一条安全策略、每一次默认设定、每一个突发事件下的 SOP,其实都是某个人、某个集体、某种制度,已经提前拉了那个操纵杆。
三、CISSP视角下,如何做决策?
CISSP 的一整套安全理念,其实都建立在一个核心假设上:
系统必须最小化整体风险。
这就是“系统化牺牲”的逻辑。它早已存在,也确实保护了更多人,只是很多时候,我们并未意识到这背后的价值判断。
当我们一步步走进由人工智能主导判断的世界,由算法制定规则的社会,由去中心化代码自动执行逻辑的系统,我们还是否能对这些“电车拉杆”有所感知?还是说,那道拉杆已经变成了我们看不见的一段代码,跑在我们看不懂的链上、服务器里、自毁逻辑中,而我们只能默默接受它的判断结果。
这并不是杞人忧天。CISSP教材里的那句话,是技术世界里一段看似中性的描述。但在它背后,其实是在问我们:到底什么最重要?而这个答案,是我们应该主动去理解、去参与的,而不是被动接受。
四、真正的问题是:谁在做决定?
技术不是问题,规则才是。
或许我们该思考的,不是这些机制存不存在,而是:这些选择的优先级是谁定的?我们能不能参与?未来的系统还会给人选择的余地吗?
这些“系统”中,每一个“牺牲或保护”的判断,都写进了程序逻辑。而这个“程序”,往往不是你能看懂、参与或修改的。
它可能是军规,是安全标准,是芯片固件,是早年写入的“不可变代码”。
在今天,它还是“算法”。它越来越隐形,也越来越自动化。
你可能根本不知道系统会在什么时候决定牺牲你。甚至不知道自己什么时候已经交出了这个判断的权力。
这才是我们要认真面对的问题:
未来,当越来越多判断由 AI 完成时,我们还有多少选择的余地?
五、AI判断系统:新的“拉杆”在哪里?
人工智能系统,将会接管越来越多本该由人做出的判断。比如:
• 你在刷短视频时,AI决定你看到什么; • 自动驾驶中,AI 判断撞树还是撞人; • 自动化战场中,AI 判断目标是否该摧毁; • 在医院,AI判断哪位病人更“值得抢救”; • 城市管理中,AI 判断哪里该封控;
而这些决策,可能在毫秒间完成。没有情绪、没有犹豫、也没有责任人。
你想拉一下电车拉杆?很抱歉,拉杆已经没有了。它变成了一段运行在 GPU 上、跑在封闭系统里的代码。
更进一步,当这些判断嵌入区块链、智能合约和自动执行网络中时,连“干预”的机会都没了。
你不能打电话、不能紧急制止,也无法提出质疑。规则早已写入链上,自动执行,不可篡改。
未来的“选择”将由 AI 决定?
表面上看,AI 是“没有偏见的程序”,它只会基于逻辑和数据做出“理性”的判断。但现实恰恰相反:AI 不是价值中立的工具,而是承载价值观的系统。
AI 的每一次判断,其背后都映射着人类社会复杂的利益博弈。
它的训练数据来自过去,意味着它的“理性”建立在历史的偏见、歧视、效率权衡之上。
它的目标函数由人设定,意味着它在权衡生命、成本、资产时,其实执行的是某种既定的价值排序。
哪怕你觉得它很“公平”,也只是因为它与你的判断暂时一致而已。
AI 的价值观,是人类价值观的总和?
这是一种常见说法,也是一种危险的误解。
在表面上,AI 吸收了人类的语言、行为和经验,它“理解”了人类价值。但问题在于:
谁来提供这些数据?
谁决定哪些数据更重要?
谁决定“什么是正确”?
AI 的核心,不是数据,而是谁在用什么逻辑处理这些数据。如果一个算法系统被资本驱动,那它自然更倾向于保护资产、优化利润,而非保护“人”。
如果一个系统被更高的逻辑主导,它就会在危机时刻优先牺牲个人,而非保护个体的“感受”。
所以,说 AI 的价值观是人类的总和,不如说它是“有选择性地继承了一部分人类价值观“或”在某个权力结构下继承了一部分人类的价值观。”
AI擅长的,是最优解
AI 擅长的,是“最优解”。但这个“最优”,是谁定义的?
算法要么最小化成本、要么最大化效率,要么优化安全概率。
它不会犹豫,不会妥协,也不会问你是否接受。
也正是因为这样,我们才更该追问:那个‘最优’,是谁说了算?
但生活中的选择,从来都不只是最优解的问题。
比如你会为了孩子放弃升职机会,会为了朋友挺身而出,会在电车难题中选择“承担”而非“最小损失”。
人类的选择不是公式,而是共识。是那种可以讨论、争论、甚至悔恨的过程。
而 AI,不会给你这个过程。
六、写在最后:我们不能沉默
CISSP 教材里那句“在物理世界,实体主要优先考虑保护人。但在一些情况下,资产却是优先于人得到保护的”,这本是一句技术术语。但它背后,是我们这个社会在风险中判断“什么值得牺牲”的共识。而这个共识,如果你不主动参与,就只能被动接受。
技术是中性的,但规则不是。
系统越来越强大,人的权力就越来越小。
如果我们不开始思考、不参与决策,那最终只能接受程序为我们安排的一切。
也许未来我们还能看到那个“拉杆”,也许已经再也看不到了。
我不是制定规则的人,但我相信,越是在算法主导未来的年代,我们越不能放弃对“谁来决策”的追问。
如果你也觉得这些问题值得被更多人关注,请转发这篇文章。
你我的主动参与,或许能让明天的AI,多一点人性,少一点冷漠。
如果你对这些内容感兴趣,欢迎关注我,未来还有更多不同领域的深度分享,期待与你一起探索。