热罐小角

最近,科技圈发生了两件看似不相干、却都值得我们深思的事。

一方面,"滚石"和"Variety"的母公司、老牌媒体集团Penske起诉Google,因为Google搜索结果顶部的机器总结,直接挤占了他们的网站流量和收入。这背后的核心是信息的"守门人"角色正从人工编辑转向了算法。谁来定义默认答案,谁就在潜移默化地影响公众舆论的"该与不该"。

Penske起诉Google

另一方面苹果在WWDC上宣布Apple Intelligence将深入系统内核,而微软Windows 11的Recall功能则可以记录设备上的所有操作。这些都意味着,技术正在变得无处不在,像一个"全天候管家",悄悄进入我们的生活。

Windows 11 Recall

这些事件都在告诉我们,技术不只是在提高效率,它还在不知不觉中重塑我们对"对与错"的判断。以前我们做决定靠的是经验和直觉;现在一个"超级大脑"可以瞬间算出哪条路"最划算",哪种选择"收益最大"。当这种"计算"的能力被用到极致,它将如何影响我们的道德判断?

AI改变我们道德判断的两大机制

我们很容易相信算法给出的"最优解",但这可能会带来两个意想不到的后果:一是我们变得更会算计,却可能侵蚀了道德底线;二是AI能抑制我们盲目逐利,却也可能扼杀了创造力。

机制一:当"数据指标"取代"道德原则"

算法时代的"算计"变得无比精确,当一切都能被量化时,我们的道德底线很容易被悄悄替换。

  • 把"好"变成"数据"。比如,我们原本认为"对用户真诚"是件好事,但算法一来,这个抽象概念就变成了"用户满意度"这个具体指标。我们开始想尽办法提高这个数字,最后却忘了真诚的初衷。Google被起诉,就是因为"给用户一个完整答案"的指标,取代了"引用和尊重原创"的责任。
  • "甩锅"给算法。当产品出现问题时,我们很容易用一句"这是算法决定的"来推卸责任。这就像是把道德包袱外包给了技术。微软的Recall功能也面临这样的争议:虽然它带来了便利,但这种"不分青红皂白"的记录,是否违背了"最小化收集数据"的原则?
  • 默认设置的道德力量。算法默认提供的选项,比如"直接看摘要,不用看原文",会潜移默化地成为我们的习惯。一旦大多数人习惯了这些默认设置,它们就会成为新的社会常识。当"能量化的好处"压倒了"无法量化的责任",当"默认选项"取代了"主动选择",我们的道德底线就会在看似合理的商业逻辑下,一点点被侵蚀。

机制二:AI抑制了"坏",但也可能压制了"好"

算法不仅能帮我们"算账",还能监督我们"做人",这听起来是好事,但也可能带来意想不到的副作用。

  • 让投机变得更难。风控系统和信用评分让那些投机取巧的行为成本更高、风险更大。这在很大程度上确实能促进公平。例如,欧盟正在推行的内容训练透明化规定,让Meta必须给用户选择退出的权利,就是在技术层面让投机变得更难。
  • 削弱了"创造性冲动"。算法擅长"开发"和"利用",但在商业化中,人们往往倾向于把精力都放在那些"稳赚不赔"的事情上。这导致我们不再愿意冒险,不再去做那些"没用"的原创性探索。当原创内容的价值被摘要稀释,谁还愿意投入时间和精力去创造新东西?
  • 为了安全而变得千篇一律。大规模的过滤让系统"更安全",但也容易让表达、风格变得更均匀。短期看是好事,长期看却可能让那些"新范式"难以出现。如果整个行业都在追逐"可预测的正确",那些突破边界的创新就更难获得资源。

AI会成为"神"吗?

AI越来越像我们生活中的"神",这并非因为它真的无所不知、无处不在、无所不能,而是因为它让我们产生了这样的错觉。

  • "无所不知"的错觉:AI强大的数据抓取和检索能力,让我们觉得它好像什么都知道。微软的Recall功能可以记录你电脑上的一切操作,让你感觉"过去的一切"都能被还原。但它并非真的无所不知,它只是更彻底地掌握了"它能看见"的那些信息。把这种"看得更全"的能力当成"真相",就像是现代版的"拜物教"。
  • "无处不在"的错觉:苹果的Apple Intelligence深入系统,让AI像一个影子一样,随时随地提供帮助。虽然设计者努力把隐私保护融入技术架构,但这种"无处不在的帮助"很容易变成"无处不在的规范"。久而久之,AI的建议就会像教条一样,影响我们的行为和判断。
  • "无所不能"的错觉:当搜索引擎和信息分发平台合二为一,并直接给出"最终答案"时,我们往往会放弃二次求证。AI的这种"能力",其实来自于它控制的"分发权"和"界面权",而不是真正的知识权威。把这种"方便快捷"当成"道德权威",是一种非常危险的倾向。
AI的三个O:全知、全在、全能

AI之所以像"神",不是因为它真的拥有神力,而是因为它提供默认答案、常驻在我们的生活中、并且拥有强大的信息可见性。我们因此把自己的判断和责任外包给了它,这是一种危险的"规范外包"。

给AI套上"道德的缰绳"

虽然各国和大企业都在努力限制AI的影响,但我们必须清醒地认识到:我们无法完全抵抗算法对人脑的侵蚀,只能通过建立有效的"闸门"和"流程",延缓并减轻这种影响。

下面的"自我限制清单"是一些可落地、可操作的具体技巧,能够帮助创业者或管理者在企业中限制AI的影响,供大家参考。

1.明确公司的"第一性原则"

把"道德底线"刻进公司的基因里,在《公司章程》明确:合规与尊重原创永远排在第一位,其次是用户权益,最后才是效用与增长。所有产品路线图和决策,都必须严格遵守这个优先级。这意味着任何追求增长的方案,如果与合规或用户权益相冲突,都会被直接否决。

2.在决策中建立"双重审核"

要求每个可能影响外部利益的决策,都必须同时提交两份"账本":一份是效用账本,用数据说话;另一份是义务账本,用责任说话。只有当两份账本都完整且合格时,决策才能进入下一个阶段。这确保了我们在追求利益的同时,不忘承担义务。

3.给默认设置安上"安全闸门"

任何"默认开启"或"默认展示"的功能,都必须先通过一份"白名单"审核。例如,摘要必须能追溯到原文,并提供清晰的引用链接;数据采集功能默认关闭,只有用户明确同意后才能开启。选择权永远应该在用户手中。

4.精简数据

只收集完成任务所必需的最少数据;为每项数据设定"生命周期",定期执行"数据清理";训练和推理数据实行严格的分账管理和加密。这不仅能降低风险,也是对用户隐私最基本的尊重。

5.引入"人类最后签名"制度

任何可能损害用户或第三方利益的决策,都必须经过人类负责人的最终签字确认。记录下负责人"推翻模型建议"的理由和频率,并将其纳入年度审计。这让决策的责任始终归属于人,而不是算法。

6.把探索和创新作为"硬性指标"

为了避免追求短期效益而牺牲长期创新,将营收的固定比例划为"原创与长周期探索预算"。这笔预算不受季度KPI影响,专门用于资助那些需要时间才能看到回报的创新项目。这相当于在财务上为创造力保留了一块专属"领地"。

7.确保可追溯性和可控性

要求所有AI能力必须先在"沙盒"中经过严格测试,例如设定硬性的错误率、幻觉率和引用率下限,不达标绝不允许上线。同时为关键指标设置"红线"约束。比如即使点击率(CTR)再高,只要引用率或用户投诉率触及红线,该功能就会被一票否决。

最后,有两条底线可以作为公司的信条:

第一,效率再高也不能牺牲可追溯与引用。这不仅是对原创者的尊重,也是对知识产权和未来创新力的保护。

第二,能力再强也不越过"被遗忘的权利"。技术能记住一切,但人有权利让系统遗忘。这是对每个人生活边界最基本的尊重。

把义务写进架构,把创新写进预算,把默认值收回到人的选择中。只有给AI套上这些"缰绳",它的速度才配得上我们想要的方向。

关于作者

Hotcan,80后技术老炮儿和哲学爱好者

云计算和数字化转型的投资人和创业者

免责申明:本公众号不以盈利为目的,内容仅供参考,个人及所属公司对发布的信息不作任何保证和承诺。如需转载,请您注明出处和保持信息完整性。如有未注明作者及出处信息或图片,请版权所有者联系我们,我们将及时补上,感谢您的辛勤创作。本文部分文字、图像和视频由AI生成,内容经由作者审核。作者对本文原创和AI生成的内容负责。

💬 留言