最近,科技圈發生了兩件看似不相干、卻都值得我們深思的事。
一方面,"滾石"和"Variety"的母公司、老牌媒體集團Penske起訴Google,因為Google搜索結果頂部的機器總結,直接擠佔了他們的網站流量和收入。這背後的核心是信息的"守門人"角色正從人工編輯轉向了算法。誰來定義默認答案,誰就在潛移默化地影響公眾輿論的"該與不該"。
另一方面蘋果在WWDC上宣佈Apple Intelligence將深入系統內核,而微軟Windows 11的Recall功能則可以記錄設備上的所有操作。這些都意味着,技術正在變得無處不在,像一個"全天候管家",悄悄進入我們的生活。
這些事件都在告訴我們,技術不只是在提高效率,它還在不知不覺中重塑我們對"對與錯"的判斷。以前我們做決定靠的是經驗和直覺;現在一個"超級大腦"可以瞬間算出哪條路"最划算",哪種選擇"收益最大"。當這種"計算"的能力被用到極致,它將如何影響我們的道德判斷?
AI改變我們道德判斷的兩大機制
我們很容易相信算法給出的"最優解",但這可能會帶來兩個意想不到的後果:一是我們變得更會算計,卻可能侵蝕了道德底線;二是AI能抑制我們盲目逐利,卻也可能扼殺了創造力。
機制一:當"數據指標"取代"道德原則"
算法時代的"算計"變得無比精確,當一切都能被量化時,我們的道德底線很容易被悄悄替換。
- 把"好"變成"數據"。比如,我們原本認為"對用户真誠"是件好事,但算法一來,這個抽象概念就變成了"用户滿意度"這個具體指標。我們開始想盡辦法提高這個數字,最後卻忘了真誠的初衷。Google被起訴,就是因為"給用户一個完整答案"的指標,取代了"引用和尊重原創"的責任。
- "甩鍋"給算法。當產品出現問題時,我們很容易用一句"這是算法決定的"來推卸責任。這就像是把道德包袱外包給了技術。微軟的Recall功能也面臨這樣的爭議:雖然它帶來了便利,但這種"不分青紅皂白"的記錄,是否違背了"最小化收集數據"的原則?
- 默認設置的道德力量。算法默認提供的選項,比如"直接看摘要,不用看原文",會潛移默化地成為我們的習慣。一旦大多數人習慣了這些默認設置,它們就會成為新的社會常識。當"能量化的好處"壓倒了"無法量化的責任",當"默認選項"取代了"主動選擇",我們的道德底線就會在看似合理的商業邏輯下,一點點被侵蝕。
機制二:AI抑制了"壞",但也可能壓制了"好"
算法不僅能幫我們"算賬",還能監督我們"做人",這聽起來是好事,但也可能帶來意想不到的副作用。
- 讓投機變得更難。風控系統和信用評分讓那些投機取巧的行為成本更高、風險更大。這在很大程度上確實能促進公平。例如,歐盟正在推行的內容訓練透明化規定,讓Meta必須給用户選擇退出的權利,就是在技術層面讓投機變得更難。
- 削弱了"創造性衝動"。算法擅長"開發"和"利用",但在商業化中,人們往往傾向於把精力都放在那些"穩賺不賠"的事情上。這導致我們不再願意冒險,不再去做那些"沒用"的原創性探索。當原創內容的價值被摘要稀釋,誰還願意投入時間和精力去創造新東西?
- 為了安全而變得千篇一律。大規模的過濾讓系統"更安全",但也容易讓表達、風格變得更均勻。短期看是好事,長期看卻可能讓那些"新範式"難以出現。如果整個行業都在追逐"可預測的正確",那些突破邊界的創新就更難獲得資源。
AI會成為"神"嗎?
AI越來越像我們生活中的"神",這並非因為它真的無所不知、無處不在、無所不能,而是因為它讓我們產生了這樣的錯覺。
- "無所不知"的錯覺:AI強大的數據抓取和檢索能力,讓我們覺得它好像什麼都知道。微軟的Recall功能可以記錄你電腦上的一切操作,讓你感覺"過去的一切"都能被還原。但它並非真的無所不知,它只是更徹底地掌握了"它能看見"的那些信息。把這種"看得更全"的能力當成"真相",就像是現代版的"拜物教"。
- "無處不在"的錯覺:蘋果的Apple Intelligence深入系統,讓AI像一個影子一樣,隨時隨地提供幫助。雖然設計者努力把隱私保護融入技術架構,但這種"無處不在的幫助"很容易變成"無處不在的規範"。久而久之,AI的建議就會像教條一樣,影響我們的行為和判斷。
- "無所不能"的錯覺:當搜索引擎和信息分發平台合二為一,並直接給出"最終答案"時,我們往往會放棄二次求證。AI的這種"能力",其實來自於它控制的"分發權"和"界面權",而不是真正的知識權威。把這種"方便快捷"當成"道德權威",是一種非常危險的傾向。
AI之所以像"神",不是因為它真的擁有神力,而是因為它提供默認答案、常駐在我們的生活中、並且擁有強大的信息可見性。我們因此把自己的判斷和責任外包給了它,這是一種危險的"規範外包"。
給AI套上"道德的繮繩"
雖然各國和大企業都在努力限制AI的影響,但我們必須清醒地認識到:我們無法完全抵抗算法對人腦的侵蝕,只能通過建立有效的"閘門"和"流程",延緩並減輕這種影響。
下面的"自我限制清單"是一些可落地、可操作的具體技巧,能夠幫助創業者或管理者在企業中限制AI的影響,供大家參考。
1.明確公司的"第一性原則"
把"道德底線"刻進公司的基因裏,在《公司章程》明確:合規與尊重原創永遠排在第一位,其次是用户權益,最後才是效用與增長。所有產品路線圖和決策,都必須嚴格遵守這個優先級。這意味着任何追求增長的方案,如果與合規或用户權益相沖突,都會被直接否決。
2.在決策中建立"雙重審核"
要求每個可能影響外部利益的決策,都必須同時提交兩份"賬本":一份是效用賬本,用數據説話;另一份是義務賬本,用責任説話。只有當兩份賬本都完整且合格時,決策才能進入下一個階段。這確保了我們在追求利益的同時,不忘承擔義務。
3.給默認設置安上"安全閘門"
任何"默認開啓"或"默認展示"的功能,都必須先通過一份"白名單"審核。例如,摘要必須能追溯到原文,並提供清晰的引用鏈接;數據採集功能默認關閉,只有用户明確同意後才能開啓。選擇權永遠應該在用户手中。
4.精簡數據
只收集完成任務所必需的最少數據;為每項數據設定"生命週期",定期執行"數據清理";訓練和推理數據實行嚴格的分賬管理和加密。這不僅能降低風險,也是對用户隱私最基本的尊重。
5.引入"人類最後簽名"制度
任何可能損害用户或第三方利益的決策,都必須經過人類負責人的最終簽字確認。記錄下負責人"推翻模型建議"的理由和頻率,並將其納入年度審計。這讓決策的責任始終歸屬於人,而不是算法。
6.把探索和創新作為"硬性指標"
為了避免追求短期效益而犧牲長期創新,將營收的固定比例劃為"原創與長週期探索預算"。這筆預算不受季度KPI影響,專門用於資助那些需要時間才能看到回報的創新項目。這相當於在財務上為創造力保留了一塊專屬"領地"。
7.確保可追溯性和可控性
要求所有AI能力必須先在"沙盒"中經過嚴格測試,例如設定硬性的錯誤率、幻覺率和引用率下限,不達標絕不允許上線。同時為關鍵指標設置"紅線"約束。比如即使點擊率(CTR)再高,只要引用率或用户投訴率觸及紅線,該功能就會被一票否決。
最後,有兩條底線可以作為公司的信條:
第一,效率再高也不能犧牲可追溯與引用。這不僅是對原創者的尊重,也是對知識產權和未來創新力的保護。
第二,能力再強也不越過"被遺忘的權利"。技術能記住一切,但人有權利讓系統遺忘。這是對每個人生活邊界最基本的尊重。
把義務寫進架構,把創新寫進預算,把默認值收回到人的選擇中。只有給AI套上這些"繮繩",它的速度才配得上我們想要的方向。
💬 留言