AI如何監(jiān)管?麻省理工Andrew McAfee博士給我們提供了新的答案
老李頭 / 2023-11-17 17:57109570從AI誕生的那一刻起,關(guān)于如何監(jiān)管AI的討論就從未停止過。
但事實上,如何監(jiān)管AI是一個非常復(fù)雜的話題,不同的國家和地區(qū)也有不同的監(jiān)管政策和框架,如歐盟的《人工智能法案》、美國的《人工智能問責(zé)政策征求意見》、中國的《生成式人工智能服務(wù)管理暫行辦法》等,對AI的定義、分類、風(fēng)險分級、責(zé)任劃分等方面提出了一些規(guī)范和要求。
而近期在葡萄牙里斯本舉行的Web Summit 2023峰會上,來自麻省理工學(xué)院斯隆管理學(xué)院的首席研究科學(xué)家安德魯·麥卡菲(Andrew McAfee)則給我們提供了一個新的解題思路——“無需許可的創(chuàng)新”觀念,與之前很多針對AI的監(jiān)管方案站在了對立面。

麻省理工Andrew McAfee(安德魯·麥卡菲)博士
“無需許可”真的不會帶來災(zāi)難嗎?
在這場備受關(guān)注的演講中,他提到了兩個概念:upstream governance(“上游治理”或“預(yù)防性治理”)和permissionless innovation(“無需許可的創(chuàng)新”)。其中,upstream governance意為“上游治理”、“前瞻性治理”或“預(yù)防性治理”,指在技術(shù)創(chuàng)新之前,就先對其可能帶來的風(fēng)險和影響進行預(yù)防性的監(jiān)管和控制。
與此相對的是permissionless innovation,意為“無需許可的創(chuàng)新”、“自由創(chuàng)新”或“無限制創(chuàng)新”,指創(chuàng)新者不需要事先獲得政府或其他機構(gòu)的許可,就可以自由地進行新技術(shù)和新商業(yè)模式的實驗和探索。

安德魯·麥卡菲旗幟鮮明地站在了自由創(chuàng)新這一邊,理由有三個方面:
首先,自由創(chuàng)新并不意味著沒有規(guī)范和監(jiān)督。
安德魯認為,這個問題從根本上而言這是一個監(jiān)管時機的問題,也就是不應(yīng)該進行“預(yù)防性治理”,而應(yīng)該有針對性地進行監(jiān)管。例如以前帶攝像頭的智能手機剛剛興起的時候,有人用它來偷拍女性裙底,而當(dāng)時由于手機攝像頭還是個新鮮事物,法律并沒有相關(guān)的規(guī)定來保護女性權(quán)益。
但后來很快,就有相關(guān)立法機構(gòu)對此推出了相關(guān)的法律規(guī)定,在技術(shù)發(fā)展后對如何使用進行了一定的規(guī)范。換言之,如果有人用菜刀傷人,應(yīng)該增強管理使菜刀更安全,而不是用法規(guī)的力量讓菜刀沒有刀鋒。
用我們常說的話而言就是:“發(fā)展的問題要用發(fā)展來解決”。AI也是如此,我們應(yīng)該做的是在AI發(fā)展過程中動態(tài)地解決中間出現(xiàn)的問題,不能因為發(fā)展AI可能產(chǎn)生的一些危險就止步不前,希望通過限制發(fā)展來避免危險,用安德魯?shù)脑捑褪且白尭腻e更簡單”,而不是“保證不犯錯”,這樣才能使監(jiān)管真正起到作用。

其次,安德魯認為我們可能高估了AI的危害。
自AI誕生以來,各種關(guān)于AI將會帶來大災(zāi)難的消息就一直沒有消失過,甚至還有很多人將其與核戰(zhàn)爭、大流行病等事物列在一起,認為AI是像“潘多拉的魔盒”一樣的存在,達到了聳人聽聞的地步。
但安德魯博士認為我們可能過于專注于AI,而忽略了很多其他更危險的技術(shù)。例如生物技術(shù),每個人都可以獲取相關(guān)的知識和設(shè)備,且不需要經(jīng)過審核或許可。如果你在生物技術(shù)領(lǐng)域工作,你可以在無需審核或許可的情況下做很多事,這是一個不合理的平衡。

最后,或許也是最重要的一個原因,就是這種“無需許可的創(chuàng)新”可以激發(fā)創(chuàng)造力和想象力。
我們有一個基本的常識,即創(chuàng)新是一種不可預(yù)測的、具有分散性的活動,這是它的核心屬性,我們很難預(yù)測未來的發(fā)展方向,尤其在當(dāng)AI變得越來越強大的當(dāng)下,未來發(fā)展的發(fā)展方向可能會越來越多地出現(xiàn)在我們沒有注意到的地方。
在演講開頭,他還提到了一款學(xué)習(xí)語言的軟件——多鄰國APP,認為這很能說明Permissionless innovation的優(yōu)勢。這款A(yù)PP利用了最新的AI技術(shù),能夠更加方便、快速、低成本地評估英語水平。但如果要求其在技術(shù)上市之前就滿足一系列比如數(shù)據(jù)保護、算法透明、人類監(jiān)督等要求的做法,會限制創(chuàng)新的空間和速度,從而錯失創(chuàng)新的好機會。

Permissionless innovation不只應(yīng)用在科技領(lǐng)域
事實上,這種Permissionless innovation的優(yōu)勢不僅體現(xiàn)在AI領(lǐng)域,在此次Web Summit 2023的演講上,Andrew還舉了關(guān)于mRNA和丘吉爾的對話兩個例子,為我們講述了Permissionless innovation概念在其他領(lǐng)域的作用。
今年獲得諾貝爾醫(yī)學(xué)與生物學(xué)獎的卡塔林·卡里科(Katalin Kariko)曾離開學(xué)術(shù)界十年之久,mRNA研究方向在當(dāng)時也普遍不被看好,這個時候如果有一個主張“前瞻性治理(upstream governance)”的力量介入進來,那么mRNA方向的研究很有可能就會因為經(jīng)費、項目等諸多原因而被“前瞻性地”廢棄掉,這無疑對于整個人類而言都是非常重大的損失。

事實上,“前瞻性治理”的基礎(chǔ)在于對未來有一個準確的判斷,但很明顯沒有人能夠?qū)崿F(xiàn)預(yù)測哪個方向會出現(xiàn)突破,如果判斷出錯那么將會失去很多出現(xiàn)優(yōu)秀創(chuàng)新的可能,這就體現(xiàn)出Permissionless innovation理念的重要性。
另一個例子發(fā)生在1938年,此時正處于二戰(zhàn)爆發(fā)前夕,戰(zhàn)爭的陰影籠罩著歐洲,時任英國首相張伯倫在與希特勒接觸后簽訂了著名的“綏靖政策”代表作《慕尼黑協(xié)定》,認為可以通過與希特勒簽訂和平協(xié)議來換來和平。但在返回英國后,丘吉爾一語道破天機,打破了張伯倫以及當(dāng)時很流行的綏靖主義風(fēng)氣。
他說:“你認為你可以在戰(zhàn)爭和恥辱(指與納粹簽訂合約)之間做一個選擇,于是你選擇了恥辱,但戰(zhàn)爭仍然是不可避免的。”可以看出,Andrew先生認為AI帶來的危機可能并不是“預(yù)防性治理”就可以避免的。換言之,擺在人類面前的并不是“加強微觀管理”和“混亂”兩個選擇,而是無論怎樣選擇,由AI帶來的混亂或許都難以避免。
當(dāng)然,這個道理還有一個廣為人知的中國名字——堵不如疏,在人工智能已成浪潮洶涌之勢的當(dāng)下,或許積極著眼于怎樣面對新的浪潮才是更好的態(tài)度。
AI如何監(jiān)管?麻省理工Andrew McAfee博士給我們提供了新的答案












![華為[七夕節(jié)禮物] WATCH FIT 3 智能手表 幻夜黑 輕薄大屏運動減脂 男女情侶手表](https://img14.360buyimg.com/pop/jfs/t1/172410/31/44649/35663/667d9cfdF919d3e16/dedce7bc75fcd035.png)

滬公網(wǎng)安備 31010702005758號
發(fā)表評論注冊|登錄