第343章 杞人憂天的煩惱

  第343章 杞人憂天的煩惱

  伊芙·卡莉幾乎是將之前她的一些思考統統將給了林灰。

  包括但不限於對於林灰論文補充內容的濃厚興趣以及對人工智慧未來的期許會同社會層面引發爭議的擔憂。

  甚至連同林灰對此前收購她的那項專利用途的一些猜測也一併說給了林灰。

  不知道為什麼,自來到中國之後,伊芙·卡莉感覺相比於以往那種相當有主見的狀態。

  此時的她對待事情似乎有了一些變化,現在的她縱然心中有了一定的判斷。

  她也更希望能在林灰那再印證一下她此前的猜測。

  聽著伊芙·卡莉的表述,林灰沒想到就先前的那篇論文內容上在他看來的一些已經相當常識內容的補充。

  居然能被伊芙·卡莉賦予那麼多的期許。

  伊芙·卡莉一臉期待的小表情,不知為什麼總讓林灰想到在渴盼著肉吃的小狐狸。

  不過,林灰這次恐怕是要讓伊芙·卡莉失望了。

  在論文補充的一些內容雖然是領先這個時空的。

  但為了避免出現領先一步是先師領先兩步仙逝的情況發生。

  即便是進行搬運,林灰實際搬出來的東西也是很克制的。

  就拿伊芙·卡莉給予高度評價的預訓練機制吧。

  雖然將預訓練機制引入到自然語言處理的機器學習方面確實在這個時空具有相當意義的開創性。

  但林灰心中是清楚的,他所搬運的預訓練機制只能稱作為萌新水平。

  林灰搬運的「預訓練」是基於普通的神經網絡語言模型進行的預訓練。

  距離真正穩妥的基於Transformer的預訓練模型在應用效率方面要差得多。

  至於林灰為什麼不直接搬運更成熟的基於Transformer的預訓練機制呢?

  原因很簡單,畢竟眼下還沒有Transformer,現在搞出來一個基於Transformer模型豈不是滑天下之大稽。

  而至於說伊芙·卡莉同樣抱有很大期待的「深度學習」。

  雖然林灰確實是能鼓搗出真正意義的深度學習的。

  但暫時似乎沒啥必要,涉及到深度學習這個方面林灰並不打算將其放在自然語言處理這個方向推出。

  至於林灰不打算將真正意義上的深度學習在自然語言處理這個方向推出,為什麼在現在論文中還提到深度學習?

  那是因為這個時空的幾乎所有神經網絡學習方面的科研人員幾乎都迷之自信地將他們搞得神經網絡學習冠以深度學習之名。

  這樣的話林灰搞得神經網絡學習應用縱然實際上沒那麼深,不冠以深度學習之名豈不是顯得低人一等?

  至於說伊芙·卡莉所看中的遷移思想。

  雖然長久時間線來看,遷移學習確實能做到伊芙·卡莉所期待的那樣跳脫出自然語言處理的小圈子遷移到全部ML領域。

  但短時間內實際上還是比較難的。

  儘管有這樣那樣的困難,但林灰並沒有打擊伊芙·卡莉的積極性。

  反而給伊芙·卡莉描繪出一副更加恢弘的場景。

  這畫餅的樣子甚至讓林灰想起了前世自己的領導。

  不過林灰對此絲毫不愧疚,前世部門領導畫的大餅只是虛無縹緲而已。

  而林灰所勾勒的藍圖卻一定會實現,畢竟這在前世已經驗證過了。

  路再長長不過腳,終有一天林灰會將其所描繪的統統實現。

  而且林灰已經在朝著他所勾勒的藍圖邁進了。

  林灰在此前論文中進行補充的內容雖然並沒有伊芙·卡莉期許地那麼強,但至少也在進步。

  甚至有些進步相對於這個時空的科研現狀來說很多是從0到1的。

  至於伊芙·卡莉關於人工智慧在社會層面的擔憂。

  這個林灰倒是略知一二,前世很多大牛確實都表示過這方面的憂慮。

  前世史蒂芬·霍金、比爾·蓋茨、馬斯克都曾表示了對人工智慧會具有自我覺知和意識的憂慮。

  尤其是前世霍金,更是誇張地認為人工智慧可能是人類最大的災難,如果管理不當,會思考的機器可能終結人類文明。

  至於今生這些人是否發表過同樣的言論,林灰沒具體關注過。

  反正在林灰看來,這方面的擔憂或許在理論上有片面的道理,但實際上深究起來其實很離譜。

  能夠真正威脅人類文明的,肯定是強人工智慧,不可能是弱人工智慧。

  涉及到弱人工智慧這些不是完全沒有威脅。

  但和強人工智慧可以由一套系統處理各種智能行為不同。

  弱人工智慧針對每種智能行為都需要新的獨立系統。

  在這種情況下即便是弱人工智慧因為某種智能性造成威脅了。

  人類也只需要對該行為的獨立系統進行一定的安全化設計也就ok了。

  討論弱人工智慧對人類的威脅還不如去考慮一下別有用心的人濫用弱人工智慧導致的危害。

  在沒人濫用的情況下,真正可能威脅到人類的絕不可能是弱人工智慧。

  歸根結底,只有強人工智慧才可能真正意義上威脅人類。

  在外形上,強人工智慧可以和人類相似(共享一套生活法則),也可與人類相差甚遠(形成一套新的生活法則)。

  在思想上,強人工智慧可以與人類共用一套思維模式、道德準則,也可擁有專屬體系的獨特推理方式,成為一類「擁有靈魂的機器」。

  概況地說,強人工智慧具有自主意識、自主學習、自主決策的能力。

  而這無疑是很容易有風險的。

  儘管很容易有風險,但換個角度想一想。

  上帝會創造一塊他搬不動的石頭嗎?

  同樣的道理,人類為什麼要造一個無法駕馭的強人工智慧呢?

  要知道只需要對強人工智慧的底層價值取向通過相應的規則、記憶來進行限制和監控

  所謂的強人工智慧的叛亂是不可能的。

  不要以為對強人工智慧進行規則設計很麻煩。

  其實和規則有關的設計幾乎充斥著整個人類生活中。

  就以充電器為例吧,一個不起眼的充電器裡面很可能擁有著好幾種充電協議進行著約束。

  通過設計明文規則,限制 AI的行動範圍也不是做不到的事情。

  說起來現在人們對強人工智慧的擔心多多少少有點杞人憂天。

  (本章完)