• 深度
  • 行業
  • 行業
  • 互動

10位科技企業女性高管對AI威脅論的探討

GPLP 2019-11-01

原標題:10位科技企業女性高管對AI威脅論的探討

編譯:李珠江

編輯:瓊涼

審校:周鶴翔

來源:GPLP犀牛財經(ID:gplpcn)

女性從事科技行業的機會越來越多,但仍有很大的提升空間。目前,約有四分之一的科技工作是由女性擔任的。為了突出該領域那些有成就的女性,《權威雜志》(Authority Magazine)采訪了多位AI領域的女性領導人。

每個人都被問到了以下問題:“眾所周知,科學家們一直在爭論,先進的AI在未來是否會對人類構成威脅。這場辯論已經逐漸演化為埃隆·馬斯克(Elon Musk)和馬克·扎克伯格(Mark Zuckerberg)之間的辯論。那么,您的立場是什么?怎樣才能防止這種擔憂發生?我們該怎么做才能讓公眾相信,AI沒有什么可擔心的呢?”

下面是10位AI領域女性領導人的回答。

AI具有雙面性

Anna Bethke(英特爾AI負責人)

我認為,人們使用AI的方式比AI本身對人類的危害要更大。

AI的使用具有雙面性性,就像錘子或者其他任何工具一樣,既可以用來做善事,比如做鳥籠;也可以用來做壞事,比如打碎花瓶。雖然AI有可能學習提高到具有自我意識和甚至產生惡意,但這其實極難做到。

有些人已經能夠通過制造帶有惡意的AI,進行服務類攻擊、在社交媒體的騷擾等等。雖然我們不能簡單地排除具有自我意識的惡意AI存在的可能性,甚至被忽視,但是我們應該更多的就創建惡意AI進行討論。

隨著技術的發展和應用,披露該技術發展的透明度越高,每個人就能越了解情況,就能更多的提出質疑。從系統的設計,測試和實現,到立即糾正任何不利行為,或根據需要進行批量升級,在一定程度上都要保持人類的判斷力,這一點很重要。

科技是我們的合作伙伴

Carolina Barcenas(Visa高級副總裁)

我認為,科技是我們的合作伙伴。

科技的確會帶來一些變化,但是我相信社會的適應能力。盡管一些工作崗位可能會消失,但新的工作崗位將會被創造出來。當前是技術創新的時代。我相信,正確地使用AI將使我們的生活受益無窮,而我們現在正處于這一重大變革的開端。但是,我也認識到,技術一旦落入心懷不軌的人手中,可能是毀滅性的,這就是為什么要圍繞AI的道德使用去進行有效監管,這是極其重要的一點。目前,數據的使用和隱私保護在歐洲已經受到了重視,其他國家也緊隨其后,但我們仍處于起步的萌芽階段。我認為最重要的是,我們要讓人們知道什么是真正的AI,以及我們需要面對的挑戰是什么。

AI只是我們開發的一種工具

Tatiana Mejia(Adobe的AI主管)

AI只是我們開發的一種工具,作為一個社區,我們有責任告訴大眾,AI是如何創建的,以及我們該如何使用。技術本身并無好壞。

在Adobe,我們談論AI服務于創作者并尊重消費者。我們正在仔細研究相關問題,并制定和實施有關數據隱私、數據治理、數據多樣性等方面的流程和準則等。

繼續推進 同時落實安全措施

Marie Hagman(Zillow的人工智能總監)

縱觀歷史,人們一直在使用新技術來完成一些令人驚訝的事情,并且給他人帶來痛苦。例如,核能和原子彈。我是一個樂觀主義者,我認為AI利大于弊。我們需要繼續推進,同時落實安全措施,更快地制定和更新公共政策以幫助減輕風險。我覺得我們不能也不應該向人們保證AI沒有什么可擔心的。人們應該了解到它的風險并提高警覺。我們已經建立了保護社會免受不良行為影響的系統,包括執法,司法體系和公共政策。除此之外,我們應該讓這些領域的領導人了解情況,并優先考慮防范AI可能造成的威脅。

當今AI發展還不成熟

Madelaine Daianu, Ph.D.(Intuit數據科學高級經理)

我認為,隨著AI技術的進步,這些辯論只會越來越激烈。

有人認為這些爭論為時過早,主要是因為當今的AI發展還不成熟。我們尚未發現創建超級智能的必要條件,因此,我們尚未掌握正確的信息,來確定如何更好地減輕可能存在的危害。

機器人不會明天就來占領這個世界

Doris Yang (BlackBerry Cylance高級總監)

AI的好壞,取決于人類如何定義問題和答案的邊界,以及處理這些問題所需的數據。也就是說,不管制造出一個有意識的機器人需要花費多長時間,談論AI使用的邊界以及人工智能的應用才是至關重要的。即使到了今天,我們身邊仍然存在著隱私和透明性的問題。

以AI驅動的解決方案有很多好處,我們應該積極地考慮問題,以便我們可以繼續從中受益,而不會放棄更多的自由。我們現在需要為我們的底層設施打下基礎,并保持警惕,以防技術和其他實體侵犯它們。

探索如何更好的利用AI

Marina Arnaout(Microsoft經理)

歷史表明,每當一項偉大的發明落入心懷不軌之人手中時,邪惡就會占上風。當前,我們正處于AI發展的早期階段,正在探索如何更好的利用AI,激發潛能,這可以幫助我們預防自然災害,或者為盲人提供更多幫助,當然,還有更多形式的商業智能。

AI具有賦予社區和企業權力的潛力,并具有許多好處。但是,毫無疑問,先進的AI技術同時也會帶來各種不利影響。它可能會以人類無法跟上的速度大幅度改變勞動力結構,從而產生重大的經濟影響,并帶來許多道德挑戰。更直接地說,AI可以被設定為破壞程序,也可以做一些有益的事情,這是一個全球性的問題。

為AI設定條件和界限

Elena Fersman(愛立信AI研究負責人)

每一項新技術都會帶來威脅。盡管AI是特殊的,但由于它是自我發展的,我們仍為其發展設定條件或界限。這些條件需要掌握在人類手中。我們需要承擔責任,規定“游戲規則”,并規定這些算法永遠不能打破規則。這些規則與人類必須遵守的法律,法規,道德框架和社會規范沒有什么不同。為避免此類擔憂發生,我們應該以AI系統所理解的語言來實施“生存規則”。也就是說,我們需要將這些規則數字化,確保框架和軟件架構具有靈活性并允許修改,并且算法可以保證它們遵守這些框架。

成立一個組織:規范AI產業和研究

韓超(Lucidworks副總裁)

AI可以應用于許多造福社會的領域,例如醫療保健和自動駕駛汽車。然而,在武器開發或基因編輯領域,危險團體對于AI的濫用是令人擔憂的。當前,AI不具備自我學習的能力,無法故意傷害他人,也無法通過互聯網相互連接進行大規模的破壞。但是,如果未來控制不當,這些行為都是可能發生的。當前沒有任何集中化的組織來規范AI產業和研究。我們高度依賴大型IT公司的良好愿景,并遵循標準的模型構建流程,以防止AI的偏見或濫用。我希望這樣的組織能盡快成立,以獲得更多公眾的信任。

不應該試圖去阻止人們的擔憂

Trisala Chandaria(Temboo首席執行官)

所有新的技術給人類帶來機遇的同時,也帶來了危機,這就是科技的本質。

想想在汽車剛出現的時候,我們必須建立基礎設施,采取安全措施和其他技術來適應他們。諸如道路,駕照,安全帶和安全氣囊等東西,都是為了確保公眾能夠安全有效地使用汽車。同樣,在構建AI技術時,我們需要考慮安全性,基礎設施,法律等。只要考慮到這些因素,我們就可以永遠使用AI。

然而,這些措施仍在制定過程中,目前需要優先考慮。我們不應該試圖去阻止人們對AI的擔憂。人們應該問問他們的數據是如何被使用的,哪些技術影響了他們的生活,以及AI是如何影響社會。擔憂和恐懼是有區別的。我們不想嚇唬人們,讓他們遠離新技術,但我們希望確保人們在影響他們日常生活的技術上有所選擇。這取決于這個領域的領導者,確保公眾有足夠的能力和信息來做出選擇。

(免責聲明:此文內容為第三方自媒體作者發布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網無關。文章僅供讀者參考,并請自行核實相關內容。投訴郵箱:editor@fromgeek.com)

標簽AI威脅論 AI
  • GPLP
    郵箱:caoceng@fromgeek.com
    GPLP是專注于創業、投資的專業的咨詢平臺,旨在為創業者以及投資人,其中包括上市公司、企業、銀行等提供專業的內容、最新的行業形勢及最客觀的解讀,同時還包括組織線下交流活動,為行業發展貢獻力量。
    分享本文到