CN / EN
banner圖
掌握核心技術 駕馭光的運用

行業新聞

AI是否該接管人類生活

日期:2018-12-14 來源:J9九游会中国
        人工智能(AI)是未來技術的核心。很少有一種技術能像人工智能那樣惠及社會。人工智能係統從大量複雜的非結構化信息中學習,並將其轉化為可實施的見解。
        可以想象,在未來的幾十年內,由於可以收集和分析的數據量不斷增加,人類可以在各個領域取得重大突破,比如醫學創新、氣候分析和複雜的全球經濟管理等等。
        就像對人產生信任需要時間一樣,對AI係統建立信任也不可能短時間內完成。但這並不意味著單靠時間就能解決人工智能的信任問題。人們總是希望事情會像期望的那樣發展,但正像人類一樣,AI也會犯錯。
        為什麽社會對人工智能充滿懷疑?
        人工智能及機器人技術的進步日新月異。今天,機器人可以執行許多人類任務,從地毯吸塵到農業生產,將人類從冗長的時間和密集的勞動強度中解脫出來,並為許多行業帶來變革。
        然而,當提到人工智能和機器人時,特別是在媒體上,人們經常報以懷疑的態度,往往會想到刀鋒戰士或終結者的場景:人類跪拜在機器人麵前。這不是現實,也不可能發生。
AI是否該接管人類生活_sdyinshuo.com
        還有更多的討論,比如機器人承擔了工作,讓人們沒有機會謀生。 在某些情況下,人工智能將取代人,這就是技術發展的結果。以自動駕駛車輛為例。
        人工智能將會影響出租車司機和貨車司機的生意,也將擾動更廣泛的汽車行業,因為它會改變汽車的擁有權——為什麽要買車?一輛車一年的運行成本超過2000英鎊,還不包括燃料。
        當然,如果不用考慮停車費、服務費和養車帶來的其他費用時,還是可以買一輛。另外一個值得關注的問題就是智能化問題,有朝一日機器人是不是會比人們更聰明,完全“接管”人類的工作?
        機器人已經非常聰明,但他們會發展出像感覺或道德認知這樣的能力或智能化行為嗎?這是人類和機器人之間的主要區別,人類本能地知道什麽是對與錯。
        道德認知並不是AI掌握的東西,而且老實說,將來是否能掌握也是有爭議的。這是因為道德規範是沒辦法通過創建算法實現的。這也突出了AI存在的偏見問題。
        “算法偏見”就是看似無害的編程會帶有來自創作者或數據的偏見,正如本文開頭的例子所強調的那樣。但簡而言之,機器偏見就是人類的偏見。
        處理這個問題的關鍵取決於技術公司、工程師和開發人員,他們都采取切實的措施,以防止偶然產生的區分算法。通過算法審核和始終保持透明度,可以確保AI算法遠離偏見。
        AI係統透明度的重要性
        展望未來,技術公司和他們所創建的AI係統的透明度是解決所有問題的關鍵。僅靠強大的性能不會讓人們主動接受AI。
        的確,當人們想搜尋一家餐廳或一首最喜歡的歌曲時,會發現像Siri和Google Now這樣的數字私人助理非常好用,但這並不意味著AI完全被接受了。隨著消費者對AI的熟悉程度越來越高,對透明度的認識和需求也會越來越大。如何才能使這些係統變得透明?
        AI可以分為兩大類:透明和不透明。企業在展示他們AI係統的工作時,首先需要明確他們的係統屬於哪個類別。
        透明的係統使用自我學習算法,這種方式可以通過評估顯示他們的工作內容,以及通過什麽方式做出決策。不透明的係統正相反,它隻解決自己的問題,並不能顯示其推理的過程。
        像預測分析這樣的功能,屬於簡單的自動決策,往往遵循相當透明的模式。不透明的人工智能可以超越開發者的夢想形成深刻的見解,但它也會從開發者手中奪走一定程度的控製權。
        我們能相信AI嗎?
        為了對人工智能建立信任,所有人都有責任不斷學習和了解行業優勢和術語,而科技公司也必須負起責來,確保他們自己創建的人工智能係統是透明化的,明確他們可以做什麽。例如,麵部識別係統是為了驗證一個人的身份,還是也可以分析和記錄麵部反應?
        關於人工智能對社會和文化的影響,還需要進行更多的交流和探討。例如,未來人類應該有多少時間用於工作?如果某些工作是由機器人完成的,是否應該製定關於工資的相關社會政策?比爾·蓋茨還提出了關於機器人是否應該得到報酬以及納稅的問題,以及在未來幾十年中資本是否能夠在AI時代繼續生存的更廣泛和複雜的問題。
        除了技術以外,機器人的道德規劃也必須成為首先需要解決的問題。正如霍金(Stephen Hawking)教授所說:“計算機將在未來100年的某個階段通過AI超越人類。當發生這種情況時,我們需要確保計算機的目標與我們的目標保持一致。”隻有讓AI在負責任的狀態中不斷進步,並保持透明度和充分合作,才能做到這一點。
 


返回列表