為了使人工智能在尊重人類的基本價值觀方面進行,必須考慮納入演算算法設計時將道德因素納入算法設計中。很少有概念像人工智能(AI)那樣被誤解。民意調查顯示,許多普通人將其與超級機器人混淆,即使是偉大的商業領袖也沒有很好的理解它。
圍繞“人工智能”的定義表達缺乏精確性,使所有那些1984數字化對技術保持警惕的人能夠預測它將主宰人類,壓制個人自由並摧毀生命。
部分問題是缺乏普遍接受的的人工智能定義。人們普遍認為,英國數學家阿蘭·圖靈Alan Turing 在1950年就是這個概念的起源,他認為“思維機器”可以在與人類相同的水平上進行推理。幾年之後,美國人約翰麥卡錫(John McCarthy)追隨英國數學家阿蘭·圖靈這一點想法,他第一次使用了“人工智能”這一術語(指定能夠自主思考的機器)。對於“一台計算機來做事情,當人們執行時,它應該涉及其智能”。
今天,人工智能通常被認為是指“根據人類的觀察,判斷和意圖的能力,根據傳統的人類反應來刺激響應的機器”。根據這個定義提出的兩位印度學者Shukla Shubhendu和Jaiswal Vijay,這些軟件系統“得做出通常決策需要(一)人類專業水平的程度。正如John R. Allen和我在2018年4月的一篇文章中所論述的那樣,這樣的系統有三個特質構成系統具有人工智能本質的三個特質:意向性,智能性和適應性。人工智能的每個特徵原則上都可以推進文明。但是,如果沒有充分的保障,沒有道德倫理方面的考慮,人工智能的烏托邦很快就會變成黑暗的反烏托邦。
意向性
意向性是什麼意思?人工智能算法旨在通過實時數據進行決策。它們與僅能夠機械或預定響應的被動機器不同。借助傳感器,數字數據或其他遠程傳輸的輸入,這些算法根據它們的知識結合了來自不同來源的信息,即時分析其內容。
在運輸領域的一個例子顯示了具體如何發生這種情況。自動駕駛車輛配備有激光器和遠程傳感器,可收集有關車輛環境的信息。使用雷達激光的光來觀察車輛前方和周圍的物體,距離有多遠…… 車輛上的計算機將這些信息結合起來,以確定是否存在任何危險,是否車輛需要更換車道,是否是需減速還是完全停止。這些材料必須立即分析所有信息以避免事故。
在另一個例子中,金融算法可以通過利用這些信息來阻止股票價值的最小偏差並在市場上進行交易。該邏輯還適用於系統,其在可持續性環境的區域中,使用傳感器來確定人在一個房間是否照明,加熱,冷卻並自動調整個房間熱,冷,照明取決於數據或其他遠程傳輸的輸入信息。在這種情況下的目標是節省能源並以最佳方式使用資源。
只要這些系統符合最重要的人類價值觀,人工智能就少危及人類安全。但是,如果軟件的設計很差,如果它基於不完整或有偏見的信息,它就會使人類面臨風險或不公正。
智能性
第二個特質,智能性怎麼樣?人工智能基於機器自動學習和數據分析。自動學習捕獲數據並查找潛在趨勢。如果它找到與解決具體問題相關的信息,則軟件開發人員可以捕獲該知識並使用它來分析特定主題。所需要的只是數據足夠強大,以便算法能夠識別為有用的模型。
例如,有用於管理學校註冊的人工智能系統。他們收集有關社區位置,學生或家長要求的學校等信息,然後根據這些信息將學生分配到特定學校。只要對所使用的基本標準幾乎沒有爭議或分歧,這些系統就會智能且高效地運行。但當然,事實並非如此。認識到教育對學生生活成功的重要性,他們的父母,教師和學校校長對不同參數的相對權重存在分歧。學生應優先考慮這個嗎?舉例來說,在一個普遍存在種族隔離和非常社區之間經濟不平等的城市,在受這些問題影響最人口嚴重的地區可能會加劇這些問題。這就是為什麼軟件開發人員必須調和不同的利益並做出明智的決策,以反映有關人類社區最重要的價值觀。
事實上,制定這類決策的責任越來越多地成為程序員的責任。它們必須是基於不同考慮因素編制決策的智能算法。這可以包括基本原則,例如效率,公平,正義……知道如何協調衝突的價值觀是人工智能設計師面臨的最重要挑戰之一。他們必須編寫代碼並合併沒有偏見或歧視的信息。否則我們會有不公平和不公正的演算法。
適應性
那要求的第三個特質,適應性怎麼樣?人工智能系統的特點是能夠在編制信息然後做出決策時學習和適應。這可能與財務狀況,道路狀況,環境因素或軍事情況的變化有關。我們可以在運輸領域以一種非常令人回味的方式再次說明它。半自動駕駛車輛配備有工具,可以讓車輛及其駕駛員了解即將到來的交通擁堵,坑洼,高速公路建築工地或任何其他交通障礙。
因此,車輛可以受益於道路上其他車輛的經驗,而無需人為干預,並且由此獲得的所有“經驗”的所有資料庫可以立即且完全轉移到具有類似配置的其他車輛來應用。
他們的演算法,傳感器和攝像機使用儀表板和其他類型的視覺顯示器向駕駛員提供實時信息,以便駕駛員能夠了解交通狀況和交通狀況。
類似的邏輯適用於為規劃而設計的人工智能。一些個人數字助理可以確定查詢電子郵件有頻率的並動態響應有關個人事件的請求。在沒有人為干預的情況下,數字助理能夠進行預約,調整時間表並將這些偏好傳達給他人。構建可以學習的自適應系統可以提高效率和效益。這些類型的演算法能夠處理複雜的任務並做出甚至超過人類能夠做的判斷。但確保他們以公平公正的方式“學習”是這些系統設計者的絕對優先事項。鑑於好萊塢電影製作人想像世界末日的情景,人工智能的進步更令人擔憂。這些配備人工智能系統的機器人替代人類或攻擊核心價值的這種情況觀點令人感到恐懼,並迫使我們同時代的人想知道人工智能是否做出了有用的貢獻,或者反過來它有可能危及人類的本質。
代碼,控制,維修
這個問題沒有簡單的答案。可以肯定的是,系統設計人員必須將重要的道德價值觀整合到演算法中,以確保它們符合人類所關心的,他們學習並且一致地融合在一起,符合有關社會的價值觀。這就是為什麼重要的是確保人工智能領域的道德層面得到認真對待並貫穿我們社會在該領域的決策。為了獲得最佳結果,設計和使用人工智能的不同組織必須招募道德專家與業務負責人和軟件開發人員合作。他們必須編寫一份人工智能道德規範,描述如何解決各種問題,並建立一個後續委員會來定期解決公司面臨的道德問題。他們還應回顧性地審查如何制定編碼決策,制定培訓計劃,使員工能夠將道德考慮納入日常工作中。最後,當人工智能設備對人員或其他組織造成傷害或傷害時,他們必須提供補救措施。
通過這些類型的保護措施,我們的社會將增加人工智能系統在遵守人類基本價值觀的同時具有目的性,智能和適應性嫻熟的機會。通過這種方式,我們各國可以在不犧牲人類定義的重要品質本質的情況下,從人工智能和新興技術中獲益。