Publié le Un commentaire

EcoSo – Chal 052019國際經濟社會10 -應該打破拆除GAFA嗎?

應該打破拆除GAFA嗎?

技術巨頭 – 谷歌,亞馬遜,臉書和蘋果 – 在美國越來越受到質疑,就像在歐洲一樣。以競爭和自由的名義。但是該從那裡徵稅或該拆除它們……在華盛頓,該文件在總統選舉2020年之前開始審議。

谷歌選擇了一個戰略地址,在華盛頓舉辦其遊說活動:25馬薩諸塞大道,距離喬治敦大學法學院僅幾步之遙。據華盛頓郵報報導,2017年,該公司花費了1800萬美元來影響國會,聯邦機構和白宮,這筆款項使其成為在美國遊說的絕對支持者。由於其嚴峻的外觀,正在建設的大廳,該建築不坦率地支付。沒有任何跡象表明這個巨無霸的谷歌之股票市場重達8300億美元。

但是,沒有辦法冒險進入沒有邀請的地方。然後一個無情警告出現: « 我打電話給警察 » ,退出門是必要的。

緊張是顯而易見的。最近幾個月,GAFA受到了批評:谷歌,亞馬遜,臉書和蘋果。這些公司日益增長的重量令人擔憂。 <<合併問題長期以來一直在地方層面的小圈子中進行討論,今天它是一個全國性的問題 >> 當地Institute for Local Self-Reliance自力更生研究所的創始人斯泰西米切爾Stacy Milchell說。如果我們加入微軟,我們是否應該拆除“紐約時報”專欄作家稱之為“可怕的五個”(Frightful Five)的群體?以及如何去做?在華盛頓圈子被這些問題困擾著。

“他們阻礙了創新” 在美國與獨占壟斷鬥爭中起帶頭作用的是巴里林恩Barry Lynn。 « 科技巨頭公司已粉碎的了比賽,他們利用我們的數據和它們抑制創新 » 直接和溫暖的方式說,從白宮收到一箭之遙,在WeWork租給他彩色的辦公室。  2017年7月,他和他的團隊研究人員被趕出了新美國,這是一個智庫,在那裡他已經執行了十五年的計劃。他的錯?有谷歌的不滿,埃里克·施密特Eric Schmidt谷歌的共同創始人和美國新的贊助商的一篇文章中,他對歐洲聯盟對Montain view公司強加的罰款表示歡迎,並對New America的情況進行了侮辱,這讓他感到不滿,因為他對谷歌讚助商New America的加入表示不滿。在這之後,持不同政見者已經創建了自己的Open Markets Institut公開市場研究所,擁有15名研究人員員工並且不接受公司的資金 – 這筆資金來自基金會  – 正在不斷為反壟斷法律大修不知疲倦地奔走。


« 我們想回到美國革命的基本原則 »,巴里林恩Barry Lynn說。 在沒有想要切割技術巨頭的情況下,自由主義機構的良好膚色也對群體的無所不能感到疑惑。彼得國際經濟研究所Peterson Institute for International Economics.的研究員Martin Chorzempa說: « 我從哈佛大學了解到,個人數據的問題及其在平台上的使用對我這一代來說至關重要 » HEC和哈佛肯尼迪學院的畢業生 – 能說流利的中文普通話,德語和法語,並閱讀了文本中的 « 尋找失去的時間 » Recheche du temps perdu  – 但發現歐洲對數據的規定“過於僵化和復雜”。

GAFA的地位已成為一個重大的政治問題,在2020年競選的民主黨初選的總統“四十代表和二十參議員已經向我們保證他們的支持。”巴里林恩說。

3月30日,由學院組織的討論匯集了不下四名候選人:明尼蘇達州參議員艾米·克羅布徹Amy Klobuchar,民主黨朱利安卡斯特羅Julian Castro,馬里蘭州的前議員約翰·德萊尼John Delaney和前哈佛教授的後起之秀沃倫Elizabeth Warren,初選的最受歡迎之一愛。其中兩人平台飾演:競爭委員會在參議院的前成員,艾米·克羅布徹Amy Klobuchar在二月份遞送,緊縮兼併吞合併條件的法律草案。至於伊麗莎白沃倫Elizabeth Warren,她希望團隊營業額超過250億美元,被視為“公共服務平台”,不再有權推銷自己的產品:亞馬遜應該停止銷售他的文章Amozon Basic Produts,臉書將與Instagram和WhatsApp分開,谷歌無法再推廣自己的服務。

“我同意診斷,但不同意補救措施”,經濟學家哈爾辛格Hal Singer做出反應。這位競爭法專家也發現了兼併的破壞性影響。巨頭技術造成的最嚴重的傷害之一是首先殺死創新之蛋。 “對矽谷20家主要風險投資基金的研究顯示,不給項目提供資金的風險第一個原因是臉書自認適合的,”他說。經濟學家建議向GAFA應用如同在20世紀90年代切斷電信運營商手續的立法:互聯網的巨頭將不得不向第三方開放網絡;若有歧視將由特別法庭判決。


20項民主措施

 他作為聯邦貿易委員會Federal Trade Commission(競爭管理機構)專家的經歷使他認為在美國啟動反托拉斯訴訟是徒勞的:  他解釋說,這些試驗持續了十五年,從未導致過定罪。一些人爭論新的監管機構。電信公司專家,非政府組織公共知識主任哈羅德費爾德Harold Feld傾向於創建一個新的監管規定。 « 平台的重要性超越了經濟 »:它是關於價值觀,知道我們想要生活在什麼樣的社會中 » 他說。意圖和禁令是否會轉化為法律文本?2018年10月,參議院參議員馬克華納(Mark Warner)提出了20項措施,以監督在線平台。除其他外,他建議採用相當於歐洲“數據保護總規則”(GDPR)的文本,務必識別和禁止機器人,以及更嚴格的廣告選擇規則。

譯者 陳瑞瑛  CHEN Juiying

法國巴黎社會科學院EHESS -DEA比較經濟研究所畢業 / 法國東方語言學院INALCO – DESS多語工程研究所畢業/ 

曾在法國不同公司担任銷售工程師、銷售經理、銷售及行政總監

文材來源  Challenges N°609 Mai 2019 國際專欄

Publié le Laisser un commentaire

EcoSo – Chal 052019國際經濟社會9 -絲綢之路有可能打滑

絲綢之路有可能打滑

隨著他的大型項目,北京被指責推動項目使一些國家過度負債。

北京於2019年4月25日至27日舉辦了第二屆絲綢之路論壇。習近平總統有機會重申,中國向一百多個國家提供或投資的數百億美元用於部署其龐大的一帶一路倡議(BRI),加強了全球繁榮。他打算回應對有相關國家項目風險的擔憂。最令人擔憂的是債務陷阱。

中國會故意取消一些弱勢經濟體,以便在無力償還時抓住資產並影響其政策。有過度指責稱,因為資助項目不在中國,如果債務國缺乏財務償還,北京很難抓住其資產。

但是,如果一帶一路並不總是惡意的,那可能會很尷尬。這是第二個擔憂問題。中國確實在沒有足夠保障的情況下向脆弱國家提供貸款。她對經濟或政治風險似乎非常漠不關心。全球發展中心已經確定了八個有困難的國家,由於中國的項目,例如黑山,巴基斯坦,吉布提或肯尼亞,他們的情況可能會惡化。

此外,北京大學最近的一份報告根據對94個國家其財​​務規定的質量進行了排名。巴基斯坦獲得高達600億美元的中國貸款,倒數第二。哪些貸款成本非常高:中國銀行Eximbank在肯尼亞批准的貸款中有一半固定在比市場高出3.6個百分點的水平。 真正的負擔。

但也許北京最困難的方面是新絲綢之路的雄心壯志。世界銀行最近估計,其運輸基礎設施項目一旦投入運營,就可使世界GDP增加3%。一旦投入運營,調試仍然是隨機的,因為新絲綢之路的規模是一個巨大的挑戰,並引發了腐敗的真正風險。中國人的傲慢已經疏遠了一些潛在的合作夥伴,比如美國,日本和印度,他們保持著距離。因為中國不僅要求各國批准其計劃,還要讓它們接受習近平對世界的看法。

譯者 陳瑞瑛  CHEN Juiying

法國巴黎社會科學院EHESS -DEA比較經濟研究所畢業 / 法國東方語言學院INALCO – DESS多語工程研究所畢業/  美國德州大學達拉斯分校UTD – Master of science in Accounting會計研所畢業/ 法國巴黎大學十二分校Université Paris XII – Licence & Maîtrise AES 企業行政學士及碩士畢業

曾在法國不同公司担任銷售工程師、銷售經理、銷售及行政總監

文材來源  Challenges N°609 Mai 2019 國際專欄

Publié le Laisser un commentaire

EcoSo – AE 012019經濟社會8 -人工智能需要道德

人工智能需要道德

為了使人工智能在尊重人類的基本價值觀方面進行,必須考慮納入演算算法設計時將道德因素納入算法設計中。很少有概念像人工智能(AI)那樣被誤解。民意調查顯示,許多普通人將其與超級機器人混淆,即使是偉大的商業領袖也沒有很好的理解它。

圍繞“人工智能”的定義表達缺乏精確性,使所有那些1984數字化對技術保持警惕的人能夠預測它將主宰人類,壓制個人自由並摧毀生命。

 

部分問題是缺乏普遍接受的的人工智能定義。人們普遍認為,英國數學家阿蘭·圖靈Alan Turing 在1950年就是這個概念的起源,他認為“思維機器”可以在與人類相同的水平上進行推理。幾年之後,美國人約翰麥卡錫(John McCarthy)追隨英國數學家阿蘭·圖靈這一點想法,他第一次使用了“人工智能”這一術語(指定能夠自主思考的機器)。對於“一台計算機來做事情,當人們執行時,它應該涉及其智能”。

 

今天,人工智能通常被認為是指“根據人類的觀察,判斷和意圖的能力,根據傳統的人類反應來刺激響應的機器”。根據這個定義提出的兩位印度學者Shukla Shubhendu和Jaiswal Vijay,這些軟件系統“得做出通常決策需要(一)人類專業水平的程度。正如John R. Allen和我在2018年4月的一篇文章中所論述的那樣,這樣的系統有三個特質構成系統具有人工智能本質的三個特質:意向性,智能性和適應性。人工智能的每個特徵原則上都可以推進文明。但是,如果沒有充分的保障,沒有道德倫理方面的考慮,人工智能的烏托邦很快就會變成黑暗的反烏托邦。

 

意向性

意向性是什麼意思?人工智能算法旨在通過實時數據進行決策。它們與僅能夠機械或預定響應的被動機器不同。借助傳感器,數字數據或其他遠程傳輸的輸入,這些算法根據它們的知識結合了來自不同來源的信息,即時分析其內容。

在運輸領域的一個例子顯示了具體如何發生這種情況。自動駕駛車輛配備有激光器和遠程傳感器,可收集有關車輛環境的信息。使用雷達激光的光來觀察車輛前方和周圍的物體,距離有多遠…… 車輛上的計算機將這些信息結合起來,以確定是否存在任何危險,是否車輛需要更換車道,是否是需減速還是完全停止。這些材料必須立即分析所有信息以避免事故。

在另一個例子中,金融算法可以通過利用這些信息來阻止股票價值的最小偏差並在市場上進行交易。該邏輯還適用於系統,其在可持續性環境的區域中,使用傳感器來確定人在一個房間是否照明,加熱,冷卻並自動調整個房間熱,冷,照明取決於數據或其他遠程傳輸的輸入信息。在這種情況下的目標是節省能源並以最佳方式使用資源。

只要這些系統符合最重要的人類價值觀,人工智能就少危及人類安全。但是,如果軟件的設計很差,如果它基於不完整或有偏見的信息,它就會使人類面臨風險或不公正。

 

智能性

第二個特質,智能性怎麼樣?人工智能基於機器自動學習和數據分析。自動學習捕獲數據並查找潛在趨勢。如果它找到與解決具體問題相關的信息,則軟件開發人員可以捕獲該知識並使用它來分析特定主題。所需要的只是數據足夠強大,以便算法能夠識別為有用的模型。

例如,有用於管理學校註冊的人工智能系統。他們收集有關社區位置,學生或家長要求的學校等信息,然後根據這些信息將學生分配到特定學校。只要對所使用的基本標準幾乎沒有爭議或分歧,這些系統就會智能且高效地運行。但當然,事實並非如此。認識到教育對學生生活成功的重要性,他們的父母,教師和學校校長對不同參數的相對權重存在分歧。學生應優先考慮這個嗎?舉例來說,在一個普遍存在種族隔離和非常社區之間經濟不平等的城市,在受這些問題影響最人口嚴重的地區可能會加劇這些問題。這就是為什麼軟件開發人員必須調和不同的利益並做出明智的決策,以反映有關人類社區最重要的價值觀。

事實上,制定這類決策的責任越來越多地成為程序員的責任。它們必須是基於不同考慮因素編制決策的智能算法。這可以包括基本原則,例如效率,公平,正義……知道如何協調衝突的價值觀是人工智能設計師面臨的最重要挑戰之一。他們必須編寫代碼並合併沒有偏見或歧視的信息。否則我們會有不公平和不公正的演算法。

 

適應性

那要求的第三個特質,適應性怎麼樣?人工智能系統的特點是能夠在編制信息然後做出決策時學習和適應。這可能與財務狀況,道路狀況,環境因素或軍事情況的變化有關。我們可以在運輸領域以一種非常令人回味的方式再次說明它。半自動駕駛車輛配備有工具,可以讓車輛及其駕駛員了解即將到來的交通擁堵,坑洼,高速公路建築工地或任何其他交通障礙。

因此,車輛可以受益於道路上其他車輛的經驗,而無需人為干預,並且由此獲得的所有“經驗”的所有資料庫可以立即且完全轉移到具有類似配置的其他車輛來應用。

 他們的演算法,傳感器和攝像機使用儀表板和其他類型的視覺顯示器向駕駛員提供實時信息,以便駕駛員能夠了解交通狀況和交通狀況。

 

 

類似的邏輯適用於為規劃而設計的人工智能。一些個人數字助理可以確定查詢電子郵件有頻率的並動態響應有關個人事件的請求。在沒有人為干預的情況下,數字助理能夠進行預約,調整時間表並將這些偏好傳達給他人。構建可以學習的自適應系統可以提高效率和效益。這些類型的演算法能夠處理複雜的任務並做出甚至超過人類能夠做的判斷。但確保他們以公平公正的方式“學習”是這些系統設計者的絕對優先事項。鑑於好萊塢電影製作人想像世界末日的情景,人工智能的進步更令人擔憂。這些配備人工智能系統的機器人替代人類或攻擊核心價值的這種情況觀點令人感到恐懼,並迫使我們同時代的人想知道人工智能是否做出了有用的貢獻,或者反過來它有可能危及人類的本質。

 

代碼,控制,維修

這個問題沒有簡單的答案。可以肯定的是,系統設計人員必須將重要的道德價值觀整合到演算法中,以確保它們符合人類所關心的,他們學習並且一致地融合在一起,符合有關社會的價值觀。這就是為什麼重要的是確保人工智能領域的道德層面得到認真對待並貫穿我們社會在該領域的決策。為了獲得最佳結果,設計和使用人工智能的不同組織必須招募道德專家與業務負責人和軟件開發人員合作。他們必須編寫一份人工智能道德規範,描述如何解決各種問題,並建立一個後續委員會來定期解決公司面臨的道德問題。他們還應回顧性地審查如何制定編碼決策,制定培訓計劃,使員工能夠將道德考慮納入日常工作中。最後,當人工智能設備對人員或其他組織造成傷害或傷害時,他們必須提供補救措施。

通過這些類型的保護措施,我們的社會將增加人工智能系統在遵守人類基本價值觀的同時具有目的性,智能和適應性嫻熟的機會。通過這種方式,我們各國可以在不犧牲人類定義的重要品質本質的情況下,從人工智能和新興技術中獲益。

譯者 陳瑞瑛  CHEN Juiying

法國巴黎社會科學院EHESS -DEA比較經濟研究所畢業 / 法國東方語言學院INALCO – DESS多語工程研究所畢業/  美國德州大學達拉斯分校UTD – Master of science in Accounting會計研所畢業/ 法國巴黎大學十二分校Université Paris XII – Licence & Maîtrise AES 企業行政學士及碩士畢業

曾在法國不同公司担任銷售工程師、銷售經理、銷售及行政總監

文材來源  Alternatives Economiques Hors-Série n°116 Quel monde en 2019世界專欄 –Darrell M. West