逐步介紹如何使用Google搜尋及Google工具;讓您善用Google免費軟體完成日常的工作。 以單元的方式介紹,每個單元都獨立解決某一實務問題或某一獨立功能的應用。 單元前面的編號即是建議學習的順序,數字1,2,3,4...表示不同的軟體,1_1 表示學完1 可繼續學1_1; 1_1_1表示先學完1_1再學1_1_1; 1_1_2,表示先學完1_1_1再學1_1_2; 依此類推, 每個操作畫面(還可在圖上按滑鼠左鍵1下將圖放大)都擷取並說明,所以即使不去電腦操作,相信都能看得懂;操作後更是有如每個畫面都有家教在逐步提醒您注意事項及重點。 相信此種方式的介紹能讓您快速進入Google的世界。
2019年4月7日 星期日
預防AI侵害人權 華頓教授籲美國制定新權利法案-2019年04月06日-ppt
預防AI侵害人權 華頓教授籲美國制定新權利法案
記者湯淑君/即時報導 2019年04月06日
https://yangwc.blogspot.com/2019/04/ai-20190406-ppt.html
人工智慧(AI)技術愈來愈發達,衍生出一些問題。例如,應徵工作的人那麼多,哪些人可取得面試機會?誰申請貸款可獲核准?約會應用程式(App)從眾人中該挑選誰出來配對?這些決定若一律交給不完美、甚至有「偏見」的程式碼來決定,如何防範不會有偏差?該由誰來檢查演算法運作正不正確,權力會不會過大並且遭到濫用?
鑒於此,霍薩納格認為,一如「權利法案」限制聯邦政府權力,美國現在需要制定新的「權利法案」,對機器智慧的權力設限,從而保障人類的權利。
霍薩納格指出,這些權利中最重要的,是要了解演算法如何做決定。
霍薩納格表示,演算法出錯導致的後果也比較嚴重:醫生誤診可能影響數千名病患,但醫療演算法出錯卻可能危害數百萬人。因此,必須有能力審核這些演算法是怎麼做決定,必須能建立某種演算法「黑盒子」,這對防止各種狀況發生都很重要,無論是防範演算法交易導致閃電崩盤,還是自駕車和飛機肇禍或墜毀。
霍薩納格並指出,當今AI權力掌握在大企業手中,不能指望蘋果、Google等科技公司能夠自律。他表示,「太大的權力集中於掌握AI技術的一小撮公司」,是很危險的是;但另一方面,過度介入監管,卻又會冒著窒礙創新的風險。如何在兩者之間取得平衡,將是政府面臨的重大考驗。
他認為,現在唯一的希望,是決策者和一般大眾都務必要對演算法有更深入的了解。
標籤: AI 人工智慧 人工智能
沒有留言:
張貼留言