人工智能何時會完全影響搜索算法?
人工智能是個黑盒子
以一種不太嚴格但容易理解的方式說,深入學習是對現有數據(大量數據)進行標記,然后系統總結數據和結果之間的關系(即標記的數據),當面對新數據時,它可以根據自己總結的規則給出判斷。對于圍棋來說,無論是歷史游戲還是自我游戲,AlphaGo都知道棋盤和結果(也是一種標簽)。當面對新的棋盤面時,系統將總結規則并判斷贏得游戲的概率。然而,人工智能系統發現數據的哪些特征和結果之間的關系甚至對創建人工智能的工程師來說都是未知的。因此,目前的人工智能系統是一個黑匣子。我們知道人工智能的判斷有很高的準確率,但是我們不知道為什么或者怎么做。
人工智能在搜索算法上也是如此。百度搜索工程師的聲明很少見到,現在只知道百度全在人工智能。谷歌工程師已經明確表示,他們不確定RankBrain到底是如何工作的。在這種情況下,在算法中廣泛使用人工智能會更加麻煩。一旦出現異常結果,不知道原因是什么就不可能調試。
我寫這篇文章是因為前幾天我在紐約時報上看到一篇文章,“人工智能能學會解釋自己嗎?”非常有趣。心理學家Michal Kosinski將20萬個社交網絡賬戶(一個約會網站)的照片和個人信息(包括許多內容,如性取向)輸入到面部識別人工智能系統中,發現人工智能僅在看到照片時判斷性取向的準確性很高。通過照片人工判斷一個人是不是同性戀的準確率為60%,比擲硬幣的準確率高,但人工智能判斷一個人是不是同性戀的準確率高達91%,比判斷一個女人的準確率83%低。
從照片上看,沒有諸如聲調、語調、姿勢、日常行為、人際關系等信息來幫助判斷。同性戀者有純粹的面部特征嗎?我個人的經驗是,以貌取人是不可靠的。我以前認識幾個同性戀。他們都很有男子氣概。他們一年到頭都保持健康,禮貌待人,但沒有女性氣質。從外表看不到它們。它還能取決于一些服裝特征嗎?表情?背景?人工智能從照片中看到了哪些我們人類可能會忽略的特征,或者是人類根本看不到的特征,準確率為91%。我不知道,但我只知道人工智能看起來很精確。
不能解釋自己的AI無法被信任
,一個黑盒特征,有時是不相關的,比如判斷性取向。有時候你不能這么匆忙,比如去看醫生。盡管人工智能系統診斷某些癌癥的準確率已經達到人類醫生的水平,但最終的結論是醫生仍然需要這樣做,特別是當人工智能不能告訴我們其診斷的原因時。除非人工智能能解釋它為什么在未來做出這種診斷,否則對人工智能100%的信心有一個很大的心理障礙。就在幾天前,新加坡政府開始測試無人駕駛公交車。這顯然是一個正確的方向,我相信這將在不久的將來成為現實。雖然自駕汽車的事故率比人的事故率低,但我們都知道它實際上是比較安全的,但過馬路時,停在附近的公共汽車沒有司機,我會不會有點擔心,怕它突然啟動?開車的時候,我轉過頭,發現公共汽車上沒有司機在我旁邊。我會被嚇一跳,下意識地遠離它嗎?至少最初是這樣。和幾個朋友談論這件事既理性又感性。
以前的程序是基于確定性和因果關系運行的,比如搜索算法中的哪些頁面特征是排名因素,以及每個特征有多少權重。這是由工程師選擇和決定的。雖然可以通過敲打頭部來決定選擇,但是在監測效果和調整參數之后,將會達到令人滿意的平衡。人工智能系統并不依賴于工程師對因果關系的判斷,而是更善于發現概率和相關性之間的聯系。對人們來說,以概率和相關性為特征的判斷通常很難解釋,例如,它們看起來是否好,取決于情緒。
要求人工智能系統解釋它的判斷不僅是一個心理問題,而且以后可能成為一個道德和法律問題,就像看醫生一樣。另一個例子涉及到用戶的利益,如貸款,人工智能根據大量數據做出拒絕貸款的決定,但銀行不能解釋為什么拒絕,如何為用戶解釋?今年,歐盟可能會頒布法規,要求機器做出的決定必須得到解釋。這對谷歌和Facebook等全球企業來說是一種壓力。在許多領域,比如軍事、法律和金融,所有的決策都需要有人來承擔責任。如果一個決定不能說明原因,恐怕沒有人敢承擔責任。
人工智能需要解釋的另一個原因是,如前所述,人工智能著眼于概率和相關性,但著眼于相關性做出決策有時會導致嚴重的錯誤?!都~約時報》的文章舉了一個例子。由數據訓練的人工智能系統輔助醫院急診室分診,整體效果良好,但研究者仍不敢真正應用,因為數據中的相關性可能會誤導人工智能做出錯誤的判斷。例如,數據顯示患有肺炎的哮喘患者的最終恢復情況好于平均水平,并且這種相關性是真實的。如果人工智能系統根據這些數據對患有肺炎的哮喘患者給予較低的治療水平,那么可能會發生事故。這些病人最終健康狀況良好的原因是,他們得到了最高的評分,并在到達時得到了最好和最快的治療。因此,有時真正的原因不能從相關性中看出。
可解釋人工智能是一個新興的領域,其目的是讓人工智能解釋自己的判斷、決策和過程。去年,國防高級研究計劃局(Darpa)啟動了由大衛葛寧博士領導的XAI計劃。谷歌仍然是這個領域的領導者,而深度夢似乎是這項研究的副產品:
回到搜索算法和搜索引擎優化,搜索引擎仍然不能完全應用人工智能的原因之一可能是人工智能的判斷沒有被解釋或理解。如果該算法使用當前的人工智能,一旦排名異常,工程師將無法知道原因是什么以及如何調整。
我認為自動駕駛儀是人工智能付諸實踐的第一個領域之一,它與它是否能被解釋有關。大多數自動駕駛汽車的決策不需要解釋太多,或者解釋一目了然。它離前車太近了,不能減速或剎車。這種判斷不需要進一步解釋。
搜索引擎優化的人可能也有同樣的疑慮,競爭對手的頁面看起來沒什么特別的,內容不太好,視覺設計一般,外鏈常見,頁面優化每個人都一樣,為什么排名那么好?現在搜索算法也可以探究原因,搜索工程師可能有內部工具來查看排名的合理性。如果搜索工程師看到一個非常糟糕的頁面,而且它在最前面,但他們不知道原因,也找不到答案,他們的內心可能會很焦慮。
XAI的研究剛剛開始,這給了搜索引擎優化研究者最后的緩沖期。從人工智能系統在其他領域粉碎人類的表現來看,一旦將其應用于大規模搜索,作弊和黑帽搜索引擎優化很可能會成為過去。當前常規的搜索引擎優化工作可能變得微不足道。SEOs需要回歸網站的本質:沒有其他方法可以提供有用的信息或產品。
- 上一篇:搜索引擎優化的欺騙方法是什么?
- 下一篇:基于搜索引擎優化的網站導航搜索引擎優化技術