旗下AI機器人具有八歲小孩情感能力。(官網)

Google工程師稱旗下AI機器人具有情感!!一窺LaMDA語言模型

【記者陳克智/ 整理報導】近日Google工程師一句人工智慧有感情了(原話是 sentient,可翻成感情、智慧、知覺等),於是該位工程師”被”強制帶薪休假了,AI 真有意識了嗎?讓我們一窺傳說中有感情的人工智慧LaMDA模型。

在 Google,一直對語言情有獨鍾。 早期著手翻譯網絡。 最近發明了機器學習技術,幫助更好地掌握搜索查詢的意圖。 隨著時間的推移,他們在這些和其他領域的進步使得組織和訪問書面和口頭傳達的大量信息變得越來越容易。

但總有改進的餘地。 語言非常微妙且適應性強。 它可以是文字的或比喻的,華麗的或樸素的,創造性的或信息性的。 這種多功能性使語言成為人類最偉大的工具之一——也是計算機科學最困難的難題之一。

LaMDA 是Google最新的研究突破,它為這個難題中最誘人的部分之一添加了片段:對話。

雖然對話往往圍繞特定主題展開,但它們的開放式性質意味著它們可以從一個地方開始,最終在完全不同的地方結束。 與朋友談論電視節目可能會演變成討論該節目拍攝地的國家,然後再討論該國最好的地方美食。

這種蜿蜒曲折的質量很快就會難倒現代對話代理(通常稱為聊天機器人),後者往往遵循狹窄的預定義路徑。 但是 LaMDA——“對話應用程序語言模型”的縮寫——可以以一種自由流動的方式參與看似無窮無盡的主題,谷哥認為這種能力可以解鎖更自然的與技術交互的方式和全新的有用應用程序類別。

LaMDA 的對話技巧已經醞釀多年。 與包括 BERT 和 GPT-3 在內的許多最近的語言模型一樣,它建立在 Transformer 之上,這是一種神經網絡架構,谷歌研究院於 2017 年發明並開源。該架構產生的模型可以被訓練來閱讀許多單詞(一個句子或 例如段落),注意這些詞是如何相互關聯的,然後預測它認為接下來會出現什麼詞。

但與大多數其他語言模型不同,LaMDA 接受了對話訓練。 在培訓期間,它發現了一些將開放式對話與其他形式的語言區分開來的細微差別。 這些細微差別之一是敏感性。 基本上:對給定會話上下文的響應是否有意義? 例如,如果有人說:

“我剛開始上吉他課。”

您可能會期望另一個人會做出如下回應:

“多麼激動人心! 我媽媽有一個她喜歡玩的老式馬丁。”

鑑於最初的陳述,這種回應是有道理的。 但明智並不是唯一能做出良好反應的因素。 畢竟,“那很好”這句話是對幾乎任何陳述的明智回應,就像“我不知道”是對大多數問題的明智回應一樣。 通過清楚地與對話的上下文相關聯,令人滿意的反應也往往是具體的。 在上面的示例中,響應是明智和具體的。

LaMDA 建立在 2020 年發布的早期谷歌研究的基礎上,該研究表明基於 Transformer 的對話訓練語言模型可以學會談論幾乎任何事情。 從那時起,我們還發現,一旦經過訓練,LaMDA 可以進行微調,以顯著提高其響應的敏感性和特異性。

但是,當涉及到我們的技術時,我們問自己的最重要的問題是它們是否符合我們的 AI 原則。 語言可能是人類最偉大的工具之一,但就像所有工具一樣,它也可能被濫用。 受過語言訓練的模型可以傳播這種濫用——例如,通過內化偏見、反映仇恨言論或複制誤導性信息。 即使它所訓練的語言經過仔細審查,模型本身仍然可能被濫用。

在創建像 LaMDA 這樣的技術時,我們的首要任務是努力確保我們將此類風險降至最低。 我們非常熟悉機器學習模型所涉及的問題,例如不公平偏見,因為我們多年來一直在研究和開發這些技術。 這就是為什麼我們構建和開源資源,研究人員可以使用這些資源來分析模型和他們接受訓練的數據; 為什麼我們在 LaMDA 開發的每一步都對其進行審查; 以及為什麼我們會繼續這樣做,因為我們努力將對話能力融入我們的更多產品中。

LaMDA語言模型。(官網)