一項新研究開發(fā)了一種新的 AI 工具,使人們更容易發(fā)現謊言,但只有一些人同意使用它。
傳統(tǒng)的測謊儀表面上是通過測量人的呼吸率、脈搏、血壓和出汗量來判斷他們是否在說謊,但這種85年歷史的技術早已被科學家證明是錯誤的。基本上,假陽性的可能性和解釋結果的主觀性極大地削弱了測謊儀的實用性。值得注意的是,它們的結果通常在美國法庭上不被承認。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
因為現在是2024年,研究人員現在正在問人工智能是否有助于解決這個問題。在一項發(fā)表在《iScience》雜志上的新研究中,由維爾茨堡大學經濟學家 Alicia von Schenk 領導的團隊發(fā)現,是的,它可能有用 —— 但正如《麻省理工科技評論》報道的那樣,它也導致實驗對象總體上提出了更多的指控,這是另一個關于用算法代替人類直覺的遠程風險的警告。
研究人員要求參與者寫下他們的周末計劃聲明。如果他們成功地說謊而沒有被發(fā)現,他們將獲得一筆小額財務獎勵。然后,收集的聲明被用來訓練基于谷歌大型語言模型 BERT 的算法??茖W家發(fā)現,它能夠以67% 的成功率告訴一個給定的聲明是否是謊言,這是人類的顯著改進,人類往往只有50% 的正確率。
Von Schenk 和她的同事隨后向另一組志愿者提供了使用該算法檢測謊言或依靠自己的人類直覺的選擇。只有三分之一的志愿者愿意使用這個工具,但他們也成為了強大的用戶。
因此,那些沒有使用該工具的人平均認為只有19% 的聲明是謊言。但是那些使用該工具的人認為有58% 的聲明是錯誤的,指控率大幅上升?!斑@一發(fā)現支持真實默認理論,并復制了在測謊文獻中通常觀察到的常見發(fā)現,記錄人們通常不會指責別人說謊,” 論文寫道。“一個潛在的原因是他們只是不太擅長這個,想要減少為自己和被指控者支付錯誤指控的成本的風險。支持這種觀點的是,在我們研究中,人們也沒有成功地辨別出真實和虛假的聲明?!?/p>
盡管技術存在缺陷,但考慮到網絡上虛假信息的泛濫趨勢,這樣的工具可能會發(fā)揮重要作用,這種趨勢正在隨著人工智能的使用而加速。甚至人工智能系統(tǒng)本身也越來越善于撒謊和欺騙,這是一種反烏托邦的趨勢,應該鼓勵我們建立起我們的防御。
劃重點:
- ?研究人員開發(fā)了一種新的 AI 工具,使人們更容易發(fā)現謊言。
- ?該工具的使用導致實驗對象總體上提出了更多的指控,這是另一個關于用算法代替人類直覺的遠程風險的警告。
- ?盡管技術存在缺陷,但考慮到網絡上虛假信息的泛濫趨勢,這樣的工具可能會發(fā)揮重要作用。