Hot News

容易被激怒?AI機器人Bing對話充滿敵意被投訴 更自稱是人類、否認出錯 @ 2023-02-21T04: Back Hot News
Keyword:微軟 聊天
Concept:對話微軟限制
有如此限制是因為早期的測試者發現,BING AI 聊天機械人在聊天當中,會發現它的對話有「偏離軌道」的問題,甚至在有錯誤時卻堅持自己是對的,而且在長時間的對話中,可能對 BING AI 聊天機械人的對話底層模型有混淆,因此施行以上措施以集中改善聊天的體驗。
微軟解釋,資料顯示,大部份使用者會在5次回覆以內找到想要的答案,而只有不到1%的人聊天對話會超過50個訊息。因此在新的規則下,一旦對話到5次時,用戶會被要求重啟新主題,而且在每次對話結束時,對話情境就必須清除,以避免模型混淆。使用者也可以按下搜尋列左邊的掃把圖示,重啟新對話。
日前針對新版BING搜尋服務出包情況做出解釋,微軟點出過長的對話內容可能會讓新版BING搜尋服務產生混淆,導致出現重復內容,或是出現無法提供正面幫助的回應結果。因此在稍早更新里,微軟將從即日起限制與BING搜尋聊天機器人的對話問答次數,每次對話僅能進行5次問答,而每天最多僅能進行50次對話。
[周刊王CTWANT] 據REUTERS報導,微軟預計透過人工智慧搜尋引擎帶來更多用戶,在生成式對話AI服務中加入廣告內容,近一步吸引廣告商,同時也測試了結合OPEN AI技術到自家搜尋引擎BING以及瀏覽器EDGE。而前發生微軟新版BING搜尋引擎經部分測試者發現其聊天功能的漏洞,為改善聊天功能決定開始限制BING每次對話只能進行5次問答、每日最多50次。
微軟本周早些時候曾警告稱,有15個或更多問題的較長聊天對話,可能會讓必應模型變得混淆,導致必應給出重復的答案,或者被激怒做出不一定有幫助的回應,或者與我們設計的語氣一不致。微軟表示,只問五個問題就結束對話,必應就不會被搞糊塗。
在推出AI聊天機械人後幾天,該新技術被指脫軌,並且會作未能預計的對話。故MICROSOFT日前表示,將對聊天機械人加設限制,用戶每天最多只能問50個問題,而每節只限5個。
微軟稱,很長的聊天會話可能會混淆必應中的基本聊天模式,為了解決這些問題,微軟實施了一些更改,以幫助集中聊天會話。數據顯示,絕大多數人都能在5個回合內找到要找的答案,只有約1%的聊天對話有50條以上的信息。聊天會話達到5個回合後,您會被提示開始一個新的主題。在每個聊天會話結束時,需要清除上下文,這樣模型就不會被混淆。
據稱,微軟將對其實施一些對話限制:用戶每天最多只能問 50 個問題,每次最多只能問 5 個問題。
面對自家聊天機器人的瘋狂行徑,微軟表示,這類現象通常出現在超過15個問題的「冗長、復雜對話中」,有時機器人會被帶離話題,而忘記了原本在回答什麼。微軟將限制使用者一次只能提問5個問題,未來也考慮增加一個「重設」功能,讓使用者可以將機器人導回正軌。
周五,在必應人工智能對話多次失控幾天後,微軟決定將把由生成式人工智能(AI)驅動的新搜索引擎必應其聊天回復限制在每天50個問題、每個問題5條回復以內。如果用戶觸發五條回答的限制,必應將提示他們開始一個新主題以避免長時間的聊天。據微軟內部數據顯示,絕大多數人都能在5次回復內找到他們想要的答案,只有大約1%的聊天對話會產生50條以上的消息」 。

 

88iv | Home |  Login
Mobile | Full
Forum rule | About Us | Contact Info | Terms & Conditions | Privacy Statment | Disclaimer
Copyright (C) 2025
Suntek Computer Systems Limited.
All rights reserved