豐色發(fā)自凹非寺
量子位|公眾號QbitAI
有網(wǎng)友找到了GPT-4變“笨”的又一證據(jù)。
他質(zhì)疑:
OpenAI會緩存歷史回復,讓GPT-4直接復述以前生成過的答案。
最明顯的例子就是講笑話。
證據(jù)顯示,即使他將模型的temperature值調(diào)高,GPT-4仍重復同一個“科學家與原子”的回答。
就是那個“為什么科學家不信任原子?因為萬物都是由它們編造/構造(make up)出來的”的冷笑話。
在此,按理說temperature值越大,模型越容易生成一些意想不到的詞,不該重復同一個笑話了。
不止如此,即使咱們不動參數(shù),換一個措辭,強調(diào)讓它講一個新的、不同的笑話,也無濟于事。
發(fā)現(xiàn)者表示:
這說明GPT-4不僅使用緩存,還是聚類查詢而非精準匹配某個提問。
這樣的好處不言而喻,回復速度可以更快。
不過既然高價買了會員,享受的只是這樣的緩存檢索服務,誰心里也不爽。
還有人看完后的心情是:
如果真這樣的話,我們一直用GPT-4來評價其他大模型的回答是不是不太公平?
當然,也有人不認為這是外部緩存的結果,可能模型本身答案的重復性就有這么高:
此前已有研究表明ChatGPT在講笑話時,90%的情況下都會重復同樣的25個。
具體怎么說?
證據(jù)實錘GPT-4用緩存回復
不僅是忽略temperature值,這位網(wǎng)友還發(fā)現(xiàn):
更改模型的top_p值也沒用,GPT-4就跟那一個笑話干上了。
(top_p:用來控制模型返回結果的真實性,想要更準確和基于事實的答案就把值調(diào)低,想要多樣化的答案就調(diào)高)
唯一的破解辦法是把隨機性參數(shù)n拉高,這樣我們就可以獲得“非緩存”的答案,得到一個新笑話。
針對早前微信被爆在后臺反復讀取用戶相冊的事件,1月5日,馬化騰回應稱:“應該是21年10月的事了,圖片緩存加速造成的誤會,后面應該用iOS新的解決卡頓的API解決了。
2024-01-08 11:23:45馬化騰談早期微信“偷窺”相冊?蘇有朋轉(zhuǎn)發(fā)回復舒淇:“媽媽說美麗的女人都會嚇人而且很嚇” 都給咱有朋哥嚇到模糊了
2023-11-23 11:01:19蘇有朋回復舒淇原標題:沒有立春是“寡婦年”,不宜結婚?官方回應近日,有網(wǎng)友在民政部官網(wǎng)上留言,建議民政部或其他部委聯(lián)合發(fā)文,引導居民不受迷信影響龍年正常結婚。
2024-01-25 08:03:47民政部回復龍年不宜結婚原標題:林俊杰回復Angelababy引發(fā)網(wǎng)友狂歡,兩人友情超甜近日,歌手林俊杰在微博上回復了演員Angelababy的一條評論,引發(fā)了網(wǎng)友們的熱烈討論和關注。
2023-08-21 13:26:25林俊杰回復Angelababy官方回應冰雪大世界主持人疑打廣告1月14日,有網(wǎng)友發(fā)布視頻稱,哈爾濱冰雪大世界大舞臺“感覺變味道了”,主持人在節(jié)目中疑似多次植入廣告,感覺非常影響游玩體驗,建議取消。
2024-01-15 15:51:18官方回應冰雪大世界主持人疑打廣告