国模吧双双大尺度炮交gogo,国产午夜三级一区二区三,国产一区二区精品久久岳,国产精品熟妇一区二区三区四区,国产伦孑沙发午休精品

登錄注冊
新聞 資訊 金融 知識 財經(jīng) 理財 科技 金融 經(jīng)濟(jì) 產(chǎn)品 系統(tǒng) 連接 科技 聚焦
首頁 > 金融 > > 正文

95%PyTorch庫都會中招的bug!特斯拉AI總監(jiān)都沒能幸免

2021-04-14 14:01:01來源:互聯(lián)網(wǎng)

明敏 發(fā)自 凹非寺

量子位 報道 | 公眾號 QbitAI

到底是怎樣的一個bug,能讓95%的Pytorch庫中招,就連特斯拉AI總監(jiān)深受困擾?

還別說,這個bug雖小,但有夠“狡猾”的。

這就是最近Reddit上熱議的一個話題,是一位網(wǎng)友在使用再平常不過的Pytorch+Numpy組合時發(fā)現(xiàn)。

最主要的是,在代碼能夠跑通的情況下,它甚至還會影響模型的準(zhǔn)確率!

除此之外,網(wǎng)友熱議的另外一個點,竟然是:

而是它到底算不算一個bug?

這究竟是怎么一回事?

事情的起因是一位網(wǎng)友發(fā)現(xiàn),在PyTorch中用NumPy來生成隨機(jī)數(shù)時,受到數(shù)據(jù)預(yù)處理的限制,會多進(jìn)程并行加載數(shù)據(jù),但最后每個進(jìn)程返回的隨機(jī)數(shù)卻是相同的。

他還舉出例子證實了自己的說法。

如下是一個示例數(shù)據(jù)集,它會返回三個元素的隨機(jī)向量。這里采用的批量大小分別為2,工作進(jìn)程為4個。

然后神奇的事情發(fā)生了:每個進(jìn)程返回的隨機(jī)數(shù)都是一樣的。

這個結(jié)果會著實讓人有點一頭霧水,就好像數(shù)學(xué)應(yīng)用題求小明走一段路程需要花費多少時間,而你卻算出來了負(fù)數(shù)。

發(fā)現(xiàn)了問題后,這位網(wǎng)友還在GitHub上下載了超過10萬個PyTorch庫,用同樣的方法產(chǎn)生隨機(jī)數(shù)。

結(jié)果更加令人震驚:居然有超過95%的庫都受到這個問題的困擾!

這其中不乏PyTorch的官方教程和OpenAI的代碼,連特斯拉AI總監(jiān)Karpathy也承認(rèn)自己“被坑過”!

但有一說一,這個bug想要解決也不難:只需要在每個epoch都重新設(shè)置seed,或者用python內(nèi)置的隨機(jī)數(shù)生成器就可以避免這個問題。

到底是不是bug?

如果這個問題已經(jīng)可以解決,為什么還會引起如此大的討論呢?

因為網(wǎng)友們的重點已經(jīng)上升到了“哲學(xué)”層面:

這到底是不是一個bug?

在Reddit上有人認(rèn)為:這不是一個bug。

雖然這個問題非常常見,但它并不算是一個bug,而是一個在調(diào)試時不可以忽略的點。

就是這個觀點,激起了千層浪花,許多人都認(rèn)為他忽略了問題的關(guān)鍵所在。

這不是產(chǎn)生偽隨機(jī)數(shù)的問題,也不是numpy的問題,問題的核心是在于PyTorch中的DataLoader的實現(xiàn)

對于包含隨機(jī)轉(zhuǎn)換的數(shù)據(jù)加載pipeline,這意味著每個worker都將選擇“相同”的轉(zhuǎn)換。

而現(xiàn)在NN中的許多數(shù)據(jù)加載pipeline,都使用某種類型的隨機(jī)轉(zhuǎn)換來進(jìn)行數(shù)據(jù)增強(qiáng),所以不重新初始化可能是一個預(yù)設(shè)。

另一位網(wǎng)友也表示這個bug其實是在預(yù)設(shè)程序下運行才出現(xiàn)的,應(yīng)該向更多用戶指出來。

并且95%以上的Pytorch庫受此困擾,也絕不是危言聳聽。

有人就分享出了自己此前的慘痛經(jīng)歷:

我認(rèn)識到這一點是之前跑了許多進(jìn)程來創(chuàng)建數(shù)據(jù)集時,然而發(fā)現(xiàn)其中一半的數(shù)據(jù)是重復(fù)的,之后花了很長的時間才發(fā)現(xiàn)哪里出了問題。

也有用戶補(bǔ)充說,如果 95% 以上的用戶使用時出現(xiàn)錯誤,那么代碼就是錯的。

順便一提,這提供了Karpathy定律的另一個例子:即使你搞砸了一些非常基本代碼,“neural nets want to work”。

你有踩過PyTorch的坑嗎?

如上的bug并不是偶然,隨著用PyTorch的人越來越多,被發(fā)現(xiàn)的bug也就越來越多,某乎上還有PyTorch的坑之總結(jié),被瀏覽量高達(dá)49w。

其中從向量、函數(shù)到model.train(),無論是真bug還是自己出了bug,大家的血淚史還真的是各有千秋。

所以,關(guān)于PyTorch你可以分享的經(jīng)驗血淚史嗎?

歡迎評論區(qū)留言討論~

— 完 —

關(guān)鍵詞: 95 PyTorch 中招 bug

推薦內(nèi)容

熱點
39熱文一周熱點