四川中衛(wèi)北斗科技有限公司

在線咨詢
微信

微信掃一掃

長按二維碼關注微信加好友

2021年的數(shù)據(jù)科學趨勢

發(fā)布時間:2021-01-04 14:10

          在不穩(wěn)定的2020年之后,對新的一年有何看法?

          關于2020年已經(jīng)說了太多話了。這么多恥辱,不幸,悲傷……是的,我們都知道!我們在一起嗎?

          但是,圍繞我們的所有這些恥辱和不幸并沒有阻止巨大的研究和進步。偉大的成就并沒有道歉,"抱歉,那我要等2021年……"。太好了,世界在不斷發(fā)展。

          數(shù)據(jù)科學正變得如此成熟,以至于我回顧了以前的回顧性文章(2019、2020),我覺得我們需要比以往任何時候都更加開始討論復雜而嚴肅的話題。我是那個變老嗎?

          當然,像Tensorflow甚至sklearn這樣的核心技術都在發(fā)展,但是這些是現(xiàn)在的主要問題嗎?我相信不是。

          在這篇文章中,我將集中討論兩個主要主題。在不破壞太多的情況下,它們是:

          事實與共同點我們都可以做數(shù)據(jù)科學嗎?

          有興趣嗎我們走吧。

          1. 事實和共同點

          不能說技術進步不好。它們是我們可以用于我們想像的任何工具的工具,無論好壞??梢哉业綇V泛的例子,其中技術始于軍事應用,并成功地應用于民用技術(我喜歡這個清單)。但是,有很多我們首先不希望在軍事應用中使用的數(shù)據(jù)科學工具……

          我為什么要談論它?讓我呆一會兒,繼續(xù)前進……今年,我們(至少)發(fā)生了兩個非常特殊的事件-美國大選和COVID-19。我開始注意到側面(觀點/立場/陳述)變得比以往更加兩極化。我個人和朋友們進行了一些艱難的討論。我開始感到我們?nèi)鄙僖恍〇|西–需要一個共同點。基本上,我們之間可以達成共識的是事實?看起來很簡單,但如今卻如此復雜。

           人們開始依靠自己的新聞頻道(某些情況下,社交媒體供稿),每個新聞頻道都有自己的觀點和針對性的建議,而沒有過濾掉對廣告內(nèi)容的正確或錯誤的判斷。我們可以進行富有成效(健康)的討論的共同基礎開始消失。對其他來源不信任。

           這與數(shù)據(jù)科學有何關系?它涉及最被低估的領域之一,人們通常要么做出粗略的假設,要么獨自忽略。稱為數(shù)據(jù)來源(Wiki定義)。

           我希望在2021年,有關數(shù)據(jù)來源的討論會增加。

           數(shù)據(jù)從哪里來?我們可以相信嗎?它是否包含代表性數(shù)據(jù)?在部署模型之前,我們應該對數(shù)據(jù)有什么了解嗎?我們怎么知道將來它將繼續(xù)成為可靠的來源?

          我真誠的認為,我們還沒有認真對待數(shù)據(jù)來源評估。有很多不好的例子,使用未經(jīng)檢查的數(shù)據(jù)會導致更多的錯誤信息或歧視。

          現(xiàn)在,回到技術進步,并與數(shù)據(jù)來源聯(lián)系起來,今年,我們看到了通用對抗網(wǎng)絡(GAN)的一些令人印象深刻的應用。例如,伊麗莎白女王的Deepfake通過第4頻道到達大眾(youtube視頻)。大家的反應不一,但我可以看到,該視頻的目的是將信任討論擺到桌面上。我們可以相信自己的眼睛嗎?從現(xiàn)在起,我們可能需要變得更加懷疑。

           對Deepfake的無節(jié)制使用會破壞公眾對報紙和電視的信任。數(shù)據(jù)來源必須明確,我們需要找到一種方法來確定什么可以被信任。

           2. 我們都可以做數(shù)據(jù)科學嗎?

          2020年為我們帶來了數(shù)據(jù)科學應用程序的許多發(fā)展,它使用了最近幾年(某種)可用的技術,但現(xiàn)在使用了更多的計算能力。兩個例子:

          OpenAI的生成式預訓練變壓器3(GPT-3)。它使用預先訓練的算法生成文本。具體來說,他們已經(jīng)獲取了通過爬網(wǎng)收集的文本信息以及OpenAI選擇的其他文本,包括Wikipedia的文本。您可以在此處檢查一些出色的應用程序(例如,圖靈測試)。Deepmind的AlphaFold。該團隊解決了蛋白質折疊的巨大挑戰(zhàn),這一挑戰(zhàn)使科學界困惑了50年。

           幾年前,我們可以看到數(shù)據(jù)科學的發(fā)展來自單身人士或小型創(chuàng)業(yè)公司。如今,由于我們處于一個階段,我們需要大量的計算資源來訓練某些模型,因此這變得更加困難。例如,Deepmind提到Alphafold,

           …使用大約16個TPUv3(即128個TPUv3內(nèi)核或大約相當于100-200個GPU)運行了幾周…

           關于OpenAI的GPT-3,

            使用Tesla V100云實例訓練GPT-3的成本將超過460萬美元。

           這是否意味著Data Science / AI的民主程度降低了?群眾仍然可以使用嗎?

           一種解決方案是對需要較少數(shù)據(jù)才能取得良好結果的模型的開發(fā)進行更深入的研究。我們一直專注于模型的準確性/ ROC / RMSE / etc。在最近幾年中,并沒有太多地影響它們的效率。資源不是無限的,特別是對于業(yè)余數(shù)據(jù)科學家來說,他們也希望在不依賴大型基礎架構的情況下對應用程序有所了解(=高成本,=第三方)。

            另一個解決方案可以是所有人都可以使用的開源預訓練模型。但是,如果所有者不完全清楚如何創(chuàng)建模型以及使用哪些數(shù)據(jù),則可能屬于上述問題(數(shù)據(jù)來源)。盡管如此,只要公眾具有適當?shù)耐该鞫群烷_放性,他們可以參與創(chuàng)建這些經(jīng)過預先訓練的模型,我們也許可以達成共識。

掃一掃在手機上閱讀本文章

版權所有? 四川中衛(wèi)北斗科技有限公司    蜀ICP備14007264號-3    技術支持: 竹子建站