www.tjgcgs88.cn-狠狠久久亚洲欧美专区不卡,久久精品国产99久久无毒不卡,噼里啪啦国语版在线观看,zσzσzσ女人极品另类

  • <strike id="qgi8o"><td id="qgi8o"></td></strike>
  • <ul id="qgi8o"><acronym id="qgi8o"></acronym></ul>
  • <li id="qgi8o"></li>
    <ul id="qgi8o"></ul>
    <strike id="qgi8o"><rt id="qgi8o"></rt></strike>
    <ul id="qgi8o"><center id="qgi8o"></center></ul>
  • <kbd id="qgi8o"></kbd>

    N-Shot Learning:用最少的數(shù)據(jù)訓練最多的模型

    作 者 | Heet Sankesara

    翻 譯 | 天字一號(鄭州大學)、鄴調(江蘇 科技 大學)

    審 校 | 唐里、Pita

    如果將AI比作電力的話,那么數(shù)據(jù)就是創(chuàng)造電力的煤。

    不幸的是,正如我們看到可用煤是消耗品一樣,許多 AI 應用程序可供訪問的數(shù)據(jù)很少或根本就沒有數(shù)據(jù)。

    新技術已經彌補了物質資源的不足;同樣需要新的技術來允許在數(shù)據(jù)很少時,保證程序的正常運行。這是正在成為一個非常受歡迎的領域,核心問題:N-shot Learning

    1. N-Shot Learning

    你可能會問,什么是shot?好問題,shot只用一個樣本來訓練,在N-shot學習中,我們有N個訓練的樣本。術語“小樣本學習”中的“小”通常在0-5之間,也就是說,訓練一個沒有樣本的模型被稱為 zero-shot ,一個樣本就是 one-shot 學習,以此類推。

    1-1 為什么需要N-Shot?

    我們在 ImageNet 中的分類錯誤率已經小于 4% 了,為什么我們需要這個?

    首先,ImageNet 的數(shù)據(jù)集包含了許多用于機器學習的示例,但在醫(yī)學影像、藥物發(fā)現(xiàn)和許多其他 AI 可能至關重要的領域中并不總是如此。典型的深度學習架構依賴于大量數(shù)據(jù)訓練才能獲得足夠可靠的結果。例如,ImageNet 需要對數(shù)百張熱狗圖像進行訓練,然后才能判斷一幅新圖像準確判斷是否為熱狗。一些數(shù)據(jù)集,就像7月4日慶祝活動后的冰箱缺乏熱狗一樣,是非常缺乏圖像的。

    機器學習有許多案例數(shù)據(jù)是都非常稀缺,這就是N-Shot技術的用武之地。我們需要訓練一個包含數(shù)百萬甚至數(shù)十億個參數(shù)(全部隨機初始化)的深度學習模型,但可用于訓練的圖像不超過 5 個圖像。簡單地說,我們的模型必須使用非常有限的熱狗圖像進行訓練。

    要處理像這個這樣復雜的問題,我們首先需要清楚N-Shot的定義。

    對我來說,最有趣的子領域是Zero-shot learning,該領域的目標是不需要一張訓練圖像,就能夠對未知類別進行分類。

    沒有任何數(shù)據(jù)可以利用的話怎么進行訓練和學習呢?

    想一下這種情況,你能對一個沒有見過的物體進行分類嗎?

    夜空中的仙后座(圖源:https:// www .star-registration .com /constellation/cassiopeia)

    是的,如果你對這個物體的外表、屬性和功能有充足的信息的話,你是可以實現(xiàn)的。想一想,當你還是一個孩子的時候,是怎么理解這個世界的。在了解了火星的顏色和晚上的位置后,你可以在夜空中找到火星。或者你可以通過了解仙后座在天空中"基本上是一個畸形的'W'"這個信息中識別仙后座。

    根據(jù)今年NLP的趨勢,Zero-shot learning 將變得更加有效(https://blog.floydhub .com /ten-trends-in-deep-learning-nlp/#9-zero-shot-learning-will-become-more-effective)。

    計算機利用圖像的元數(shù)據(jù)執(zhí)行相同的任務。元數(shù)據(jù)只不過是與圖像關聯(lián)的功能。以下是該領域的幾篇論文,這些論文取得了優(yōu)異的成績。

    在one-shot learning中,我們每個類別只有一個示例。現(xiàn)在的任務是使用一個影像進行訓練,最終完成將測試影像劃分為各個類。為了實現(xiàn)這一目標,目前已經出現(xiàn)了很多不同的架構,例如Siamese Neural Networks(https:// www .cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf),它帶來了重大進步,并達到了卓越的結果。然后緊接著是matching networks(https://ar xi v.org/pdf/1606.04080.pdf),這也幫助我們在這一領域實現(xiàn)了巨大的飛躍。

    小樣本學習只是one-shot learning 的靈活應用。在小樣本學習中,我們有多個訓練示例(通常為兩到五個圖像,盡管上述one-shot learning中的大多數(shù)模型也可用于小樣本學習)。

    在2019年計算機視覺和模式識別會議上,介紹了 Meta-Transfer Learning for Few-Shot Learning(https://ar xi v.org/pdf/ 181 2.02391v3.pdf)。這一模式為今后的研究開創(chuàng)了先例;它給出了最先進的結果,并為更復雜的元遷移學習方法鋪平了道路。

    這些元學習和強化學習算法中有許多都是與典型的深度學習算法相結合,并產生了顯著的結果。原型網絡是最流行的深度學習算法之一,并經常用于小樣本學習 。

    在本文中,我們將使用原型網絡完成小樣本學習,并了解其工作原理。

    2. 原型網絡背后的思想

    上圖為原型網絡函數(shù)的示意圖。編碼器將圖像進行編碼映射到嵌入空間(黑圈)中的矢量中,支持圖像用于定義原型(星形)。利用原型和編碼查詢圖像之間的距離進行分類。圖源:https:// www .semanticscholar.org/paper/Gaussian-Prototypical-Networks-for-Few-Shot-on-Fort/feaecb5f7a8d29636650db7c0b480f55d098a6a7/figure/1

    與典型的深度學習體系結構不同,原型網絡不直接對圖像進行分類,而是通過在度量空間(https://en.wikipedia.org/wiki/Metric_space)中尋找圖像之間的映射關系。

    對于任何需要復習數(shù)學的人來說,度量空間都涉及"距離"的概念。它沒有一個可區(qū)分的"起源"點。相反,在度量空間中,我們只計算一個點與另一個點的距離。因此,這里缺少了矢量空間中加法和標量乘法(因為與矢量不同,點僅表示坐標,添加兩個坐標或縮放坐標毫無意義!)請查看此鏈接,詳細了解矢量空間和度量空間之間的差異:https://math.stackexchange .com /questions/1 149 40/what-is-the-difference-between-metric-spaces-and-vector-spaces。

    現(xiàn)在,我們已經學習了這一背景,我們可以開始了解原型網絡是怎樣不直接對圖像進行分類,而是通過在度量空間中尋找圖像之間的映射關系。如上圖所示,同一類的圖像經過編碼器的映射之后,彼此之間的距離非常接近,而不同類的圖像之間具有較長的距離。這意味著,每當給出新示例時,網絡只需檢查與新示例的圖像最近的集合,并將該示例圖像分到其相應的類。原型網絡中將圖像映射到度量空間的基礎模型可以被稱為"Image2Vector"模型,這是一種基于卷積神經網絡 (CNN) 的體系結構。

    現(xiàn)在,對于那些對 CNN 不了解的人,您可以在此處閱讀更多內容:

    簡單地說,他們的目標是訓練分類器。然后,該分類器可以對在訓練期間不可用的新類進行概括,并且只需要每個新類的少量示例。因此,訓練集包含一組類的圖像,而我們的測試集包含另一組類的圖像,這與前一組完全不相關。在該模型中,示例被隨機分為支持集和查詢集。

    很少有鏡頭原型ck被計算為每個類的嵌入式支持示例的平均值。編碼器映射新圖像(x)并將其分類到最接近的類,如上圖中的c2(圖源:https://ar xi v.org/pdf/ 1703 .05 175 .pdf)。

    在少鏡頭學習的情況下,訓練迭代被稱為一個片段。一個小插曲不過是我們訓練網絡一次,計算損失并反向傳播錯誤的一個步驟。在每一集中,我們從訓練集中隨機選擇NC類。對于每一類,我們隨機抽取ns圖像。這些圖像屬于支持集,學習模型稱為ns-shot模型。另一個隨機采樣的nq圖像屬于查詢集。這里nc、ns和nq只是模型中的超參數(shù),其中nc是每次迭代的類數(shù),ns是每個類的支持示例數(shù),nq是每個類的查詢示例數(shù)。

    之后,我們通過“image2vector”模型從支持集圖像中檢索d維點。該模型利用圖像在度量空間中的對應點對圖像進行編碼。對于每個類,我們現(xiàn)在有多個點,但是我們需要將它們表示為每個類的一個點。因此,我們計算每個類的幾何中心,即點的平均值。之后,我們還需要對查詢圖像進行分類。

    為此,我們首先需要將查詢集中的每個圖像編碼為一個點。然后,計算每個質心到每個查詢點的距離。最后,預測每個查詢圖像位于最靠近它的類中。一般來說,模型就是這樣工作的。

    但現(xiàn)在的問題是,這個“image2vector”模型的架構是什么?

    論文匯總 Image2Vector 向量的結構

    對于所有實際應用中,一般都會使用 4-5 CNN 模塊。如上圖所示,每個模塊由一個 CNN 層組成,然后是批處理規(guī)范化,然后是 ReLu 激活函數(shù),最后通向最大池層。在所有模塊之后,剩余的輸出將被展平并返回。這是本文中使用的網絡結構(https://ar xi v.org/pdf/ 1703 .05 175 v2.pdf),您可以使用任何任何你喜歡的體系結構。有必要知道,雖然我們稱之為"Image2Vector"模型,但它實際上將圖像轉換為度量空間中的 64 維的點。要更好地了解差異,請查看 math stack exchange(https://math.stackexchange .com /questions/ 64 5672/what-is-the-difference-between-a-point-and-a-vector)。

    負log概率的原理,圖源:https://ljvmiranda921.github.io/notebook/2017/08/13/softmax-and-the-negative-log-likelihood/#nll

    現(xiàn)在,已經知道了模型是如何工作的,您可能更想知道我們將如何計算損失函數(shù)。我們需要一個足夠強大的損失函數(shù),以便我們的模型能夠快速高效地學習。原型網絡使用log-softmax損失,這只不過是對 softmax 損失取了對數(shù)。當模型無法預測正確的類時,log-softmax 的效果會嚴重懲罰模型,而這正是我們需要的。要了解有關損失函數(shù)的更多情況,請訪問此處。這里是關于 softmax 和 log-softmax 的很好的討論。

    Omniglot數(shù)據(jù)集中的部分示例(圖源:https://github .com /brendenlake/omniglot)

    該網絡在 Omniglot 數(shù)據(jù)集(https://github .com /brendenlake/omniglot)上進行了訓練。Omniglot 數(shù)據(jù)集是專門為開發(fā)更類似于人類學習的算法而設計。它包含 50個不同的字母表,共計1623 個不同的手寫字符。為了增加類的數(shù)量,所有圖像分別旋轉 90、 180 和 270 度,每次旋轉后的圖像都當做一個新類。因此,類的總數(shù)達到 了 64 92(1,623 + 4)類別。我們將 4200 個類別的圖像作為訓練數(shù)據(jù),其余部分則用于測試。對于每個集合,我們根據(jù) 64 個隨機選擇的類中的每個示例對模型進行了訓練。我們訓練了模型 1 小時,獲得了約 88% 的準確率。官方文件聲稱,經過幾個小時的訓練和調整一些參數(shù),準確率達到99.7%。

    是時候親自動手實踐了!

    您可以通過訪問以下鏈接輕松運行代碼:

    代碼地址: https://github .com /Hsankesara/Prototypical-Networks

    運行地址: https://floydhub .com /run?template=https://github .com /Hsankesara/Prototypical-Networks

    讓我們深入學習一下代碼!(向左←滑動可查看完整代碼)

    以上的代碼是 Image2Vector CNN結構的一個實現(xiàn)。它的輸入圖像的維度為28*28*3,返回特征向量的長度為 64 。

    上面的代碼片段是原型網中單個結構的實現(xiàn)。如果你有任何疑問,只需在評論中詢問或在這里創(chuàng)建一個問題,非常歡迎您的參與和評論。

    網絡概述。圖源:https://youtu.be/wcKL05DomBU

    代碼的結構與解釋算法的格式相同。我們?yōu)樵途W絡函數(shù)提供以下輸入:輸入圖像數(shù)據(jù)、輸入標簽、每次迭代的類數(shù)(即 Nc )、每個類的支持示例數(shù)(即 Ns )和每個類的查詢示例數(shù)(即 Nq )。函數(shù)返回 Queryx ,它是從每個查詢點到每個平均點的距離矩陣, Queryy 是包含與 Queryx 對應的標簽的向量。 Queryy 存儲 Queryx 的圖像實際所屬的類。在上面的圖像中,我們可以看到,使用3個類,即 Nc =3,并且對于每個類,總共有5個示例用于訓練,即 Ns =5。上面的s表示包含這15個( Ns * Nc )圖像的支持集, X 表示查詢集。注意,支持集和查詢集都通過 f ,它只不過是我們的“image2vector”函數(shù)。它在度量空間中映射所有圖像。讓我們一步一步地把整個過程分解。

    首先,我們從輸入數(shù)據(jù)中隨機選擇 Nc 類。對于每個類,我們使用random_sample_cls函數(shù)從圖像中隨機選擇一個支持集和一個查詢集。在上圖中,s是支持集,x是查詢集。現(xiàn)在我們選擇了類( C1 、C2 和 C3 ),我們通過“image2vector”模型傳遞所有支持集示例,并使用get_centroid函數(shù)計算每個類的質心。在附近的圖像中也可以觀察到這一點。每個質心代表一個類,將用于對查詢進行分類。

    網絡中的質心計算。圖源:https://youtu.be/wcKL05DomBU

    在計算每個類的質心之后,我們現(xiàn)在必須預測其中一個類的查詢圖像。為此,我們需要與每個查詢對應的實際標簽,這些標簽是使用get_query_y函數(shù)獲得的。 Queryy 是分類數(shù)據(jù),該函數(shù)將該分類文本數(shù)據(jù)轉換為一個熱向量,該熱向量在列點對應的圖像實際所屬的行標簽中僅為“1”,在列中為“0”。

    之后,我們需要對應于每個 Queryx 圖像的點來對其進行分類。我們使用“image2vector”模型得到這些點,現(xiàn)在我們需要對它們進行分類。為此,我們計算 Queryx 中每個點到每個類中心的距離。這給出了一個矩陣,其中索引 ij 表示與第 i 個查詢圖像對應的點到第 j 類中心的距離。我們使用get_query_x函數(shù)構造矩陣并將矩陣保存在 Queryx 變量中。在附近的圖像中也可以看到同樣的情況。對于查詢集中的每個示例,將計算它與 C1、C2 和 C3 之間的距離。在這種情況下, X 最接近 C2 ,因此我們可以說 X 被預測屬于 C2 類。

    以編程方式,我們可以使用一個簡單的ARMmin函數(shù)來做同樣的事情,即找出圖像被預測的類。然后使用預測類和實際類計算損失并反向傳播錯誤。

    如果你想使用經過訓練的模型,或者只需要重新訓練自己,這里是我的實現(xiàn)。您可以使用它作為API,并使用幾行代碼來訓練模型。你可以在這里找到這個網絡。

    3. 資源列表

    這里有些資源可以幫你更全面的了解本文內容:

    4. 局限性

    盡管原型網絡的結果不錯,但它們仍然有局限性。首先是缺乏泛化,它在Omniglot數(shù)據(jù)集上表現(xiàn)很好,因為其中的所有圖像都是一個字符的圖像,因此共享一些相似的特征。然而,如果我們試圖用這個模型來分類不同品種的貓,它不會給我們準確的結果。貓和字符圖像幾乎沒有共同的特征,可以用來將圖像映射到相應度量空間的共同特征的數(shù)量可以忽略不計。

    原型網絡的另一個限制是只使用均值來確定中心,而忽略了支持集中的方差,這在圖像有噪聲的情況下阻礙了模型的分類能力。利用高斯原網絡(https://ar xi v.org/abs/ 1708 .02 73 5)類中的方差,利用高斯公式對嵌入點進行建模,克服了這一局限性。

    5. 結論

    小概率學習是近年來研究的熱點之一。有許多使用原型網絡的新方法,比如這種元學習方法,效果很好。研究人員也在 探索 強化學習,這也有很大的潛力。這個模型最好的地方在于它簡單易懂,并且能給出令人難以置信的結果。

    via https://blog.floydhub .com /n-shot-learning/

    本文由雷鋒字幕組成員翻譯,雷鋒字幕組是由AI愛好者組成的字幕翻譯團隊;團隊成員有大數(shù)據(jù)專家、算法工程師、圖像處理工程師、產品經理、產品運營、IT咨詢人、在校師生;志愿者們來自IBM、AVL、Adobe、阿里、百度等知名企業(yè),北大、清華、港大、中科院、南卡羅萊納大學、早稻田大學等海內外高校研究所。了解字幕組 請加 微信 ~



    相關評說:

  • 昔樺15894207571: 急! - 中譯英(用括號里所給的詞)1.那個地區(qū)以優(yōu)質葡萄酒而聞名
    四方臺區(qū)力矩: ______ 1.那個地區(qū)以優(yōu)質葡萄酒而聞名于世(famous) The area is famous for good wine ... It is not nearly enough to master a foreign by working hard for a shot time. 9.我不明...
  • 昔樺15894207571: 不規(guī)則動詞的變化 -
    四方臺區(qū)力矩: ______[答案] 不規(guī)則中的規(guī)則 ——不規(guī)則動詞過去式和過去分詞巧記法 一、AAA型:即原形、過去式和過去分詞等三式都相同. ... make(制造,做,使得)---made---made, shoot(射擊,發(fā)射)--shot---shot, slide(滑行,滑動)---slid---slid, strike(侵襲,打火)...
  • 昔樺15894207571: 初一下冊英語不規(guī)則動詞過去式怎么背 -
    四方臺區(qū)力矩: ______ 英語單詞中由動詞原形轉變?yōu)檫^去式和過去分詞時不按詞尾加“-ed”之變化規(guī)則者叫做不規(guī)則動詞(Irregular Verbs). 現(xiàn)代英語新生成的動詞都歸入“-ed”的規(guī)則變化,例如: p...
  • 昔樺15894207571: 英語動詞 -
    四方臺區(qū)力矩: ______ be was/were been (be動詞) do did done (助動詞) speak spoke spoken (講話) read read read (閱讀) cut cut cut (切) cost cost cost (花費) go went gone (去,走) feel felt felt (感覺) dig dug dug (挖) overcome overcame ...
  • 昔樺15894207571: 初一人教版英語單詞的過去式 -
    四方臺區(qū)力矩: ______ 1.把動詞原形中的i改為a,變成過去式.如: begin—began,drink—drank,give—gave,ring—rang,sing—sang,sit—sat,swim—swam 2.把重讀開音節(jié)中的i改為o,變成過去式.如: dri...
  • 昔樺15894207571: 所有不規(guī)則動詞過去式,過去分詞表 -
    四方臺區(qū)力矩: ______[答案] 初中英語不規(guī)則動詞表 1. A---A---A型(現(xiàn)在式、過去式和過去分詞同形) 動詞原形(現(xiàn)在式) 過去式 過去分詞 cost cost ... make made made 制造 meet met met 遇見 sell sold sold 賣 shoot shot shot 射擊 tell told told 告訴 smell smelt/smelled smelt/...
  • 2020国产精品视频免费| 琪琪精品免费一区二区三区| 原来是电影神马琪琪| 亚洲国产精品久久久久秋霞小说| 亚洲乱色伦图片区小说| 国产一区二区精品久久凹凸| 国精产品一线二线三线| 久久精品国产亚洲av麻豆| 亚洲精品无码AV专区最新| 精品香蕉一区二区三区|