sama電腦優(yōu)盤裝系統(tǒng)
選自getrevue.co
作者:Jean de Dieu Nyandwi
機器之心編譯
機器之心編輯部
這篇文章從感知機開始,按照時間順序回顧了深度學習的歷史。
1958 年:感知機的興起
1958 年,弗蘭克 · 羅森布拉特發(fā)明了感知機,這是一種非常簡單的機器模型,后來成為當今智能機器的核心和起源。
感知機是一個非常簡單的二元分類器,可以確定給定的輸入圖像是否屬于給定的類。為了實現(xiàn)這一點,它使用了單位階躍激活函數(shù)。使用單位階躍激活函數(shù),如果輸入大于 0,則輸出為 1,否則為 0。
下圖是感知機的算法。
感知機
Frank 的意圖不是將感知機構(gòu)建為算法,而是構(gòu)建成一種機器。感知機是在名為 Mark I 感知機的硬件中實現(xiàn)的。Mark I 感知機是一臺純電動機器。它有 400 個光電管(或光電探測器),其權(quán)重被編碼到電位器中,權(quán)重更新(發(fā)生在反向傳播中)由電動機執(zhí)行。下圖是 Mark I 感知機。
Mark I 感知機。圖片來自美國國家歷史博物館
就像你今天在新聞中看到的關(guān)于神經(jīng)網(wǎng)絡(luò)的內(nèi)容一樣,感知機也是當時的頭條新聞。《紐約時報》報道說,“[海軍] 期望電子計算機的初步模型能夠行走、說話、觀察、書寫、自我復制并意識到它的存在”。今天,我們都知道機器仍然難以行走、說話、觀察、書寫、復制自己,而意識則是另一回事。
Mark I 感知機的目標僅僅是識別圖像,而當時它只能識別兩個類別。人們花了一些時間才知道添加更多層(感知機是單層神經(jīng)網(wǎng)絡(luò))可以使網(wǎng)絡(luò)具有學習復雜功能的能力。這進一步產(chǎn)生了多層感知機 (MLP)。
1982~1986 : 循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN)
在多層感知機顯示出解決圖像識別問題的潛力之后,人們開始思考如何對文本等序列數(shù)據(jù)進行建模。
循環(huán)神經(jīng)網(wǎng)絡(luò)是一類旨在處理序列的神經(jīng)網(wǎng)絡(luò)。與多層感知機 (MLP) 等前饋網(wǎng)絡(luò)不同,RNN 有一個內(nèi)部反饋回路,負責記住每個時間步的信息狀態(tài)。
前饋網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)
第一種 RNN 單元在 1982 年到 1986 年之間被發(fā)現(xiàn),但它并沒有引起人們的注意,因為簡單的 RNN 單元在用于長序列時會受到很大影響,主要是由于記憶力短和梯度不穩(wěn)定的問題。
1998:LeNet-5:第一個卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)
LeNet-5 是最早的卷積網(wǎng)絡(luò)架構(gòu)之一,于 1998 年用于文檔識別。LeNet-5 由 3 個部分組成:2 個卷積層、2 個子采樣或池化層和 3 個全連接層。卷積層中沒有激活函數(shù)。
正如論文所說,LeNet-5 已進行商業(yè)化部署,每天讀取數(shù)百萬張支票。下面是 LeNet-5 的架構(gòu)。該圖像取自其原始論文。
LeNet-5 在當時確實是一個有影響力的東西,但它(常規(guī)的卷積網(wǎng)絡(luò))直到 20 年后才受到關(guān)注!LeNet-5 建立在早期工作的基礎(chǔ)上,例如福島邦彥提出的第一個卷積神經(jīng)網(wǎng)絡(luò)、反向傳播(Hinton 等人,1986 年)和應用于手寫郵政編碼識別的反向傳播(LeCun 等人,1989 年)。
1998:長短期記憶(LSTM)
由于梯度不穩(wěn)定的問題,簡單 RNN 單元無法處理長序列問題。LSTM 是可用于處理長序列的 RNN 版本。LSTM 基本上是 RNN 單元的極端情況。
LSTM 單元的一個特殊設(shè)計差異是它有一個門機制,這是它可以控制多個時間步長的信息流的基礎(chǔ)。
簡而言之,LSTM 使用門來控制從當前時間步到下一個時間步的信息流,有以下 4 種方式:
輸入門識別輸入序列。遺忘門去掉輸入序列中包含的所有不相關(guān)信息,并將相關(guān)信息存儲在長期記憶中。LTSM 單元更新更新單元的狀態(tài)值。輸出門控制必須發(fā)送到下一個時間步的信息。LSTM 架構(gòu)。圖片取自 MIT 的課程《6.S191 Introduction to Deep Learning》
LSTM 處理長序列的能力使其成為適合各種序列任務(wù)的神經(jīng)網(wǎng)絡(luò)架構(gòu),例如文本分類、情感分析、語音識別、圖像標題生成和機器翻譯。
LSTM 是一種強大的架構(gòu),但它的計算成本很高。2014 年推出的 GRU(Gated Recurrent Unit)可以解決這個問題。與 LSTM 相比,它的參數(shù)更少,而且效果也很好。
2012 年:ImageNet 挑戰(zhàn)賽、AlexNet 和 ConvNet 的興起
如果跳過 ImageNet 大規(guī)模視覺識別挑戰(zhàn)賽 (ILSVRC) 和 AlexNet,就幾乎不可能討論神經(jīng)網(wǎng)絡(luò)和深度學習的歷史。
ImageNet 挑戰(zhàn)賽的唯一目標是評估大型數(shù)據(jù)集上的圖像分類和對象分類架構(gòu)。它帶來了許多新的、強大的、有趣的視覺架構(gòu),我們將簡要回顧這些架構(gòu)。
挑戰(zhàn)賽始于 2010 年,但在 2012 年發(fā)生了變化,AlexNet 以 15.3% 的 Top 5 低錯誤率贏得了挑戰(zhàn),這幾乎是之前獲勝者錯誤率的一半。AlexNet 由 5 個卷積層、隨后的最大池化層、3 個全連接層和一個 softmax 層組成。AlexNet 提出了深度卷積神經(jīng)網(wǎng)絡(luò)可以很好地處理視覺識別任務(wù)的想法。但當時,這個觀點還沒有深入到其他應用上!
在隨后的幾年里,ConvNets 架構(gòu)不斷變得更大并且工作得更好。例如,有 19 層的 VGG 以 7.3% 的錯誤率贏得了挑戰(zhàn)。GoogLeNet(Inception-v1) 更進一步,將錯誤率降低到 6.7%。2015 年,ResNet(Deep Residual Networks)擴展了這一點,并將錯誤率降低到 3.6%,并表明通過殘差連接,我們可以訓練更深的網(wǎng)絡(luò)(超過 100 層),在此之前,訓練如此深的網(wǎng)絡(luò)是不可能的。之前人們發(fā)現(xiàn)更深層次的網(wǎng)絡(luò)工作得更好,這導致了其他新架構(gòu),如 ResNeXt、Inception-ResNet、DenseNet、Xception 等。
讀者可以在這里找到這些架構(gòu)和其他現(xiàn)代架構(gòu)的總結(jié)和實現(xiàn):https://github.com/Nyandwi/ModernConvNets
ModernConvNets 庫。
ImageNet 挑戰(zhàn)賽。圖片來自課程《 CS231n》
2014 年 : 深度生成網(wǎng)絡(luò)
生成網(wǎng)絡(luò)用于從訓練數(shù)據(jù)中生成或合成新的數(shù)據(jù)樣本,例如圖像和音樂。
生成網(wǎng)絡(luò)有很多種類型,但最流行的類型是由 Ian Goodfellow 在 2014 年創(chuàng)建的生成對抗網(wǎng)絡(luò) (GAN)。GAN 由兩個主要組件組成:生成假樣本的生成器和區(qū)分真實樣本和生成器生成樣本的判別器。生成器和鑒別器可以說是互相競爭的關(guān)系。他們都是獨立訓練的,在訓練過程中,他們玩的是零和游戲。生成器不斷生成欺騙判別器的假樣本,而判別器則努力發(fā)現(xiàn)那些假樣本(參考真實樣本)。在每次訓練迭代中,生成器在生成接近真實的假樣本方面做得更好,判別器必須提高標準來區(qū)分不真實的樣本和真實樣本。
GAN 一直是深度學習社區(qū)中最熱門的事物之一,該社區(qū)以生成偽造的圖像和 Deepfake 視頻而聞名。如果讀者對 GAN 的最新進展感興趣,可以閱讀 StyleGAN2、DualStyleGAN、ArcaneGAN 和 AnimeGANv2 的簡介。如需 GAN 資源的完整列表,請查看 Awesome GAN 庫:https://github.com/nashory/gans-awesome-applications。下圖說明了 GAN 的模型架構(gòu)。
生成對抗網(wǎng)絡(luò)(GAN)
GAN 是生成模型的一種。其他流行的生成模型類型還有 Variation Autoencoder (變分自編碼器,VAE)、AutoEncoder (自編碼器)和擴散模型等。
2017 年:Transformers 和注意力機制
時間來到 2017 年。ImageNet 挑戰(zhàn)賽結(jié)束了。新的卷積網(wǎng)絡(luò)架構(gòu)也被制作出來。計算機視覺社區(qū)的每個人都對當前的進展感到高興。核心計算機視覺任務(wù)(圖像分類、目標檢測、圖像分割)不再像以前那樣復雜。人們可以使用 GAN 生成逼真的圖像。NLP 似乎落后了。但是隨后出現(xiàn)了一些事情,并且在整個網(wǎng)絡(luò)上都成為了頭條新聞:一種完全基于注意力機制的新神經(jīng)網(wǎng)絡(luò)架構(gòu)橫空出世。并且 NLP 再次受到啟發(fā),在隨后的幾年,注意力機制繼續(xù)主導其他方向(最顯著的是視覺)。該架構(gòu)被稱為 Transformer 。
在此之后的 5 年,也就是現(xiàn)在,我們在這里談?wù)撘幌逻@個最大的創(chuàng)新成果。Transformer 是一類純粹基于注意力機制的神經(jīng)網(wǎng)絡(luò)算法。Transformer 不使用循環(huán)網(wǎng)絡(luò)或卷積。它由多頭注意力、殘差連接、層歸一化、全連接層和位置編碼組成,用于保留數(shù)據(jù)中的序列順序。下圖說明了 Transformer 架構(gòu)。
電腦圖片來自于《Attention Is All You Need》
Transformer 徹底改變了 NLP,目前它也在改變著計算機視覺領(lǐng)域。在 NLP 中,它被用于機器翻譯、文本摘要、語音識別、文本補全、文檔搜索等。
讀者可以在其論文 《Attention is All You Need》 中了解有關(guān) Transformer 的更多信息。
2018 年至今
自 2017 年以來,深度學習算法、應用和技術(shù)突飛猛進。為了清楚起見,后來的介紹是按類別劃分的。在每個類別中,我們都會重新審視主要趨勢和一些最重要的突破。
Vision Transformers
Transformer 在 NLP 中表現(xiàn)出優(yōu)異的性能后不久,一些勇于創(chuàng)新的人就迫不及待地將注意力機制放到了圖像上。在論文《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》中,谷歌的幾位研究人員表明,對直接在圖像塊序列上運行的正常 Transformer 進行輕微修改可以在圖像分類數(shù)據(jù)集上產(chǎn)生實質(zhì)性的結(jié)果。他們將他們的架構(gòu)稱為 Vision Transformer (ViT),它在大多數(shù)計算機視覺基準測試中都有體現(xiàn)(在作者撰寫本文時,ViT 是 Cifar-10 上最先進的分類模型)。
ViT 設(shè)計師并不是第一個嘗試在識別任務(wù)中使用注意力機制的人。我們可以在論文 Attention 電腦 Augmented Convolutional Networks 中找到第一個使用的記錄,這篇論文試圖結(jié)合自注意力機制和卷積(擺脫卷積主要是由于 CNN 引入的空間歸納偏置)。另一個例子見于論文《Visual Transformers: Token-based Image Representation and Processing for Computer Vision,這篇論文在基于濾波器的 token 或視覺 token 上運行 Transformer。這兩篇論文和許多其他未在此處列出的論文突破了一些基線架構(gòu)(主要是 ResNet)的界限,但當時并沒有超越當前的基準。ViT 確實是最偉大的論文之一。這篇論文最重要的見解之一是 ViT 設(shè)計師實際上使用圖像 patch 作為輸入表示。他們對 Transformer 架構(gòu)沒有太大的改變。
Vision Transformer(ViT)
除了使用圖像 patch 之外,使 Vision Transformer 成為強大架構(gòu)的結(jié)構(gòu)是 Transformer 的超強并行性及其縮放行為。但就像生活中的一切一樣,沒有什么是完美的。一開始,ViT 在視覺下游任務(wù)(目標檢測和分割)上表現(xiàn)不佳。
在引入 Swin Transformers 之后,Vision Transformer 開始被用作目標檢測和圖像分割等視覺下游任務(wù)的骨干網(wǎng)絡(luò)。Swin Transformer 超強性能的核心亮點是由于在連續(xù)的自注意力層之間使用了移位窗口。下圖描述了 Swin Transformer 和 Vision 電腦 Transformer (ViT) 在構(gòu)建分層特征圖方面的區(qū)別。
圖片來自 Swin Transformer 原文
Vision Transformer 一直是近來最令人興奮的研究領(lǐng)域之一。我們可以在這里討論許多 Vision Transformers 論文,但讀者可以在論文《Transformers in Vision: A Survey》中了解更多信息。其他最新視覺 Transformer 還有 CrossViT、ConViT 和 SepViT 等。
視覺和語言模型
視覺和語言模型通常被稱為多模態(tài)。它們是涉及視覺和語言的模型,例如文本到圖像生成(給定文本,生成與文本描述匹配的圖像)、圖像字幕(給定圖像,生成其描述)和視覺問答(給定一個圖像和關(guān)于圖像中內(nèi)容的問題,生成答案)。Transformer 在視覺和語言領(lǐng)域的成功很大程度上促成了多模型作為一個單一的統(tǒng)一網(wǎng)絡(luò)。
實際上,所有視覺和語言任務(wù)都利用了預訓練技術(shù)。在計算機視覺中,預訓練需要對在大型數(shù)據(jù)集(通常是 ImageNet)上訓練的網(wǎng)絡(luò)進行微調(diào),而在 NLP 中,往往是對預訓練的 BERT 進行微調(diào)。要了解有關(guān) V-L 任務(wù)中預訓練的更多信息,請閱讀論文《A Survey of Vision-Language Pre-Trained Models》。有關(guān)視覺和語言任務(wù)、數(shù)據(jù)集的一般概述,請查看論文《Trends in Integration of Vision and Language Research: A Survey of Tasks, Datasets, and Methods》。
前段時間,OpenAI 發(fā)布了 DALL·E 2(改進后的 DALL·E),這是一種可以根據(jù)文本生成逼真圖像的視覺語言模型。現(xiàn)有的文本轉(zhuǎn)圖像模型有很多,但 DALL·E 2 的分辨率、圖像標題匹配和真實感都相當出色。
DALL·E 2 尚未對公眾開放,但你可以加入候補名單。以下是 DALL·E 2 創(chuàng)建的一些圖像示例。
上面呈現(xiàn)的 DALL·E 2 生成的圖像取自一些 OpenAI 員工,例如 @sama、@ilyasut、@model_mechanic 和 openaidalle。
大規(guī)模語言模型 (LLM)
語言模型有多種用途。它們可用于預測句子中的下一個單詞或字符、總結(jié)一段文檔、將給定文本從一種語言翻譯成另一種語言、識別語音或?qū)⒁欢挝谋巨D(zhuǎn)換為語音。
開玩笑地說,發(fā)明 Transformers 的人必須為語言模型在朝著大規(guī)模參數(shù)化方向前進受到指責(但實際上沒有人應該受到責備,Transformers 是 2010 年代十年中最偉大的發(fā)明之一,大模型令人震驚的地方在于:如果給定足夠的數(shù)據(jù)和計算,它總能更好地工作)。在過去的 5 年中,語言模型的大小一直在不斷增長。
在引入論文《Attention is all you need》一年后,大規(guī)模語言模型開始出現(xiàn)。2018 年,OpenAI 發(fā)布了 GPT(Generative Pre-trained Transformer),這是當時最大的語言模型之一。一年后,OpenAI 發(fā)布了 GPT-2,一個擁有 15 億個參數(shù)的模型。又一年后,他們發(fā)布了 GPT-3,它有 1750 億個參數(shù)。GPT-3 用了 570GB 的 文本來訓練。這個模型有 175B 的參數(shù),模型有 700GB 大。根據(jù) lambdalabs 的說法,如果使用在市場上價格最低的 GPU 云,訓練它需要 366 年,花費 460 萬美元!
GPT-n 系列型號僅僅是個開始。還有其他更大的模型接近甚至比 GPT-3 更大。如:NVIDIA Megatron-LM 有 8.3B 參數(shù)。最新的 DeepMind Gopher 有 280B 參數(shù)。2022 年 4 月 12 日,DeepMind 發(fā)布了另一個名為 Chinchilla 的 70B 語言模型,盡管比 Gopher、GPT-3 和 Megatron-Turing NLG(530B 參數(shù))小,但它的性能優(yōu)于許多語言模型。Chinchilla 的論文表明,現(xiàn)有的語言模型是訓練不足的,具體來說,它表明通過將模型的大小加倍,數(shù)據(jù)也應該加倍。但是,幾乎在同一周內(nèi)又出現(xiàn)了具有 5400 億個參數(shù)的 Google Pathways 語言模型(PaLM)!
Chinchilla 語言模型
代碼生成模型
代碼生成是一項涉及補全給定代碼或根據(jù)自然語言或文本生成代碼的任務(wù),或者簡單地說,它是可以編寫計算機程序的人工智能系統(tǒng)。可以猜到,現(xiàn)代代碼生成器是基于 Transformer 的。
我們可以確定地說,人們已經(jīng)開始考慮讓計算機編寫自己的程序了(就像我們夢想教計算機做的所有其他事情一樣),但代碼生成器在 OpenAI 發(fā)布 Codex 后受到關(guān)注。Codex 是在 GitHub 公共倉庫和其他公共源代碼上微調(diào)的 GPT-3。OpenAI 表示:“OpenAI Codex 是一種通用編程模型,這意味著它基本上可以應用于任何編程任務(wù)(盡管結(jié)果可能會有所不同)。我們已經(jīng)成功地將它用于編譯、解釋代碼和重構(gòu)代碼。但我們知道,我們只觸及了可以做的事情的皮毛。” 目前,由 Codex 支持的 GitHub Copilot 扮演著結(jié)對程序員的角色。
在我使用 Copilot 后,我對它的功能感到非常驚訝。作為不編寫 Java 程序的人,我用它來準備我的移動應用程序(使用 Java)考試。人工智能幫助我準備學術(shù)考試真是太酷了!
在 OpenAI 發(fā)布 Codex 幾個月后,DeepMind 發(fā)布了 AlphaCode,這是一種基于 Transformer 的語言模型,可以解決編程競賽問題。AlphaCode 發(fā)布的博文稱:“AlphaCode 通過解決需要結(jié)合批判性思維、邏輯、算法、編碼和自然語言理解的新問題,在編程競賽的參與者中估計排名前 54%。” 解決編程問題(或一般的競爭性編程)非常困難(每個做過技術(shù)面試的人都同意這一點),正如 Dzmitry 所說,擊敗 “人類水平仍然遙遙無期”。
前不久,來自 Meta AI 的科學家發(fā)布了 InCoder,這是一種可以生成和編輯程序的生成模型。
更多關(guān)于代碼生成的論文和模型可以在這里找到:https://paperswithcode.com/task/code-generation/codeless
再次回到感知機
在卷積神經(jīng)網(wǎng)絡(luò)和 Transformer 興起之前的很長一段時間里,深度學習都圍繞著感知機展開。ConvNets 在取代 MLP 的各種識別任務(wù)中表現(xiàn)出優(yōu)異的性能。視覺 Transformer 目前也展示出似乎是一個很有前途的架構(gòu)。但是感知機完全死了嗎?答案可能不是。
在 2021 年 7 月,兩篇基于感知機的論文被發(fā)表。一個是 MLP-Mixer: An all-MLP Architecture for Vision,另一個是 Pay Attention to MLPs(gMLP) .
MLP-Mixer 聲稱卷積和注意力都不是必需的。這篇論文僅使用多層感知機 (MLP),就在圖像分類數(shù)據(jù)集上取得了很高的準確性。MLP-Mixer 的一個重要亮點是它包含兩個主要的 MLP 層:一個獨立應用于圖像塊(通道混合),另一個層跨塊應用(空間混合)。
gMLP 還表明,通過避免使用自注意和卷積(當前 NLP 和 CV 的實際使用的方式),可以在不同的圖像識別和 NLP 任務(wù)中實現(xiàn)很高的準確性。
讀者顯然不會使用 MLP 去獲得最先進的性能,但它們與最先進的深度網(wǎng)絡(luò)的可比性卻是令人著迷的。
再次使用卷積網(wǎng)絡(luò):2020 年代的卷積網(wǎng)絡(luò)
自 Vision Transformer(2020 年)推出以來,計算機視覺的研究圍繞著 Transformer 展開(在 NLP 中,transformer 已經(jīng)是一種規(guī)范)。Vision Transformer (ViT) 在圖像分類方面取得了最先進的結(jié)果,但在視覺下游任務(wù)(對象檢測和分割)中效果不佳。隨著 Swin Transformers 的推出, Vision Transformer 很快也接管了視覺下游任務(wù)。
很多人(包括我自己)都喜歡卷積神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)確實能起效,而且放棄已經(jīng)被證明有效的東西是很難的。這種對深度網(wǎng)絡(luò)模型結(jié)構(gòu)的熱愛讓一些杰出的科學家回到過去,研究如何使卷積神經(jīng)網(wǎng)絡(luò)(準確地說是 ResNet)現(xiàn)代化,使其具有和 Vision Transformer 同樣的吸引人的特征。特別是,他們探討了「Transformers 中的設(shè)計決策如何影響卷積神經(jīng)網(wǎng)絡(luò)的性能?」這個問題。他們想把那些塑造了 Transformer 的秘訣應用到 ResNet 上。
Meta AI 的 Saining Xie 和他的同事們采用了他們在論文中明確陳述的路線圖,最終形成了一個名為 ConvNeXt 的 ConvNet 架構(gòu)。ConvNeXt 在不同的基準測試中取得了可與 Swin Transformer 相媲美的結(jié)果。讀者可以通過 ModernConvNets 庫(現(xiàn)代 CNN 架構(gòu)的總結(jié)和實現(xiàn))了解更多關(guān)于他們采用的路線圖。
結(jié)論
深度學習是一個非常有活力、非常寬廣的領(lǐng)域。很難概括其中所發(fā)生的一切,作者只觸及了表面,論文多到一個人讀不完。很難跟蹤所有內(nèi)容。例如,我們沒有討論強化學習和深度學習算法,如 AlphaGo、蛋白質(zhì)折疊 AlphaFold(這是最大的科學突破之一)、深度學習框架的演變(如 TensorFlow 和 PyTorch),以及深度學習硬件。或許,還有其他重要的事情構(gòu)成了我們沒有討論過的深度學習歷史、算法和應用程序的很大一部分。
作為一個小小的免責聲明,讀者可能已經(jīng)注意到,作者偏向于計算機視覺的深度學習。可能還有其他專門為 NLP 設(shè)計的重要深度學習技術(shù)作者沒有涉及。
此外,很難確切地知道某項特定技術(shù)是什么時候發(fā)表的,或者是誰最先發(fā)表的,因為大多數(shù)奇特的東西往往受到以前作品的啟發(fā)。如有紕漏,讀者可以去原文評論區(qū)與作者討論。
原文鏈接:https://www.getrevue.co/profile/deeprevision/issues/a-revised-history-of-deep-learning-issue-1-1145664
電腦
什么樣的跨境電商erp系統(tǒng)適合老板用?
深圳市易倉科技有限公司是一家跨境電商軟件服務(wù)商,主要提供跨境電商ERP系統(tǒng),國際貨代物流系統(tǒng)TMS,海外倉管理系統(tǒng)WMS,國際分銷系統(tǒng)M2B,保稅倉BBC等。 向TA提問 關(guān)注 展開全部 市面上的跨境電商ERP系統(tǒng)非常多,系統(tǒng)功能都大同小異,主要的區(qū)別在系統(tǒng)的費用和系統(tǒng)的流程上。可以選擇易倉跨境電商ERP,目前已經(jīng)對接了50...
關(guān)于計算機病毒的主要來源有哪些
計算機中病毒后,輕則影響機器運行速度,重則死機系統(tǒng)破壞;因此,病毒給用戶帶來很大的損失,通常情況下,我們稱這種具有破壞作用的程序為計算機病毒。1、普通病毒:U盤、郵件附件、文件共享等,打開之后傳染;2、蠕蟲病毒:通過網(wǎng)絡(luò)與系統(tǒng)漏洞傳染;3、木馬病毒:偽裝游戲或常用軟件。
電腦cpu13490f加微星b760主板配什么電源好呀?
I56代性能就能滿足電腦的所有功能。再高版本的話,性能也會多余。之后就是內(nèi)存,內(nèi)存選擇的話2根8G的配成16G內(nèi)存。匹配原則:主板和CPU均可兼容,根據(jù)性能和價格選擇即可。cpu和主板搭配的原則如下:兼容性原則:主板接口和CPU接口應相容。英特爾方面現(xiàn)在主流是1155針、2011針接口,AMD方面現(xiàn)在主流是AMAM3...
AP Racing是什么意思
并且贏得了AMA超級摩托車錦標賽。1999年,AP Racing最新版的超級摩托車剎車系統(tǒng)被Troy Bayliss和GSE INS Ducati隊采用后,贏得了英國超級摩托車錦標賽。2001年,AP Racing推出了雙孔主汽缸的競賽徑向剎車系統(tǒng),該系統(tǒng)在2003年、2005年和2006年的西班牙超級摩托車錦標賽中獨占鰲頭。
我的微星小強移動版的9550玩游戲的時候時不時出現(xiàn)一些線條一閃而過...
9600移動版 399 聲卡 主板集成 網(wǎng)卡 主板集成 光驅(qū) 軟驅(qū) 顯示器 金長城 G787F 888 鼠標 奇克雙城光電鍵盤鼠標套裝 69 鍵盤 奇克雙城光電鍵盤鼠標套裝 音箱 主板贈送游戲?qū)S枚鷻C 機箱電源 青瓦 迷離世紀系列 8800-005A 238 整機 3643 2.64位系統(tǒng)已經(jīng)開始發(fā)售,64位電腦普及勢在必行,主流的家庭配置要將向64位平臺...
公共廣播系統(tǒng)輸出功率的計算
在工程應用中,要準確地計算出線路傳輸損耗功率往往比較困難,通常根據(jù)實際使用廣播電纜長度選擇一個線路傳輸損耗系數(shù)μ,來計算系統(tǒng)的輸出功率。 系統(tǒng)輸出功率 = 線路傳輸損耗系數(shù)μ × 揚聲器損耗功率 線路傳輸損耗系數(shù)μ通常根據(jù)附表參數(shù)來確定。 工程案例: 某小區(qū)安裝有AMA GS-815室外草地蘑菇音箱3...
英文縮寫大全(全部)
BBS是英文Bulletin Board System的縮寫,是電子公告板系統(tǒng),國內(nèi)統(tǒng)稱論壇。PS代替photoshop簡稱PS Dream Weaver簡稱DW ID是英文I Dentity的縮寫,ID是身份標識號碼的意思.MSN 即MICROSOFT NETWORK, 是微軟公司的一個門戶站點. MSN作為互聯(lián)網(wǎng)上最受歡迎的一個門戶, 具備了為用戶提供了在線調(diào)查、瀏覽和購買各種...
全國旅游飯店星級評定委員會全國旅游飯店星級評定委員會名單_百度知 ...
4.有中央空調(diào)系統(tǒng)。5.有背景音響系統(tǒng)。6.有適合五星級酒店的電腦管理系統(tǒng)。服務(wù)質(zhì)量的基本原則平等對待客人,不論種族、國籍、國家、財富、親和力和唐don’...6.2.3獲得a級的旅行社因發(fā)生重大安全事故造成惡劣影響的,ama6.3.3根據(jù)等級使用年限,每三年進行一次等級評審,評審結(jié)果向社會公布。6.3.4等級評審或檢查未達到...
暗黑2對現(xiàn)代游戲的影響
一下純手打,僅代表個人觀點。勿噴。我也是90后,玩暗黑也2年多了,暗黑2是是2000年暴雪公司推出的一款游戲,延續(xù)了暗黑1。現(xiàn)在的大部分單機或者網(wǎng)絡(luò)RPG都在延用暗黑的裝備系統(tǒng)。分部位和詞綴屬性的裝備系統(tǒng)是暗黑的一個經(jīng)典。除此之外。暗黑中職業(yè)的設(shè)定(AMA NEC SOR DRU BRA PAL ASN)在現(xiàn)在的游戲...
高達前哨戰(zhàn)的MS資料
介紹:Ex-S高達是 S 高達在全身 4 個部位換裝單元與追加 4 個裝備而完成的重裝型 S 高達,這里的...為這如此復雜的兵器系統(tǒng)和變形機構(gòu)管制 , 搭載了 MS 無人操縱為最終目標的超高性能電腦裝置“ ALICE ...AMA-100 ZOD'-IACOK 索迪.亞克類型: 可分離變形MA全長: 218.30 m全寬: 41.65 m全高: 44.20 m...
相關(guān)評說:
城子河區(qū)環(huán)面: ______ 現(xiàn)在的輕便式超級本都不帶光驅(qū)了,安裝個系統(tǒng)還得再買個外置光驅(qū),尤其外出時想重裝下系統(tǒng)更為不便.不過好在有很多的PE或硬盤版GHOST可以使用. 工具/原料 1 U盤(可啟動電腦的有PE的U盤) 2 系統(tǒng)GHO文件 方法/步驟 1 首先,你需...
城子河區(qū)環(huán)面: ______ U盤安裝系統(tǒng):1、制作啟動盤.(W7系統(tǒng)4G U盤,XP系統(tǒng)2G U盤)下載老毛桃或者大白菜U盤制作軟件,安裝軟件,啟動,按提示制作好啟動盤.2、下載一個需要安裝的系統(tǒng),壓縮型系統(tǒng)文件解壓(ISO型系統(tǒng)文件直接轉(zhuǎn)到U盤)到制作好的U...
城子河區(qū)環(huán)面: ______ 您好,您先到網(wǎng)上下載一個U盤燒制工具,比如說:電腦店U盤.下載好后把U盤插在USB接口上,雙擊下載的工具進行燒制.燒制好后重新啟動電腦,進入BIOS,設(shè)置U盤啟動,進入PE,之后裝系統(tǒng)就是了.整個過程需要學習的,電腦店U盤裝系統(tǒng)的網(wǎng)站有教程的,您看看就成了.首次安裝最好有一個懂的人在您的身邊.
城子河區(qū)環(huán)面: ______ 用U盤裝系統(tǒng)的幾種方法 (一)制作好U盤啟動盤. 1. 下載MaxDOS+WinPE,解壓后,點擊[安裝.bat] 2.在安裝界面輸入“Y”回車. 3.安裝程序?qū)z測到你當前已連接好的U盤,并列表出來.如果沒有檢測到U盤,請你重插U盤,并按“Y”返回...
城子河區(qū)環(huán)面: ______ 電腦無法開機從U盤重裝系統(tǒng)教程如下: 第一步:制作前準備以及注意事項 第二步:安裝一鍵U盤裝系統(tǒng)軟件制作啟動盤 第三步:系統(tǒng)文件下載及放入 第四步:重啟進入BIOS設(shè)置 第五步:進入U盤系統(tǒng)啟動菜單界面 (一)制作好U盤啟動盤. ...
城子河區(qū)環(huán)面: ______ 展開全部1、U盤安裝:用ultraiso軟件,打開下載好的系統(tǒng)安裝盤文件(ISO文件),執(zhí)行“寫入映像文件”把U盤插到電腦上,點擊“確定”,等待程序執(zhí)行完畢后,這樣就做好了啟動及安裝系統(tǒng)用的u盤,用這個做好的系統(tǒng)u盤引導啟動機器后,即可順利重裝系統(tǒng)了; 2、硬盤安裝:前提是,需要有一個可以正常運行的Windows系統(tǒng),提取下載的ISO文件中的“*.GHO”和“安裝系統(tǒng).EXE”到電腦的非系統(tǒng)分區(qū),然后運行“安裝系統(tǒng).EXE”,直接回車確認還原操作,再次確認執(zhí)行自動安裝操作.(執(zhí)行前注意備份C盤重要資料!);
城子河區(qū)環(huán)面: ______ 菜鳥才會那么做,本人教你如何快速裝系統(tǒng),如果不行,本人的頭給你當球踢!不管你有沒有光驅(qū),你只要有一個U盤,大概1G這樣,最好是2G的,就完全足夠了!如果你電腦C盤沒有GHOTO的話,就考一個放上去;在你的電腦點屬性,然后...
城子河區(qū)環(huán)面: ______ 把系統(tǒng)裝進U盤,以后就可以用U盤來為電腦裝系統(tǒng)了,甚至可以有另一種想法,即把操作系統(tǒng)裝進U盤,直接當移動的系統(tǒng)來使用.這樣的想法當然很好,第一種想法可以輕松實現(xiàn),但第二種想法卻不容易實現(xiàn),因為,微軟的系統(tǒng)并不支持直接...
城子河區(qū)環(huán)面: ______ 安裝 win7操作步驟: 有光驅(qū):安裝win7系統(tǒng)的步驟是: 1.您需要準備純凈版安裝盤和空白的U盤 2.準備好后,安裝光盤放入電腦中,U盤插入電腦,使用電腦右上角的放大鏡圖標搜索BootCamp助理 3.點擊進入,點擊繼續(xù),選擇對話框中的兩項...
城子河區(qū)環(huán)面: ______ http://wenku.baidu.com/view/9ac09aea998fcc22bcd10de7.html手把手教你用U盤做啟動盤裝系統(tǒng)