阿里云產(chǎn)品 – 阿里云河南代理-鄭州云淘科技有限公司 http://www.dqzsj.com Wed, 29 Nov 2023 10:06:47 +0000 zh-Hans hourly 1 https://wordpress.org/?v=6.8.1 Serverless 技術(shù)遇見 AIGC http://www.dqzsj.com/55.html Wed, 29 Nov 2023 10:06:47 +0000 https://www.tongchenkeji.com/?p=55 Serverless 技術(shù)是一種新型的云計算架構(gòu),它將應(yīng)用程序的運(yùn)行環(huán)境從服務(wù)器中解耦出來,使得開發(fā)者可以專注于應(yīng)用程序的編寫而不必?fù)?dān)心底層的服務(wù)器配置和管理。而 AIGC 領(lǐng)域則是人工智能、大數(shù)據(jù)、物聯(lián)網(wǎng)和云計算等多個領(lǐng)域的集合,其目標(biāo)是通過數(shù)據(jù)分析和智能決策來優(yōu)化生產(chǎn)和服務(wù)流程。

1. Serverless 技術(shù)和 AIGC 領(lǐng)域的優(yōu)勢

Serverless 技術(shù)和 AIGC 領(lǐng)域的融合可以帶來以下幾個優(yōu)勢:

  • 提高開發(fā)效率:Serverless 技術(shù)可以將應(yīng)用程序的運(yùn)行環(huán)境從服務(wù)器中解耦出來,使得開發(fā)者可以專注于應(yīng)用程序的編寫而不必?fù)?dān)心底層的服務(wù)器配置和管理。而 AIGC 領(lǐng)域的技術(shù)可以通過自動化流程和數(shù)據(jù)分析等方式提高開發(fā)效率。
  • 降低成本:Serverless 技術(shù)可以根據(jù)實(shí)際的使用情況自動調(diào)整資源使用量,從而避免了資源浪費(fèi)。而 AIGC 領(lǐng)域的技術(shù)可以通過數(shù)據(jù)分析等方式降低成本。
  • 提高可靠性:Serverless 技術(shù)可以自動擴(kuò)展和備份應(yīng)用程序的運(yùn)行環(huán)境,從而提高了可靠性。而 AIGC 領(lǐng)域的技術(shù)可以通過數(shù)據(jù)分析等方式提高可靠性。

2. Serverless 技術(shù)在 AIGC 領(lǐng)域的應(yīng)用

Serverless 技術(shù)在 AIGC 領(lǐng)域的應(yīng)用主要包括以下幾個方面:

  • 云函數(shù)(Cloud Function):云函數(shù)是一種 Serverless 的計算服務(wù),可以在事件觸發(fā)時自動執(zhí)行代碼。在 AIGC 領(lǐng)域中,云函數(shù)可以用于按需處理數(shù)據(jù)、執(zhí)行機(jī)器學(xué)習(xí)算法等。
  • 無服務(wù)器架構(gòu)(Serverless Architecture):在 AIGC 領(lǐng)域中,無服務(wù)器架構(gòu)可以用于構(gòu)建實(shí)時數(shù)據(jù)處理、流處理、事件驅(qū)動等應(yīng)用程序。
  • 云存儲(Cloud Storage):在 AIGC 領(lǐng)域中,云存儲可以用于存儲大數(shù)據(jù)、圖像和視頻等。

3. AIGC 技術(shù)在 Serverless 技術(shù)中的應(yīng)用

AIGC 技術(shù)在 Serverless 技術(shù)中的應(yīng)用主要包括以下幾個方面:

  • 自動化流程:AIGC 技術(shù)可以通過自動化流程來優(yōu)化開發(fā)、測試和部署流程,提高開發(fā)效率。
  • 數(shù)據(jù)分析:AIGC 技術(shù)可以通過數(shù)據(jù)分析來優(yōu)化資源使用和自動擴(kuò)展,降低成本。
  • 智能決策:AIGC 技術(shù)可以通過智能決策來自動調(diào)整應(yīng)用程序的運(yùn)行環(huán)境,提高可靠性。

4. Serverless 技術(shù)和 AIGC 領(lǐng)域的挑戰(zhàn)和解決方案

Serverless 技術(shù)和 AIGC 領(lǐng)域的融合也面臨著一些挑戰(zhàn),例如:

  • 部署和管理的復(fù)雜性:Serverless 技術(shù)的部署和管理需要考慮到多個云服務(wù)提供商和多個區(qū)域的支持,而 AIGC 技術(shù)的部署和管理需要考慮到多個數(shù)據(jù)源和算法的支持。
  • 安全性的保障:Serverless 技術(shù)的安全性需要考慮到多個云服務(wù)提供商和多個區(qū)域的支持,而 AIGC 技術(shù)的安全性需要考慮到數(shù)據(jù)隱私和算法保護(hù)等方面。

針對上述挑戰(zhàn),可以采取以下解決方案:

  • 采用多云策略:選擇多個云服務(wù)提供商和多個區(qū)域的支持,以提高可靠性和安全性。
  • 采用多數(shù)據(jù)源策略:選擇多個數(shù)據(jù)源和算法的支持,以提高精度和可用性。
  • 采用加密和隱私保護(hù)技術(shù):采用加密和隱私保護(hù)技術(shù)來保障數(shù)據(jù)隱私和算法保護(hù)。
]]>
如何判斷一張畫是不是由AI生成的? http://www.dqzsj.com/52.html Wed, 29 Nov 2023 10:04:51 +0000 https://www.tongchenkeji.com/?p=52
  • 畫風(fēng)特征:AI生成的畫通常有一些獨(dú)特的風(fēng)格和特征,比如線條比較平滑、色彩比較規(guī)則等。如果一幅畫的風(fēng)格符合這些特征,就可能是由AI生成的。
  • 制作時間:如果一張畫的制作時間非常短,比如只需要幾秒鐘或者幾分鐘,那么很有可能是由AI生成的。因?yàn)锳I可以通過預(yù)訓(xùn)練的模型來快速生成畫作。
  • 原始數(shù)據(jù):如果能夠查看一張畫的原始數(shù)據(jù),就可以看出是不是由AI生成的。因?yàn)锳I生成的畫通常是由大量數(shù)字和代碼組成的,而手繪畫則是由筆觸和顏料組成的。
  • 畫作質(zhì)量:雖然AI生成的畫越來越逼真,但在某些細(xì)節(jié)上仍然難以達(dá)到人類手繪的水平。如果一張畫在細(xì)節(jié)上有一些缺陷或者瑕疵,就可能是由AI生成的。

  • ]]>
    生成式AI是激發(fā)人類創(chuàng)作靈感還是會替代人類藝術(shù)創(chuàng)作? http://www.dqzsj.com/36.html Wed, 29 Nov 2023 09:51:49 +0000 https://www.tongchenkeji.com/?p=36 相信AI繪畫技術(shù),各位一定不陌生吧。輸入一句話,AI技術(shù)將根據(jù)這段文字描述自動生成一副藝術(shù)創(chuàng)作畫。這其實(shí)就是圖像生成技術(shù)(text?to?image),也屬于生成式AI范疇。近期,Diffusion?Model模型風(fēng)頭正盛,有人稱該模型將成為圖像生成領(lǐng)域中的下一個代表模型,關(guān)于Diffusion?Model的討論研究熱度也蓋過了曾經(jīng)風(fēng)靡圖像生成的GAN網(wǎng)絡(luò)。

    如何看待近期生成式AI應(yīng)用的井噴式高速發(fā)展?如圖像領(lǐng)域的Diffusion?Model、智能對話領(lǐng)域的ChatGPT等,你覺得生成式AI將會給人類創(chuàng)作力帶來哪些幫助?隨著生成式AI智能化的不斷提高,AI是否會成為有智慧的機(jī)器?

    本期話題:

    ●?你覺得近期哪些算法模型更具備“人類智慧”?GPT-3或Stable?Diffusion等大型AI模型是如何支撐生成式AI發(fā)展的?

    ●?生成式AI的應(yīng)用邊界將會如何擴(kuò)張?如何讓生成式AI成為安全可控、有倫理、負(fù)責(zé)任的技術(shù)?你覺得生成式AI會成為人工智能未來的主要發(fā)力點(diǎn)嗎?

    ●?你覺得AI開源對國內(nèi)人工智能領(lǐng)域發(fā)展有什么影響?是否體驗(yàn)過中文AI模型開源社區(qū)魔搭ModeScope?分享你的使用體驗(yàn)。

    1、在深度學(xué)習(xí)出現(xiàn)前人們就開始嘗試?yán)肁I生成內(nèi)容了。?自然語言處理研究者在多年前就嘗試?yán)迷~頻來生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說相鄰的幾個字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語言處理上的復(fù)雜語法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進(jìn)化方法。AI生成的內(nèi)容不再僅僅是概率上說的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實(shí)數(shù)據(jù)和AI生成的數(shù)據(jù)。

    2、多次獲得國際知名的創(chuàng)意設(shè)計大獎“紅點(diǎn)獎”的藝術(shù)團(tuán)隊Ouchhh或許能給這個答案帶來一記漂亮的注解。?作為一家新媒體藝術(shù)創(chuàng)意機(jī)構(gòu),他們的工作內(nèi)容定位于“多學(xué)科創(chuàng)意樞紐中心”,通過研究建筑、藝術(shù)、科學(xué)、技術(shù)、新媒體藝術(shù)和人工智能之間的關(guān)系來探索藝術(shù)的邊界。 由他們帶來的達(dá)· 芬奇AI狂想數(shù)據(jù)藝術(shù)沉浸展最近也正式亮相北京。與一般的藝術(shù)展不同,這場展覽以數(shù)千億的數(shù)據(jù)作為畫筆,展現(xiàn)數(shù)字藝術(shù)的魅力。以文藝復(fù)興、數(shù)據(jù)石碑和量子狂想曲三大內(nèi)容作為主題,引領(lǐng)觀眾重回文藝復(fù)興時期,參與一場特殊的賽博狂歡。 Ouchhh的每一場藝術(shù)展都震撼十足、耐人尋味。他們的作品不僅享譽(yù)世界,也獲得了不少殊榮。世界上最大的數(shù)字雕塑《CONNECT HONG KONG》、全球首個NASA人工智能天文研究數(shù)據(jù)雕塑公共藝術(shù)《數(shù)據(jù)門》等等作品皆出自于這個團(tuán)隊。在AI與藝術(shù)交融的這個特殊領(lǐng)域,Ouchhh團(tuán)隊無疑走在了世界前列。

    3、何謂藝術(shù)?藝術(shù)是憑借技巧、意愿、想象力等綜合人為因素所創(chuàng)作的含有美學(xué)意義的表達(dá)模式,是人類思想與創(chuàng)作的結(jié)晶。?而人工智能所創(chuàng)造的藝術(shù)品則是深入學(xué)習(xí)后的“演算”結(jié)果,是機(jī)械的呈現(xiàn)并非思考的成果。隨著時間推移,AI涉足藝術(shù)界的廣度和深度越來越大,人工智能讓藝術(shù)得到前所未有的發(fā)展,而藝術(shù)一定程度上也反作用在促進(jìn)著人工智能的革新。 人工智能所創(chuàng)作的藝術(shù)品又稱為人工智能藝術(shù),指通過利用特殊算法或者深入學(xué)習(xí)所生成的程序性圖像。1973 年,英國藝術(shù)家哈羅德· 科恩創(chuàng)造了世界上最早的人工智能藝術(shù)系統(tǒng)AARON。由黑白簡易畫到自動繪畫,AARON的出現(xiàn)與發(fā)展為人工智能藝術(shù)的發(fā)展打響了第一槍。而讓人工智能藝術(shù)真正走進(jìn)人們視野的,是Google于2015 年所發(fā)布的計算機(jī)視覺程序DeepDream,它通過更為特殊的算法演繹從而創(chuàng)造出有如故意過度處理一樣的迷幻畫像。由此之后,人工智能藝術(shù)也隨之開啟了新階段的發(fā)展。諸如OpenAI的DALL-E、微軟的NUWA-Infinity、英偉達(dá)的GauGAN和開源的Disco Diffusion等人工智能繪畫軟件接連誕生,AI藝術(shù)正以前所未有的速度崛起。

    4、更廣義的Diffusion Model(擴(kuò)散模型)是近期那些優(yōu)秀機(jī)器學(xué)習(xí)模型的共同機(jī)制。?包括了生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(jī)(Boltzman Machine)、自回歸模型等。通過良好設(shè)計的擴(kuò)散過程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無論是圖像層面的組合還是復(fù)雜的語法。 AI生成的畫作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個輸入的好壞分?jǐn)?shù),但并不能判斷對錯。從AI畫圖的角度看,就是能生成很華美的畫面,但對滿足需求卻不那么擅長。近期大火的ChatGPT可以生成大段看起來很通順的文字,但與正確還有一定的距離。同時由于判別器里圖畫的信息量或文字的長度也是一個重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。 AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對錯的內(nèi)容。像是生成的音樂、畫作、文字都已經(jīng)有了不錯的結(jié)果。同時應(yīng)用的開發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會產(chǎn)生新的知識。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對需要尋求知識的人會產(chǎn)生干擾。從這個角度看,利用ChatGPT等技術(shù)來輔助搜索是個好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。

    5、向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。?我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動合作,更好的方式是AI作為人類的助手,擴(kuò)散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來可期。 十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對于Web1.0時代依靠網(wǎng)站編輯來生成內(nèi)容,Web2.0的時代是用戶生成內(nèi)容(UGC)。Web2.0的時代,因?yàn)閯?chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來新的大爆發(fā)。個人猜測是AIGC的時代,每個人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個性化的針對特定用戶生成的內(nèi)容。過去十幾年的個性化推薦已經(jīng)展現(xiàn)出了巨大的價值,但推薦的內(nèi)容仍然是對所有人相同的,而AIGC的時代,針對每個人偏好生成的主內(nèi)容相信會有很大的改變。

    6、總而言之,“生成式AI是激發(fā)人類創(chuàng)作靈感還是會替代人類藝術(shù)創(chuàng)作”這并不在與AI技術(shù)本身,在在于使用者和使用AI方式的本身。?對于自身長期慵懶和那些骨子里就并不勤奮的人來說,生成式AI確實(shí)幫助他們完成了一些機(jī)械式工作并且影響了他們的藝術(shù)創(chuàng)作; 對于自身善于思考、天性勤奮的人來說,生成式AI也幫助他們完成了一些重復(fù)度高、機(jī)械式的工作,省下來的大部分時間可以讓使用生成式AI的人去完成更加高難度、機(jī)器無法替代的那些富有創(chuàng)造性的工作,這毫無疑問就是激發(fā)了使用者的創(chuàng)作靈感。當(dāng)然了,就目前來說,生成式AI既可能是人類創(chuàng)作的助手,也可能是人類創(chuàng)作的競爭對手。人類在利用生成式AI技術(shù)進(jìn)行藝術(shù)創(chuàng)作時,需要謹(jǐn)慎地思考這項(xiàng)技術(shù)帶來的機(jī)會和挑戰(zhàn)。

    個人覺得生成式AI不可能完全替代人類藝術(shù)創(chuàng)作,但會形成AI創(chuàng)作和人類藝術(shù)創(chuàng)作并存的局面,現(xiàn)在爆火的AIGC技術(shù)未來必將成為藝術(shù)創(chuàng)作者的福音。AIGC被認(rèn)為是繼PGC、UGC之后的新型內(nèi)容創(chuàng)作方式,雖然目前還處于文案寫作、圖片生成階段,但未來在音視頻設(shè)計上將有非常大的想象空間,比如音樂創(chuàng)作、影視創(chuàng)作等。毫不夸張的講,AIGC未來有望顛覆現(xiàn)有的內(nèi)容生產(chǎn)模式,它的工業(yè)化創(chuàng)作能力先天就能夠?yàn)閯?chuàng)作者提供海量素材和靈感,在創(chuàng)意生成、個性化內(nèi)容的設(shè)計上,為創(chuàng)作者提供新的內(nèi)容和視角。

    那么AIGC技術(shù)具體可以怎么能幫到人類藝術(shù)創(chuàng)作者呢?以作畫為例。創(chuàng)作者可以詳細(xì)地設(shè)計畫作風(fēng)格或者清晰地描述想要的元素,然后利用AIGC工具生成符合目標(biāo)的畫作內(nèi)容,最后創(chuàng)作者基于AIGC作畫產(chǎn)品可以進(jìn)行二次創(chuàng)作,當(dāng)效果不符合預(yù)期時,還可以在成品圖的基礎(chǔ)上加入更多的元素,使畫作更接近預(yù)期。在整個過程中,創(chuàng)作者可以借助AIGC的強(qiáng)大生成能力來激發(fā)自身的創(chuàng)作靈感。

    近期大火的ChatGPT就表現(xiàn)出了遠(yuǎn)勝以往自然語言處理的能力。生成的文字內(nèi)容不僅通順,邏輯上的前后呼應(yīng)也不同以往,還結(jié)合了以往多個自然語言處理應(yīng)用的能力。最近幾天我還看到有人讓ChatGPT生成了可以編譯通過的單片機(jī)程序,當(dāng)然這些程序只是確保語法正確可以編譯通過,代碼功能還做不到滿足需求。但這也是個巨大的進(jìn)步了,結(jié)合過去一兩年的CoPilot等自動補(bǔ)全代碼類的應(yīng)用,AI輔助人類的工作已經(jīng)上了一個新的臺階。如下是ChatGPT生成的Arduino閃耀LED的代碼

    在深度學(xué)習(xí)出現(xiàn)前人們就開始嘗試?yán)肁I生成內(nèi)容了。自然語言處理研究者在多年前就嘗試?yán)迷~頻來生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說相鄰的幾個字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語言處理上的復(fù)雜語法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進(jìn)化方法。AI生成的內(nèi)容不再僅僅是概率上說的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實(shí)數(shù)據(jù)和AI生成的數(shù)據(jù)。

    更廣義的Diffusion Model(擴(kuò)散模型)是近期那些優(yōu)秀機(jī)器學(xué)習(xí)模型的共同機(jī)制。包括了生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(jī)(Boltzman Machine)、自回歸模型等。通過良好設(shè)計的擴(kuò)散過程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無論是圖像層面的組合還是復(fù)雜的語法。

    AI生成的畫作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個輸入的好壞分?jǐn)?shù),但并不能判斷對錯。從AI畫圖的角度看,就是能生成很華美的畫面,但對滿足需求卻不那么擅長。近期大火的ChatGPT可以生成大段看起來很通順的文字,但與正確還有一定的距離。同時由于判別器里圖畫的信息量或文字的長度也是一個重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。

    AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對錯的內(nèi)容。像是生成的音樂、畫作、文字都已經(jīng)有了不錯的結(jié)果。同時應(yīng)用的開發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會產(chǎn)生新的知識。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對需要尋求知識的人會產(chǎn)生干擾。從這個角度看,利用ChatGPT等技術(shù)來輔助搜索是個好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。

    向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動合作,更好的方式是AI作為人類的助手,擴(kuò)散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來可期。

    十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對于Web1.0時代依靠網(wǎng)站編輯來生成內(nèi)容,Web2.0的時代是用戶生成內(nèi)容(UGC)。Web2.0的時代,因?yàn)閯?chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來新的大爆發(fā)。個人猜測是AIGC的時代,每個人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個性化的針對特定用戶生成的內(nèi)容。過去十幾年的個性化推薦已經(jīng)展現(xiàn)出了巨大的價值,但推薦的內(nèi)容仍然是對所有人相同的,而AIGC的時代,針對每個人偏好生成的主內(nèi)容相信會有很大的改變。

    機(jī)器學(xué)習(xí)發(fā)展至今,已經(jīng)變得越來越昂貴。機(jī)器學(xué)習(xí)工程師的努力之外,我也很希望能獲得這些優(yōu)秀機(jī)器學(xué)習(xí)模型來做出有趣的應(yīng)用。近期看了機(jī)器學(xué)習(xí)模型分享網(wǎng)站Model Scope https://www.modelscope.cn/ ,里面就有非常多訓(xùn)練好的模型可供下載和嘗試。機(jī)器學(xué)習(xí)早已不是幾年前大家都想試試的狀態(tài)?,F(xiàn)在能夠驚艷大家的機(jī)器學(xué)習(xí)模型,往往在數(shù)據(jù)收集、標(biāo)注、訓(xùn)練等方面花費(fèi)巨資,一些頂尖模型的訓(xùn)練成本甚至可達(dá)數(shù)千萬人民幣。此時通過ModelScope這類網(wǎng)站為橋梁,讓應(yīng)用工程師和機(jī)器學(xué)習(xí)工程師可以分頭做自己最擅長的工作,就成為未來有趣應(yīng)用的起點(diǎn)。

    ]]>