Serverless 技術(shù)和 AIGC 領(lǐng)域的融合可以帶來以下幾個優(yōu)勢:
Serverless 技術(shù)在 AIGC 領(lǐng)域的應(yīng)用主要包括以下幾個方面:
AIGC 技術(shù)在 Serverless 技術(shù)中的應(yīng)用主要包括以下幾個方面:
Serverless 技術(shù)和 AIGC 領(lǐng)域的融合也面臨著一些挑戰(zhàn),例如:
針對上述挑戰(zhàn),可以采取以下解決方案:
畫作質(zhì)量:雖然AI生成的畫越來越逼真,但在某些細(xì)節(jié)上仍然難以達(dá)到人類手繪的水平。如果一張畫在細(xì)節(jié)上有一些缺陷或者瑕疵,就可能是由AI生成的。
如何看待近期生成式AI應(yīng)用的井噴式高速發(fā)展?如圖像領(lǐng)域的Diffusion?Model、智能對話領(lǐng)域的ChatGPT等,你覺得生成式AI將會給人類創(chuàng)作力帶來哪些幫助?隨著生成式AI智能化的不斷提高,AI是否會成為有智慧的機(jī)器?
本期話題:
●?你覺得近期哪些算法模型更具備“人類智慧”?GPT-3或Stable?Diffusion等大型AI模型是如何支撐生成式AI發(fā)展的?
●?生成式AI的應(yīng)用邊界將會如何擴(kuò)張?如何讓生成式AI成為安全可控、有倫理、負(fù)責(zé)任的技術(shù)?你覺得生成式AI會成為人工智能未來的主要發(fā)力點(diǎn)嗎?
●?你覺得AI開源對國內(nèi)人工智能領(lǐng)域發(fā)展有什么影響?是否體驗(yàn)過中文AI模型開源社區(qū)魔搭ModeScope?分享你的使用體驗(yàn)。
1、在深度學(xué)習(xí)出現(xiàn)前人們就開始嘗試?yán)肁I生成內(nèi)容了。?自然語言處理研究者在多年前就嘗試?yán)迷~頻來生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說相鄰的幾個字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語言處理上的復(fù)雜語法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進(jìn)化方法。AI生成的內(nèi)容不再僅僅是概率上說的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實(shí)數(shù)據(jù)和AI生成的數(shù)據(jù)。
2、多次獲得國際知名的創(chuàng)意設(shè)計大獎“紅點(diǎn)獎”的藝術(shù)團(tuán)隊Ouchhh或許能給這個答案帶來一記漂亮的注解。?作為一家新媒體藝術(shù)創(chuàng)意機(jī)構(gòu),他們的工作內(nèi)容定位于“多學(xué)科創(chuàng)意樞紐中心”,通過研究建筑、藝術(shù)、科學(xué)、技術(shù)、新媒體藝術(shù)和人工智能之間的關(guān)系來探索藝術(shù)的邊界。 由他們帶來的達(dá)· 芬奇AI狂想數(shù)據(jù)藝術(shù)沉浸展最近也正式亮相北京。與一般的藝術(shù)展不同,這場展覽以數(shù)千億的數(shù)據(jù)作為畫筆,展現(xiàn)數(shù)字藝術(shù)的魅力。以文藝復(fù)興、數(shù)據(jù)石碑和量子狂想曲三大內(nèi)容作為主題,引領(lǐng)觀眾重回文藝復(fù)興時期,參與一場特殊的賽博狂歡。 Ouchhh的每一場藝術(shù)展都震撼十足、耐人尋味。他們的作品不僅享譽(yù)世界,也獲得了不少殊榮。世界上最大的數(shù)字雕塑《CONNECT HONG KONG》、全球首個NASA人工智能天文研究數(shù)據(jù)雕塑公共藝術(shù)《數(shù)據(jù)門》等等作品皆出自于這個團(tuán)隊。在AI與藝術(shù)交融的這個特殊領(lǐng)域,Ouchhh團(tuán)隊無疑走在了世界前列。
3、何謂藝術(shù)?藝術(shù)是憑借技巧、意愿、想象力等綜合人為因素所創(chuàng)作的含有美學(xué)意義的表達(dá)模式,是人類思想與創(chuàng)作的結(jié)晶。?而人工智能所創(chuàng)造的藝術(shù)品則是深入學(xué)習(xí)后的“演算”結(jié)果,是機(jī)械的呈現(xiàn)并非思考的成果。隨著時間推移,AI涉足藝術(shù)界的廣度和深度越來越大,人工智能讓藝術(shù)得到前所未有的發(fā)展,而藝術(shù)一定程度上也反作用在促進(jìn)著人工智能的革新。 人工智能所創(chuàng)作的藝術(shù)品又稱為人工智能藝術(shù),指通過利用特殊算法或者深入學(xué)習(xí)所生成的程序性圖像。1973 年,英國藝術(shù)家哈羅德· 科恩創(chuàng)造了世界上最早的人工智能藝術(shù)系統(tǒng)AARON。由黑白簡易畫到自動繪畫,AARON的出現(xiàn)與發(fā)展為人工智能藝術(shù)的發(fā)展打響了第一槍。而讓人工智能藝術(shù)真正走進(jìn)人們視野的,是Google于2015 年所發(fā)布的計算機(jī)視覺程序DeepDream,它通過更為特殊的算法演繹從而創(chuàng)造出有如故意過度處理一樣的迷幻畫像。由此之后,人工智能藝術(shù)也隨之開啟了新階段的發(fā)展。諸如OpenAI的DALL-E、微軟的NUWA-Infinity、英偉達(dá)的GauGAN和開源的Disco Diffusion等人工智能繪畫軟件接連誕生,AI藝術(shù)正以前所未有的速度崛起。
4、更廣義的Diffusion Model(擴(kuò)散模型)是近期那些優(yōu)秀機(jī)器學(xué)習(xí)模型的共同機(jī)制。?包括了生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(jī)(Boltzman Machine)、自回歸模型等。通過良好設(shè)計的擴(kuò)散過程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無論是圖像層面的組合還是復(fù)雜的語法。 AI生成的畫作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個輸入的好壞分?jǐn)?shù),但并不能判斷對錯。從AI畫圖的角度看,就是能生成很華美的畫面,但對滿足需求卻不那么擅長。近期大火的ChatGPT可以生成大段看起來很通順的文字,但與正確還有一定的距離。同時由于判別器里圖畫的信息量或文字的長度也是一個重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。 AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對錯的內(nèi)容。像是生成的音樂、畫作、文字都已經(jīng)有了不錯的結(jié)果。同時應(yīng)用的開發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會產(chǎn)生新的知識。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對需要尋求知識的人會產(chǎn)生干擾。從這個角度看,利用ChatGPT等技術(shù)來輔助搜索是個好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。
5、向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。?我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動合作,更好的方式是AI作為人類的助手,擴(kuò)散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來可期。 十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對于Web1.0時代依靠網(wǎng)站編輯來生成內(nèi)容,Web2.0的時代是用戶生成內(nèi)容(UGC)。Web2.0的時代,因?yàn)閯?chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來新的大爆發(fā)。個人猜測是AIGC的時代,每個人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個性化的針對特定用戶生成的內(nèi)容。過去十幾年的個性化推薦已經(jīng)展現(xiàn)出了巨大的價值,但推薦的內(nèi)容仍然是對所有人相同的,而AIGC的時代,針對每個人偏好生成的主內(nèi)容相信會有很大的改變。
6、總而言之,“生成式AI是激發(fā)人類創(chuàng)作靈感還是會替代人類藝術(shù)創(chuàng)作”這并不在與AI技術(shù)本身,在在于使用者和使用AI方式的本身。?對于自身長期慵懶和那些骨子里就并不勤奮的人來說,生成式AI確實(shí)幫助他們完成了一些機(jī)械式工作并且影響了他們的藝術(shù)創(chuàng)作; 對于自身善于思考、天性勤奮的人來說,生成式AI也幫助他們完成了一些重復(fù)度高、機(jī)械式的工作,省下來的大部分時間可以讓使用生成式AI的人去完成更加高難度、機(jī)器無法替代的那些富有創(chuàng)造性的工作,這毫無疑問就是激發(fā)了使用者的創(chuàng)作靈感。當(dāng)然了,就目前來說,生成式AI既可能是人類創(chuàng)作的助手,也可能是人類創(chuàng)作的競爭對手。人類在利用生成式AI技術(shù)進(jìn)行藝術(shù)創(chuàng)作時,需要謹(jǐn)慎地思考這項(xiàng)技術(shù)帶來的機(jī)會和挑戰(zhàn)。
個人覺得生成式AI不可能完全替代人類藝術(shù)創(chuàng)作,但會形成AI創(chuàng)作和人類藝術(shù)創(chuàng)作并存的局面,現(xiàn)在爆火的AIGC技術(shù)未來必將成為藝術(shù)創(chuàng)作者的福音。AIGC被認(rèn)為是繼PGC、UGC之后的新型內(nèi)容創(chuàng)作方式,雖然目前還處于文案寫作、圖片生成階段,但未來在音視頻設(shè)計上將有非常大的想象空間,比如音樂創(chuàng)作、影視創(chuàng)作等。毫不夸張的講,AIGC未來有望顛覆現(xiàn)有的內(nèi)容生產(chǎn)模式,它的工業(yè)化創(chuàng)作能力先天就能夠?yàn)閯?chuàng)作者提供海量素材和靈感,在創(chuàng)意生成、個性化內(nèi)容的設(shè)計上,為創(chuàng)作者提供新的內(nèi)容和視角。
那么AIGC技術(shù)具體可以怎么能幫到人類藝術(shù)創(chuàng)作者呢?以作畫為例。創(chuàng)作者可以詳細(xì)地設(shè)計畫作風(fēng)格或者清晰地描述想要的元素,然后利用AIGC工具生成符合目標(biāo)的畫作內(nèi)容,最后創(chuàng)作者基于AIGC作畫產(chǎn)品可以進(jìn)行二次創(chuàng)作,當(dāng)效果不符合預(yù)期時,還可以在成品圖的基礎(chǔ)上加入更多的元素,使畫作更接近預(yù)期。在整個過程中,創(chuàng)作者可以借助AIGC的強(qiáng)大生成能力來激發(fā)自身的創(chuàng)作靈感。
近期大火的ChatGPT就表現(xiàn)出了遠(yuǎn)勝以往自然語言處理的能力。生成的文字內(nèi)容不僅通順,邏輯上的前后呼應(yīng)也不同以往,還結(jié)合了以往多個自然語言處理應(yīng)用的能力。最近幾天我還看到有人讓ChatGPT生成了可以編譯通過的單片機(jī)程序,當(dāng)然這些程序只是確保語法正確可以編譯通過,代碼功能還做不到滿足需求。但這也是個巨大的進(jìn)步了,結(jié)合過去一兩年的CoPilot等自動補(bǔ)全代碼類的應(yīng)用,AI輔助人類的工作已經(jīng)上了一個新的臺階。如下是ChatGPT生成的Arduino閃耀LED的代碼
在深度學(xué)習(xí)出現(xiàn)前人們就開始嘗試?yán)肁I生成內(nèi)容了。自然語言處理研究者在多年前就嘗試?yán)迷~頻來生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說相鄰的幾個字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語言處理上的復(fù)雜語法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進(jìn)化方法。AI生成的內(nèi)容不再僅僅是概率上說的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實(shí)數(shù)據(jù)和AI生成的數(shù)據(jù)。
更廣義的Diffusion Model(擴(kuò)散模型)是近期那些優(yōu)秀機(jī)器學(xué)習(xí)模型的共同機(jī)制。包括了生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(jī)(Boltzman Machine)、自回歸模型等。通過良好設(shè)計的擴(kuò)散過程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無論是圖像層面的組合還是復(fù)雜的語法。
AI生成的畫作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個輸入的好壞分?jǐn)?shù),但并不能判斷對錯。從AI畫圖的角度看,就是能生成很華美的畫面,但對滿足需求卻不那么擅長。近期大火的ChatGPT可以生成大段看起來很通順的文字,但與正確還有一定的距離。同時由于判別器里圖畫的信息量或文字的長度也是一個重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。
AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對錯的內(nèi)容。像是生成的音樂、畫作、文字都已經(jīng)有了不錯的結(jié)果。同時應(yīng)用的開發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會產(chǎn)生新的知識。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對需要尋求知識的人會產(chǎn)生干擾。從這個角度看,利用ChatGPT等技術(shù)來輔助搜索是個好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。
向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動合作,更好的方式是AI作為人類的助手,擴(kuò)散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來可期。
十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對于Web1.0時代依靠網(wǎng)站編輯來生成內(nèi)容,Web2.0的時代是用戶生成內(nèi)容(UGC)。Web2.0的時代,因?yàn)閯?chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來新的大爆發(fā)。個人猜測是AIGC的時代,每個人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個性化的針對特定用戶生成的內(nèi)容。過去十幾年的個性化推薦已經(jīng)展現(xiàn)出了巨大的價值,但推薦的內(nèi)容仍然是對所有人相同的,而AIGC的時代,針對每個人偏好生成的主內(nèi)容相信會有很大的改變。
機(jī)器學(xué)習(xí)發(fā)展至今,已經(jīng)變得越來越昂貴。機(jī)器學(xué)習(xí)工程師的努力之外,我也很希望能獲得這些優(yōu)秀機(jī)器學(xué)習(xí)模型來做出有趣的應(yīng)用。近期看了機(jī)器學(xué)習(xí)模型分享網(wǎng)站Model Scope https://www.modelscope.cn/ ,里面就有非常多訓(xùn)練好的模型可供下載和嘗試。機(jī)器學(xué)習(xí)早已不是幾年前大家都想試試的狀態(tài)?,F(xiàn)在能夠驚艷大家的機(jī)器學(xué)習(xí)模型,往往在數(shù)據(jù)收集、標(biāo)注、訓(xùn)練等方面花費(fèi)巨資,一些頂尖模型的訓(xùn)練成本甚至可達(dá)數(shù)千萬人民幣。此時通過ModelScope這類網(wǎng)站為橋梁,讓應(yīng)用工程師和機(jī)器學(xué)習(xí)工程師可以分頭做自己最擅長的工作,就成為未來有趣應(yīng)用的起點(diǎn)。
]]>