亚洲五月天婷婷中文网站,丝袜制服国产欧美亚洲,伊人中文在线,亚洲乱码中文字幕综合69堂

      1. <small id="004qa"><dl id="004qa"><small id="004qa"></small></dl></small><small id="004qa"><dl id="004qa"></dl></small>

      2. 生成式AI是激發(fā)人類創(chuàng)作靈感還是會替代人類藝術(shù)創(chuàng)作?

        相信AI繪畫技術(shù),各位一定不陌生吧。輸入一句話,AI技術(shù)將根據(jù)這段文字描述自動生成一副藝術(shù)創(chuàng)作畫。這其實就是圖像生成技術(shù)(text?to?image),也屬于生成式AI范疇。近期,Diffusion?Model模型風(fēng)頭正盛,有人稱該模型將成為圖像生成領(lǐng)域中的下一個代表模型,關(guān)于Diffusion?Model的討論研究熱度也蓋過了曾經(jīng)風(fēng)靡圖像生成的GAN網(wǎng)絡(luò)。

        如何看待近期生成式AI應(yīng)用的井噴式高速發(fā)展?如圖像領(lǐng)域的Diffusion?Model、智能對話領(lǐng)域的ChatGPT等,你覺得生成式AI將會給人類創(chuàng)作力帶來哪些幫助?隨著生成式AI智能化的不斷提高,AI是否會成為有智慧的機器?

        本期話題:

        ●?你覺得近期哪些算法模型更具備“人類智慧”?GPT-3或Stable?Diffusion等大型AI模型是如何支撐生成式AI發(fā)展的?

        ●?生成式AI的應(yīng)用邊界將會如何擴張?如何讓生成式AI成為安全可控、有倫理、負責(zé)任的技術(shù)?你覺得生成式AI會成為人工智能未來的主要發(fā)力點嗎?

        ●?你覺得AI開源對國內(nèi)人工智能領(lǐng)域發(fā)展有什么影響?是否體驗過中文AI模型開源社區(qū)魔搭ModeScope?分享你的使用體驗。

        1、在深度學(xué)習(xí)出現(xiàn)前人們就開始嘗試利用AI生成內(nèi)容了。?自然語言處理研究者在多年前就嘗試利用詞頻來生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說相鄰的幾個字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語言處理上的復(fù)雜語法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進化方法。AI生成的內(nèi)容不再僅僅是概率上說的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實數(shù)據(jù)和AI生成的數(shù)據(jù)。

        2、多次獲得國際知名的創(chuàng)意設(shè)計大獎“紅點獎”的藝術(shù)團隊Ouchhh或許能給這個答案帶來一記漂亮的注解。?作為一家新媒體藝術(shù)創(chuàng)意機構(gòu),他們的工作內(nèi)容定位于“多學(xué)科創(chuàng)意樞紐中心”,通過研究建筑、藝術(shù)、科學(xué)、技術(shù)、新媒體藝術(shù)和人工智能之間的關(guān)系來探索藝術(shù)的邊界。 由他們帶來的達· 芬奇AI狂想數(shù)據(jù)藝術(shù)沉浸展最近也正式亮相北京。與一般的藝術(shù)展不同,這場展覽以數(shù)千億的數(shù)據(jù)作為畫筆,展現(xiàn)數(shù)字藝術(shù)的魅力。以文藝復(fù)興、數(shù)據(jù)石碑和量子狂想曲三大內(nèi)容作為主題,引領(lǐng)觀眾重回文藝復(fù)興時期,參與一場特殊的賽博狂歡。 Ouchhh的每一場藝術(shù)展都震撼十足、耐人尋味。他們的作品不僅享譽世界,也獲得了不少殊榮。世界上最大的數(shù)字雕塑《CONNECT HONG KONG》、全球首個NASA人工智能天文研究數(shù)據(jù)雕塑公共藝術(shù)《數(shù)據(jù)門》等等作品皆出自于這個團隊。在AI與藝術(shù)交融的這個特殊領(lǐng)域,Ouchhh團隊無疑走在了世界前列。

        3、何謂藝術(shù)?藝術(shù)是憑借技巧、意愿、想象力等綜合人為因素所創(chuàng)作的含有美學(xué)意義的表達模式,是人類思想與創(chuàng)作的結(jié)晶。?而人工智能所創(chuàng)造的藝術(shù)品則是深入學(xué)習(xí)后的“演算”結(jié)果,是機械的呈現(xiàn)并非思考的成果。隨著時間推移,AI涉足藝術(shù)界的廣度和深度越來越大,人工智能讓藝術(shù)得到前所未有的發(fā)展,而藝術(shù)一定程度上也反作用在促進著人工智能的革新。 人工智能所創(chuàng)作的藝術(shù)品又稱為人工智能藝術(shù),指通過利用特殊算法或者深入學(xué)習(xí)所生成的程序性圖像。1973 年,英國藝術(shù)家哈羅德· 科恩創(chuàng)造了世界上最早的人工智能藝術(shù)系統(tǒng)AARON。由黑白簡易畫到自動繪畫,AARON的出現(xiàn)與發(fā)展為人工智能藝術(shù)的發(fā)展打響了第一槍。而讓人工智能藝術(shù)真正走進人們視野的,是Google于2015 年所發(fā)布的計算機視覺程序DeepDream,它通過更為特殊的算法演繹從而創(chuàng)造出有如故意過度處理一樣的迷幻畫像。由此之后,人工智能藝術(shù)也隨之開啟了新階段的發(fā)展。諸如OpenAI的DALL-E、微軟的NUWA-Infinity、英偉達的GauGAN和開源的Disco Diffusion等人工智能繪畫軟件接連誕生,AI藝術(shù)正以前所未有的速度崛起。

        4、更廣義的Diffusion Model(擴散模型)是近期那些優(yōu)秀機器學(xué)習(xí)模型的共同機制。?包括了生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(Boltzman Machine)、自回歸模型等。通過良好設(shè)計的擴散過程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無論是圖像層面的組合還是復(fù)雜的語法。 AI生成的畫作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個輸入的好壞分數(shù),但并不能判斷對錯。從AI畫圖的角度看,就是能生成很華美的畫面,但對滿足需求卻不那么擅長。近期大火的ChatGPT可以生成大段看起來很通順的文字,但與正確還有一定的距離。同時由于判別器里圖畫的信息量或文字的長度也是一個重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。 AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對錯的內(nèi)容。像是生成的音樂、畫作、文字都已經(jīng)有了不錯的結(jié)果。同時應(yīng)用的開發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會產(chǎn)生新的知識。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對需要尋求知識的人會產(chǎn)生干擾。從這個角度看,利用ChatGPT等技術(shù)來輔助搜索是個好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。

        5、向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。?我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動合作,更好的方式是AI作為人類的助手,擴散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來可期。 十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對于Web1.0時代依靠網(wǎng)站編輯來生成內(nèi)容,Web2.0的時代是用戶生成內(nèi)容(UGC)。Web2.0的時代,因為創(chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來新的大爆發(fā)。個人猜測是AIGC的時代,每個人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個性化的針對特定用戶生成的內(nèi)容。過去十幾年的個性化推薦已經(jīng)展現(xiàn)出了巨大的價值,但推薦的內(nèi)容仍然是對所有人相同的,而AIGC的時代,針對每個人偏好生成的主內(nèi)容相信會有很大的改變。

        6、總而言之,“生成式AI是激發(fā)人類創(chuàng)作靈感還是會替代人類藝術(shù)創(chuàng)作”這并不在與AI技術(shù)本身,在在于使用者和使用AI方式的本身。?對于自身長期慵懶和那些骨子里就并不勤奮的人來說,生成式AI確實幫助他們完成了一些機械式工作并且影響了他們的藝術(shù)創(chuàng)作; 對于自身善于思考、天性勤奮的人來說,生成式AI也幫助他們完成了一些重復(fù)度高、機械式的工作,省下來的大部分時間可以讓使用生成式AI的人去完成更加高難度、機器無法替代的那些富有創(chuàng)造性的工作,這毫無疑問就是激發(fā)了使用者的創(chuàng)作靈感。當(dāng)然了,就目前來說,生成式AI既可能是人類創(chuàng)作的助手,也可能是人類創(chuàng)作的競爭對手。人類在利用生成式AI技術(shù)進行藝術(shù)創(chuàng)作時,需要謹慎地思考這項技術(shù)帶來的機會和挑戰(zhàn)。

        個人覺得生成式AI不可能完全替代人類藝術(shù)創(chuàng)作,但會形成AI創(chuàng)作和人類藝術(shù)創(chuàng)作并存的局面,現(xiàn)在爆火的AIGC技術(shù)未來必將成為藝術(shù)創(chuàng)作者的福音。AIGC被認為是繼PGC、UGC之后的新型內(nèi)容創(chuàng)作方式,雖然目前還處于文案寫作、圖片生成階段,但未來在音視頻設(shè)計上將有非常大的想象空間,比如音樂創(chuàng)作、影視創(chuàng)作等。毫不夸張的講,AIGC未來有望顛覆現(xiàn)有的內(nèi)容生產(chǎn)模式,它的工業(yè)化創(chuàng)作能力先天就能夠為創(chuàng)作者提供海量素材和靈感,在創(chuàng)意生成、個性化內(nèi)容的設(shè)計上,為創(chuàng)作者提供新的內(nèi)容和視角。

        那么AIGC技術(shù)具體可以怎么能幫到人類藝術(shù)創(chuàng)作者呢?以作畫為例。創(chuàng)作者可以詳細地設(shè)計畫作風(fēng)格或者清晰地描述想要的元素,然后利用AIGC工具生成符合目標(biāo)的畫作內(nèi)容,最后創(chuàng)作者基于AIGC作畫產(chǎn)品可以進行二次創(chuàng)作,當(dāng)效果不符合預(yù)期時,還可以在成品圖的基礎(chǔ)上加入更多的元素,使畫作更接近預(yù)期。在整個過程中,創(chuàng)作者可以借助AIGC的強大生成能力來激發(fā)自身的創(chuàng)作靈感。

        近期大火的ChatGPT就表現(xiàn)出了遠勝以往自然語言處理的能力。生成的文字內(nèi)容不僅通順,邏輯上的前后呼應(yīng)也不同以往,還結(jié)合了以往多個自然語言處理應(yīng)用的能力。最近幾天我還看到有人讓ChatGPT生成了可以編譯通過的單片機程序,當(dāng)然這些程序只是確保語法正確可以編譯通過,代碼功能還做不到滿足需求。但這也是個巨大的進步了,結(jié)合過去一兩年的CoPilot等自動補全代碼類的應(yīng)用,AI輔助人類的工作已經(jīng)上了一個新的臺階。如下是ChatGPT生成的Arduino閃耀LED的代碼

        在深度學(xué)習(xí)出現(xiàn)前人們就開始嘗試利用AI生成內(nèi)容了。自然語言處理研究者在多年前就嘗試利用詞頻來生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說相鄰的幾個字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語言處理上的復(fù)雜語法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進化方法。AI生成的內(nèi)容不再僅僅是概率上說的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實數(shù)據(jù)和AI生成的數(shù)據(jù)。

        更廣義的Diffusion Model(擴散模型)是近期那些優(yōu)秀機器學(xué)習(xí)模型的共同機制。包括了生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(Boltzman Machine)、自回歸模型等。通過良好設(shè)計的擴散過程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無論是圖像層面的組合還是復(fù)雜的語法。

        AI生成的畫作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個輸入的好壞分數(shù),但并不能判斷對錯。從AI畫圖的角度看,就是能生成很華美的畫面,但對滿足需求卻不那么擅長。近期大火的ChatGPT可以生成大段看起來很通順的文字,但與正確還有一定的距離。同時由于判別器里圖畫的信息量或文字的長度也是一個重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。

        AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對錯的內(nèi)容。像是生成的音樂、畫作、文字都已經(jīng)有了不錯的結(jié)果。同時應(yīng)用的開發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會產(chǎn)生新的知識。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對需要尋求知識的人會產(chǎn)生干擾。從這個角度看,利用ChatGPT等技術(shù)來輔助搜索是個好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。

        向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動合作,更好的方式是AI作為人類的助手,擴散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來可期。

        十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對于Web1.0時代依靠網(wǎng)站編輯來生成內(nèi)容,Web2.0的時代是用戶生成內(nèi)容(UGC)。Web2.0的時代,因為創(chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來新的大爆發(fā)。個人猜測是AIGC的時代,每個人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個性化的針對特定用戶生成的內(nèi)容。過去十幾年的個性化推薦已經(jīng)展現(xiàn)出了巨大的價值,但推薦的內(nèi)容仍然是對所有人相同的,而AIGC的時代,針對每個人偏好生成的主內(nèi)容相信會有很大的改變。

        機器學(xué)習(xí)發(fā)展至今,已經(jīng)變得越來越昂貴。機器學(xué)習(xí)工程師的努力之外,我也很希望能獲得這些優(yōu)秀機器學(xué)習(xí)模型來做出有趣的應(yīng)用。近期看了機器學(xué)習(xí)模型分享網(wǎng)站Model Scope https://www.modelscope.cn/ ,里面就有非常多訓(xùn)練好的模型可供下載和嘗試。機器學(xué)習(xí)早已不是幾年前大家都想試試的狀態(tài)。現(xiàn)在能夠驚艷大家的機器學(xué)習(xí)模型,往往在數(shù)據(jù)收集、標(biāo)注、訓(xùn)練等方面花費巨資,一些頂尖模型的訓(xùn)練成本甚至可達數(shù)千萬人民幣。此時通過ModelScope這類網(wǎng)站為橋梁,讓應(yīng)用工程師和機器學(xué)習(xí)工程師可以分頭做自己最擅長的工作,就成為未來有趣應(yīng)用的起點。