亚洲五月天婷婷中文网站,丝袜制服国产欧美亚洲,伊人中文在线,亚洲乱码中文字幕综合69堂

      1. <small id="004qa"><dl id="004qa"><small id="004qa"></small></dl></small><small id="004qa"><dl id="004qa"></dl></small>

      2. 生成式AI是激發(fā)人類創(chuàng)作靈感還是會(huì)替代人類藝術(shù)創(chuàng)作?

        相信AI繪畫(huà)技術(shù),各位一定不陌生吧。輸入一句話,AI技術(shù)將根據(jù)這段文字描述自動(dòng)生成一副藝術(shù)創(chuàng)作畫(huà)。這其實(shí)就是圖像生成技術(shù)(text?to?image),也屬于生成式AI范疇。近期,Diffusion?Model模型風(fēng)頭正盛,有人稱該模型將成為圖像生成領(lǐng)域中的下一個(gè)代表模型,關(guān)于Diffusion?Model的討論研究熱度也蓋過(guò)了曾經(jīng)風(fēng)靡圖像生成的GAN網(wǎng)絡(luò)。

        如何看待近期生成式AI應(yīng)用的井噴式高速發(fā)展?如圖像領(lǐng)域的Diffusion?Model、智能對(duì)話領(lǐng)域的ChatGPT等,你覺(jué)得生成式AI將會(huì)給人類創(chuàng)作力帶來(lái)哪些幫助?隨著生成式AI智能化的不斷提高,AI是否會(huì)成為有智慧的機(jī)器?

        本期話題:

        ●?你覺(jué)得近期哪些算法模型更具備“人類智慧”?GPT-3或Stable?Diffusion等大型AI模型是如何支撐生成式AI發(fā)展的?

        ●?生成式AI的應(yīng)用邊界將會(huì)如何擴(kuò)張?如何讓生成式AI成為安全可控、有倫理、負(fù)責(zé)任的技術(shù)?你覺(jué)得生成式AI會(huì)成為人工智能未來(lái)的主要發(fā)力點(diǎn)嗎?

        ●?你覺(jué)得AI開(kāi)源對(duì)國(guó)內(nèi)人工智能領(lǐng)域發(fā)展有什么影響?是否體驗(yàn)過(guò)中文AI模型開(kāi)源社區(qū)魔搭ModeScope?分享你的使用體驗(yàn)。

        1、在深度學(xué)習(xí)出現(xiàn)前人們就開(kāi)始嘗試?yán)肁I生成內(nèi)容了。?自然語(yǔ)言處理研究者在多年前就嘗試?yán)迷~頻來(lái)生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說(shuō)相鄰的幾個(gè)字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語(yǔ)言處理上的復(fù)雜語(yǔ)法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進(jìn)化方法。AI生成的內(nèi)容不再僅僅是概率上說(shuō)的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實(shí)數(shù)據(jù)和AI生成的數(shù)據(jù)。

        2、多次獲得國(guó)際知名的創(chuàng)意設(shè)計(jì)大獎(jiǎng)“紅點(diǎn)獎(jiǎng)”的藝術(shù)團(tuán)隊(duì)Ouchhh或許能給這個(gè)答案帶來(lái)一記漂亮的注解。?作為一家新媒體藝術(shù)創(chuàng)意機(jī)構(gòu),他們的工作內(nèi)容定位于“多學(xué)科創(chuàng)意樞紐中心”,通過(guò)研究建筑、藝術(shù)、科學(xué)、技術(shù)、新媒體藝術(shù)和人工智能之間的關(guān)系來(lái)探索藝術(shù)的邊界。 由他們帶來(lái)的達(dá)· 芬奇AI狂想數(shù)據(jù)藝術(shù)沉浸展最近也正式亮相北京。與一般的藝術(shù)展不同,這場(chǎng)展覽以數(shù)千億的數(shù)據(jù)作為畫(huà)筆,展現(xiàn)數(shù)字藝術(shù)的魅力。以文藝復(fù)興、數(shù)據(jù)石碑和量子狂想曲三大內(nèi)容作為主題,引領(lǐng)觀眾重回文藝復(fù)興時(shí)期,參與一場(chǎng)特殊的賽博狂歡。 Ouchhh的每一場(chǎng)藝術(shù)展都震撼十足、耐人尋味。他們的作品不僅享譽(yù)世界,也獲得了不少殊榮。世界上最大的數(shù)字雕塑《CONNECT HONG KONG》、全球首個(gè)NASA人工智能天文研究數(shù)據(jù)雕塑公共藝術(shù)《數(shù)據(jù)門》等等作品皆出自于這個(gè)團(tuán)隊(duì)。在AI與藝術(shù)交融的這個(gè)特殊領(lǐng)域,Ouchhh團(tuán)隊(duì)無(wú)疑走在了世界前列。

        3、何謂藝術(shù)?藝術(shù)是憑借技巧、意愿、想象力等綜合人為因素所創(chuàng)作的含有美學(xué)意義的表達(dá)模式,是人類思想與創(chuàng)作的結(jié)晶。?而人工智能所創(chuàng)造的藝術(shù)品則是深入學(xué)習(xí)后的“演算”結(jié)果,是機(jī)械的呈現(xiàn)并非思考的成果。隨著時(shí)間推移,AI涉足藝術(shù)界的廣度和深度越來(lái)越大,人工智能讓藝術(shù)得到前所未有的發(fā)展,而藝術(shù)一定程度上也反作用在促進(jìn)著人工智能的革新。 人工智能所創(chuàng)作的藝術(shù)品又稱為人工智能藝術(shù),指通過(guò)利用特殊算法或者深入學(xué)習(xí)所生成的程序性圖像。1973 年,英國(guó)藝術(shù)家哈羅德· 科恩創(chuàng)造了世界上最早的人工智能藝術(shù)系統(tǒng)AARON。由黑白簡(jiǎn)易畫(huà)到自動(dòng)繪畫(huà),AARON的出現(xiàn)與發(fā)展為人工智能藝術(shù)的發(fā)展打響了第一槍。而讓人工智能藝術(shù)真正走進(jìn)人們視野的,是Google于2015 年所發(fā)布的計(jì)算機(jī)視覺(jué)程序DeepDream,它通過(guò)更為特殊的算法演繹從而創(chuàng)造出有如故意過(guò)度處理一樣的迷幻畫(huà)像。由此之后,人工智能藝術(shù)也隨之開(kāi)啟了新階段的發(fā)展。諸如OpenAI的DALL-E、微軟的NUWA-Infinity、英偉達(dá)的GauGAN和開(kāi)源的Disco Diffusion等人工智能繪畫(huà)軟件接連誕生,AI藝術(shù)正以前所未有的速度崛起。

        4、更廣義的Diffusion Model(擴(kuò)散模型)是近期那些優(yōu)秀機(jī)器學(xué)習(xí)模型的共同機(jī)制。?包括了生成對(duì)抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(jī)(Boltzman Machine)、自回歸模型等。通過(guò)良好設(shè)計(jì)的擴(kuò)散過(guò)程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無(wú)論是圖像層面的組合還是復(fù)雜的語(yǔ)法。 AI生成的畫(huà)作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯(cuò)的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個(gè)輸入的好壞分?jǐn)?shù),但并不能判斷對(duì)錯(cuò)。從AI畫(huà)圖的角度看,就是能生成很華美的畫(huà)面,但對(duì)滿足需求卻不那么擅長(zhǎng)。近期大火的ChatGPT可以生成大段看起來(lái)很通順的文字,但與正確還有一定的距離。同時(shí)由于判別器里圖畫(huà)的信息量或文字的長(zhǎng)度也是一個(gè)重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。 AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對(duì)錯(cuò)的內(nèi)容。像是生成的音樂(lè)、畫(huà)作、文字都已經(jīng)有了不錯(cuò)的結(jié)果。同時(shí)應(yīng)用的開(kāi)發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會(huì)產(chǎn)生新的知識(shí)。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對(duì)需要尋求知識(shí)的人會(huì)產(chǎn)生干擾。從這個(gè)角度看,利用ChatGPT等技術(shù)來(lái)輔助搜索是個(gè)好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。

        5、向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。?我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動(dòng)合作,更好的方式是AI作為人類的助手,擴(kuò)散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來(lái)可期。 十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對(duì)于Web1.0時(shí)代依靠網(wǎng)站編輯來(lái)生成內(nèi)容,Web2.0的時(shí)代是用戶生成內(nèi)容(UGC)。Web2.0的時(shí)代,因?yàn)閯?chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來(lái)了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來(lái)新的大爆發(fā)。個(gè)人猜測(cè)是AIGC的時(shí)代,每個(gè)人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個(gè)性化的針對(duì)特定用戶生成的內(nèi)容。過(guò)去十幾年的個(gè)性化推薦已經(jīng)展現(xiàn)出了巨大的價(jià)值,但推薦的內(nèi)容仍然是對(duì)所有人相同的,而AIGC的時(shí)代,針對(duì)每個(gè)人偏好生成的主內(nèi)容相信會(huì)有很大的改變。

        6、總而言之,“生成式AI是激發(fā)人類創(chuàng)作靈感還是會(huì)替代人類藝術(shù)創(chuàng)作”這并不在與AI技術(shù)本身,在在于使用者和使用AI方式的本身。?對(duì)于自身長(zhǎng)期慵懶和那些骨子里就并不勤奮的人來(lái)說(shuō),生成式AI確實(shí)幫助他們完成了一些機(jī)械式工作并且影響了他們的藝術(shù)創(chuàng)作; 對(duì)于自身善于思考、天性勤奮的人來(lái)說(shuō),生成式AI也幫助他們完成了一些重復(fù)度高、機(jī)械式的工作,省下來(lái)的大部分時(shí)間可以讓使用生成式AI的人去完成更加高難度、機(jī)器無(wú)法替代的那些富有創(chuàng)造性的工作,這毫無(wú)疑問(wèn)就是激發(fā)了使用者的創(chuàng)作靈感。當(dāng)然了,就目前來(lái)說(shuō),生成式AI既可能是人類創(chuàng)作的助手,也可能是人類創(chuàng)作的競(jìng)爭(zhēng)對(duì)手。人類在利用生成式AI技術(shù)進(jìn)行藝術(shù)創(chuàng)作時(shí),需要謹(jǐn)慎地思考這項(xiàng)技術(shù)帶來(lái)的機(jī)會(huì)和挑戰(zhàn)。

        個(gè)人覺(jué)得生成式AI不可能完全替代人類藝術(shù)創(chuàng)作,但會(huì)形成AI創(chuàng)作和人類藝術(shù)創(chuàng)作并存的局面,現(xiàn)在爆火的AIGC技術(shù)未來(lái)必將成為藝術(shù)創(chuàng)作者的福音。AIGC被認(rèn)為是繼PGC、UGC之后的新型內(nèi)容創(chuàng)作方式,雖然目前還處于文案寫(xiě)作、圖片生成階段,但未來(lái)在音視頻設(shè)計(jì)上將有非常大的想象空間,比如音樂(lè)創(chuàng)作、影視創(chuàng)作等。毫不夸張的講,AIGC未來(lái)有望顛覆現(xiàn)有的內(nèi)容生產(chǎn)模式,它的工業(yè)化創(chuàng)作能力先天就能夠?yàn)閯?chuàng)作者提供海量素材和靈感,在創(chuàng)意生成、個(gè)性化內(nèi)容的設(shè)計(jì)上,為創(chuàng)作者提供新的內(nèi)容和視角。

        那么AIGC技術(shù)具體可以怎么能幫到人類藝術(shù)創(chuàng)作者呢?以作畫(huà)為例。創(chuàng)作者可以詳細(xì)地設(shè)計(jì)畫(huà)作風(fēng)格或者清晰地描述想要的元素,然后利用AIGC工具生成符合目標(biāo)的畫(huà)作內(nèi)容,最后創(chuàng)作者基于AIGC作畫(huà)產(chǎn)品可以進(jìn)行二次創(chuàng)作,當(dāng)效果不符合預(yù)期時(shí),還可以在成品圖的基礎(chǔ)上加入更多的元素,使畫(huà)作更接近預(yù)期。在整個(gè)過(guò)程中,創(chuàng)作者可以借助AIGC的強(qiáng)大生成能力來(lái)激發(fā)自身的創(chuàng)作靈感。

        近期大火的ChatGPT就表現(xiàn)出了遠(yuǎn)勝以往自然語(yǔ)言處理的能力。生成的文字內(nèi)容不僅通順,邏輯上的前后呼應(yīng)也不同以往,還結(jié)合了以往多個(gè)自然語(yǔ)言處理應(yīng)用的能力。最近幾天我還看到有人讓ChatGPT生成了可以編譯通過(guò)的單片機(jī)程序,當(dāng)然這些程序只是確保語(yǔ)法正確可以編譯通過(guò),代碼功能還做不到滿足需求。但這也是個(gè)巨大的進(jìn)步了,結(jié)合過(guò)去一兩年的CoPilot等自動(dòng)補(bǔ)全代碼類的應(yīng)用,AI輔助人類的工作已經(jīng)上了一個(gè)新的臺(tái)階。如下是ChatGPT生成的Arduino閃耀LED的代碼

        在深度學(xué)習(xí)出現(xiàn)前人們就開(kāi)始嘗試?yán)肁I生成內(nèi)容了。自然語(yǔ)言處理研究者在多年前就嘗試?yán)迷~頻來(lái)生成大段的文字,只是受限于模型難以構(gòu)建復(fù)雜的關(guān)系,生成的內(nèi)容只能說(shuō)相鄰的幾個(gè)字是有關(guān)系的,組成的句子則難以接受。深度學(xué)習(xí)出現(xiàn)以后,自然語(yǔ)言處理上的復(fù)雜語(yǔ)法分析成為可能,能生成的內(nèi)容也變得更加通順。2014年在Ian Goodfellow提出GAN后,使得內(nèi)容生成有了新的迭代進(jìn)化方法。AI生成的內(nèi)容不再僅僅是概率上說(shuō)的通,而且能讓更復(fù)雜的判別器難以區(qū)分真實(shí)數(shù)據(jù)和AI生成的數(shù)據(jù)。

        更廣義的Diffusion Model(擴(kuò)散模型)是近期那些優(yōu)秀機(jī)器學(xué)習(xí)模型的共同機(jī)制。包括了生成對(duì)抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、流模型(Flow)、波爾茲曼機(jī)(Boltzman Machine)、自回歸模型等。通過(guò)良好設(shè)計(jì)的擴(kuò)散過(guò)程,使得訓(xùn)練集的元素可以更好的結(jié)合到一起,無(wú)論是圖像層面的組合還是復(fù)雜的語(yǔ)法。

        AI生成的畫(huà)作和文本現(xiàn)在已經(jīng)越發(fā)復(fù)雜而超出預(yù)料,在可以線性判別的領(lǐng)域有著不錯(cuò)的效果。但大家也應(yīng)該看到AI生成內(nèi)容的一些局限。GAN的判別器可以做分類,也可以給出一個(gè)輸入的好壞分?jǐn)?shù),但并不能判斷對(duì)錯(cuò)。從AI畫(huà)圖的角度看,就是能生成很華美的畫(huà)面,但對(duì)滿足需求卻不那么擅長(zhǎng)。近期大火的ChatGPT可以生成大段看起來(lái)很通順的文字,但與正確還有一定的距離。同時(shí)由于判別器里圖畫(huà)的信息量或文字的長(zhǎng)度也是一個(gè)重要參數(shù),使得AI生成的內(nèi)容總是華麗和羅嗦。

        AI生成內(nèi)容在當(dāng)前的狀態(tài),很適合生成只分好壞,不分對(duì)錯(cuò)的內(nèi)容。像是生成的音樂(lè)、畫(huà)作、文字都已經(jīng)有了不錯(cuò)的結(jié)果。同時(shí)應(yīng)用的開(kāi)發(fā)者也應(yīng)該小心,不應(yīng)讓AI生成的內(nèi)容污染人類生成的內(nèi)容。AI生成的內(nèi)容還是源自訓(xùn)練集,其本身不會(huì)產(chǎn)生新的知識(shí)。一些似是而非的內(nèi)容更是難以被讀者所區(qū)分,對(duì)需要尋求知識(shí)的人會(huì)產(chǎn)生干擾。從這個(gè)角度看,利用ChatGPT等技術(shù)來(lái)輔助搜索是個(gè)好主意,但不應(yīng)該把ChatGPT生成的內(nèi)容作為主要結(jié)果提供給讀者。

        向好的方向看,AI生成內(nèi)容,可以讓人們可以欣賞的內(nèi)容變得更加豐富。我也十分期待AI生成內(nèi)容可以出現(xiàn)很多意想不到的應(yīng)用。AI與人類配合工作的領(lǐng)域里,有的是AI主導(dǎo)的,人類作為標(biāo)注員。而早期想要推動(dòng)合作,更好的方式是AI作為人類的助手,擴(kuò)散模型已經(jīng)表現(xiàn)出很多超出預(yù)期的行為,在成為更好的助手上未來(lái)可期。

        十多年前,互聯(lián)網(wǎng)行業(yè)出現(xiàn)了Web2.0的概念。意思是相對(duì)于Web1.0時(shí)代依靠網(wǎng)站編輯來(lái)生成內(nèi)容,Web2.0的時(shí)代是用戶生成內(nèi)容(UGC)。Web2.0的時(shí)代,因?yàn)閯?chuàng)作者更多,使得互聯(lián)網(wǎng)的內(nèi)容迎來(lái)了大爆發(fā),人們可以享用的內(nèi)容急劇增加。在AIGC即將爆發(fā)的黎明,雖然有我的擔(dān)憂,但也非常期待人們可以享用的內(nèi)容迎來(lái)新的大爆發(fā)。個(gè)人猜測(cè)是AIGC的時(shí)代,每個(gè)人看到的內(nèi)容有可能不再是以往廣播的,而是更有偏好性,更個(gè)性化的針對(duì)特定用戶生成的內(nèi)容。過(guò)去十幾年的個(gè)性化推薦已經(jīng)展現(xiàn)出了巨大的價(jià)值,但推薦的內(nèi)容仍然是對(duì)所有人相同的,而AIGC的時(shí)代,針對(duì)每個(gè)人偏好生成的主內(nèi)容相信會(huì)有很大的改變。

        機(jī)器學(xué)習(xí)發(fā)展至今,已經(jīng)變得越來(lái)越昂貴。機(jī)器學(xué)習(xí)工程師的努力之外,我也很希望能獲得這些優(yōu)秀機(jī)器學(xué)習(xí)模型來(lái)做出有趣的應(yīng)用。近期看了機(jī)器學(xué)習(xí)模型分享網(wǎng)站Model Scope https://www.modelscope.cn/ ,里面就有非常多訓(xùn)練好的模型可供下載和嘗試。機(jī)器學(xué)習(xí)早已不是幾年前大家都想試試的狀態(tài)?,F(xiàn)在能夠驚艷大家的機(jī)器學(xué)習(xí)模型,往往在數(shù)據(jù)收集、標(biāo)注、訓(xùn)練等方面花費(fèi)巨資,一些頂尖模型的訓(xùn)練成本甚至可達(dá)數(shù)千萬(wàn)人民幣。此時(shí)通過(guò)ModelScope這類網(wǎng)站為橋梁,讓?xiě)?yīng)用工程師和機(jī)器學(xué)習(xí)工程師可以分頭做自己最擅長(zhǎng)的工作,就成為未來(lái)有趣應(yīng)用的起點(diǎn)。