<ruby id="zpo55"></ruby>
  1. <mark id="zpo55"></mark>
    <ruby id="zpo55"><video id="zpo55"></video></ruby>

    <progress id="zpo55"></progress>
    <mark id="zpo55"></mark>
      <strong id="zpo55"></strong>

    1. 資訊> 正文

      遠不止虛擬主播!深度剖析AIGC技術(shù)在智慧廣電與網(wǎng)絡(luò )新視聽(tīng)中的應用 獨家焦點(diǎn)

      時(shí)間: 2023-04-03 09:42:42 來(lái)源: 路遠、胡峰

      近年,隨著(zhù)算力、預訓練模型和多模態(tài)技術(shù)的不斷匯聚發(fā)展,在自然語(yǔ)言和音視頻領(lǐng)域涌現出大量人工智能生產(chǎn)內容(Artificial Intelligence Generated Content,AIGC)作品,在聊天機器人、AI作畫(huà)、虛擬主持人和新聞寫(xiě)作等應用場(chǎng)景中更是熱點(diǎn)頻出。


      (相關(guān)資料圖)

      2022年11月,美國人工智能實(shí)驗室Open AI推出基于GPT-3.5架構的聊天機器人——ChatGPT(Chat Generative Pre-trained Transformer),上線(xiàn)僅兩個(gè)月,用戶(hù)數量達到1億。

      ChatGPT、GPT-4的爆火出圈,產(chǎn)學(xué)研各界對AIGC的討論、研究和應用熱度也上升到了新高度,因此,2022年也被稱(chēng)為AIGC技術(shù)元年。

      AIGC技術(shù)憑借先進(jìn)的神經(jīng)網(wǎng)絡(luò )模型和龐大的訓練數據規模,使其能夠接受和處理更加復雜的語(yǔ)音、文本、圖像等多模態(tài)數據,通過(guò)融合知識發(fā)現、知識推理等手段,實(shí)現了知識技術(shù)從感知、理解到生成、創(chuàng )作的躍遷。

      目前,國內外對AIGC技術(shù)的定義并沒(méi)有統一標準,不同領(lǐng)域、不同研究機構和學(xué)者對AIGC技術(shù)的定義和范圍也有所不同。一般來(lái)說(shuō),AIGC技術(shù)是通過(guò)AI技術(shù)(如機器學(xué)習、深度學(xué)習等)自動(dòng)或半自動(dòng)地生成內容的生產(chǎn)方式,生成內容包括但不限于文字、音頻、視頻、圖像等形式。國內產(chǎn)學(xué)研各界對于A(yíng)IGC的理解是繼專(zhuān)業(yè)生成內容(Professional Generated Content ,PGC)和用戶(hù)生成內容(User Generated Content,UGC)之后,利用人工智能技術(shù)自動(dòng)或輔助生成內容的新型生產(chǎn)方式。

      本文對AIGC的研究和分析主要聚焦于A(yíng)IGC用于內容自動(dòng)化生成的生產(chǎn)方式和技術(shù)集合,而非內容生產(chǎn)者視角進(jìn)行分類(lèi)的一類(lèi)內容。未來(lái),隨著(zhù)AIGC技術(shù)與PGC和UGC的結合,其將大大提高PGC和UGC內容的生產(chǎn)效率和質(zhì)量,在實(shí)現內容創(chuàng )作的自動(dòng)化和智能化方面發(fā)揮更大的作用。

      然而,目前AIGC技術(shù)仍存在一定的局限性,其算法和技術(shù)仍處于不斷發(fā)展和完善的過(guò)程中,可靠性和普適性仍有待進(jìn)一步提高和加強。AIGC技術(shù)的底層技術(shù)和產(chǎn)業(yè)生態(tài)已形成了新的格局,未來(lái)AIGC技術(shù)在更多行業(yè)的海量應用場(chǎng)景有望打開(kāi)。

      01

      AIGC技術(shù)發(fā)展沿革

      AIGC技術(shù)的發(fā)展歷程大致可分為三個(gè)階段:專(zhuān)家規則驅動(dòng)、統計機器學(xué)習驅動(dòng)和深度強化學(xué)習驅動(dòng)。三個(gè)階段并非完全獨立,而是交叉和融合。

      專(zhuān)家規則驅動(dòng)階段是AIGC技術(shù)的早期應用階段,也是最簡(jiǎn)單的階段。在這一階段,人們使用預定義的模式、模板和程序語(yǔ)言來(lái)實(shí)現對特定領(lǐng)域的知識和規則進(jìn)行編碼和實(shí)現,從而生成特定類(lèi)型的內容。

      這種方法的優(yōu)點(diǎn)是可控性高、定制化程度高,但是內容生成被限制在規則內,缺少靈活性,無(wú)法自動(dòng)學(xué)習和創(chuàng )新且人工成本高,遠遠算不上智能創(chuàng )作內容的程度。如果涉及特定領(lǐng)域內容生成問(wèn)題,還需要具有領(lǐng)域知識的專(zhuān)家參與。初期內容生成技術(shù)呈現出模板化、公式化和小范圍的特征。

      隨著(zhù)機器學(xué)習和深度學(xué)習算法的出現和發(fā)展,基于專(zhuān)家規則的AIGC算法已經(jīng)逐漸被替代或作為其他模型的輔助手段。

      統計機器學(xué)習驅動(dòng)階段是AIGC技術(shù)的第二個(gè)發(fā)展階段,這一階段的核心是機器學(xué)習技術(shù)。利用大量的數據來(lái)訓練機器學(xué)習模型,從而使其能夠生成更加優(yōu)質(zhì)和多樣化的內容。這一階段的代表性應用包括機器翻譯、語(yǔ)音合成、圖像生成等。相對于第一階段基于規則的生成階段,只需要為統計機器學(xué)習AIGC技術(shù)提供足夠的數據和特征,即可更迅速、更準確、更靈活生成不同模態(tài)的數據內容,而無(wú)需事先通過(guò)人工設計規則,自動(dòng)化、智能化水平更高。

      然而,基于統計機器學(xué)習的AIGC方法對數據特征依賴(lài)性強,使得算法在領(lǐng)域遷移或者處理新類(lèi)型的數據時(shí)效果不佳。

      與此同時(shí),由于機器學(xué)習方法的AIGC方法需要大量數據作為特征工程的基礎,但某些領(lǐng)域數據可能很難獲取或者數據量無(wú)法達到機器學(xué)習AIGC方法訓練數據規模要求,造成模型過(guò)擬合或者效果差,因此也限制了此類(lèi)方法在特定領(lǐng)域的應用。換句話(huà)說(shuō),基于專(zhuān)家規則和統計機器學(xué)習方法的AIGC技術(shù)都未能很好地解決算法或模型領(lǐng)域遷移成本問(wèn)題。

      深度強化學(xué)習驅動(dòng)階段是AIGC技術(shù)的最新發(fā)展階段,也是目前最為熱門(mén)的AI技術(shù)領(lǐng)域。在這一階段,利用深度強化學(xué)習和自適應多模態(tài)生成等模型,使AIGC技術(shù)能夠實(shí)現更加復雜、高級和創(chuàng )新性的生成,并具有更強的個(gè)性化和交互性能,且可以在沒(méi)有或者少量人工干預的情況下進(jìn)行自我學(xué)習與自我適應,通過(guò)反復嘗試、調整和優(yōu)化,逐漸形成對各種場(chǎng)景的適應能力,從而實(shí)現更加精準的內容生成。這一階段的代表性應用包括聊天機器人、AI繪畫(huà)、AI圖像生成等。

      相對于前兩個(gè)階段,深度強化學(xué)習驅動(dòng)的生成方法具有可定制性更強、可擴展性好且可自我學(xué)習的優(yōu)勢,從而在一定程度上解決了算法或模型領(lǐng)域遷移問(wèn)題,能夠更加靈活地調整模型以適應更加廣闊的應用領(lǐng)域。

      然而,基于深度強化學(xué)習驅動(dòng)的AIGC模型訓練和運行具有非常高的門(mén)檻。首先,深度強化學(xué)習需要大量的數據和計算資源進(jìn)行訓練,且運行過(guò)程需要較高的計算能力和存儲空間,計算復雜度高,這勢必會(huì )增加訓練和運行成本。除此之外,深度強化學(xué)習驅動(dòng)的AIGC模型的生成效果很大程度上受限于訓練數據的質(zhì)量和多樣性,訓練數據不足或者質(zhì)量不佳都會(huì )影響模型表現。

      作為AIGC技術(shù)的重要分支,ChatGPT 正逐漸成為現象級消費類(lèi)AI應用,而擁有多模態(tài)能力的GPT-4 的推出及其與Office套件的融合勢必能夠引爆應用新熱點(diǎn)。

      以近期爆火的聊天機器人ChatGPT為例,目前最大的版本ChatGPT-3的訓練規模達到了1750億個(gè)參數,需要上萬(wàn)個(gè)CPU/GPU24小時(shí)不間輸入數據,是目前已知最大的神經(jīng)語(yǔ)言模型之一。而較小的版本ChatGPT-2也擁有13億個(gè)參數。

      ChatGPT使用來(lái)自互聯(lián)網(wǎng)的文本數據庫進(jìn)行訓練,包括從書(shū)籍、網(wǎng)絡(luò )文本、維基百科、文章和互聯(lián)網(wǎng)其他文本中獲得的高達570GB的數據。GPT-4作為GPT-3的繼任者,在多種任務(wù)中表現出更佳的性能,包括文本生成、摘要、翻譯、問(wèn)答和對話(huà)等。

      目前,GPT-4的具體參數規模尚未公布,然而仍可以合理地推測,GPT-4的參數規模將比GPT-3更大,以提供更強大的生成能力和更高質(zhì)量的生成內容。

      ChatGPT與GPT-4成為現象級應用,離不開(kāi)投喂的高質(zhì)量數據、廣泛的應用場(chǎng)景、持續的資金投入與開(kāi)發(fā)AI產(chǎn)品的邊際成本以及懸而未決的全棧集成能力。訓練規模越大,模型可以處理的語(yǔ)言表達和語(yǔ)義越豐富,生成的文本也更加流暢自然,但是同時(shí)也需要更大的計算資源和更長(cháng)的訓練時(shí)間。

      開(kāi)發(fā)團隊OpenAI也承認“ChatGPT有時(shí)會(huì )寫(xiě)出看似合理但不正確或荒謬的答案”,從而出現人工智能幻覺(jué)[3]現象。最新推出的GPT-4同樣未能有效解決上述問(wèn)題,受到道德、安全和隱私方面的挑戰。

      最為關(guān)鍵的是,基于深度強化學(xué)習驅動(dòng)的AIGC方法通常是黑盒模型,模型的學(xué)習過(guò)程往往是不可解釋的,研究人員難以理解模型為何會(huì )做出某些決策,這也會(huì )給模型的可靠性和安全性帶來(lái)潛在風(fēng)險,可能會(huì )導致在其法律和金融等領(lǐng)域或一些敏感場(chǎng)景下的應用受到限制。AIGC的算法和技術(shù)目前仍在不斷發(fā)展和完善之中,未來(lái)隨著(zhù)技術(shù)的不斷進(jìn)步和算法的優(yōu)化,AIGC技術(shù)將更加成熟和普及。

      02

      AIGC技術(shù)在智慧廣電

      和網(wǎng)絡(luò )新視聽(tīng)的應用場(chǎng)景

      人工智能技術(shù)在廣播電視和網(wǎng)絡(luò )視聽(tīng)領(lǐng)域中的應用正在快速發(fā)展,目前主要應用包括視頻剪輯和編排、音頻生成和語(yǔ)音合成、內容智能推薦等方面。

      未來(lái),AIGC技術(shù)將會(huì )在廣播電視和網(wǎng)絡(luò )視聽(tīng)領(lǐng)域中扮演更加重要的角色,成為節目制作、內容創(chuàng )作、播出和營(yíng)銷(xiāo)等各個(gè)環(huán)節中不可或缺的工具,輔助提高工作效率和節目制作質(zhì)量,實(shí)現多樣化、智能化和精準化的內容創(chuàng )作、推薦和推廣,推動(dòng)行業(yè)向智慧化、個(gè)性化、創(chuàng )新化方向發(fā)展。

      AIGC+音視頻生成:提高內容生產(chǎn)者創(chuàng )作效率

      傳統的音視頻生產(chǎn)手段通常在初期腳本創(chuàng )作、錄制和后期編輯等環(huán)節需要大量的專(zhuān)業(yè)人員參與,費時(shí)費力,且難以實(shí)現自動(dòng)化,逐漸無(wú)法滿(mǎn)足消費者對于數字內容消費需求的迭代更新速度,供給側產(chǎn)能瓶頸亟待突破。

      隨著(zhù)生成對抗網(wǎng)絡(luò )(GenerativeAdversarialNetworks,GAN)、變分自編碼器(VariationalAuto-Encoder,VAE)等深度學(xué)習算法快速升級,使得AI驅動(dòng)的音頻和視頻生成技術(shù)在廣播電視和網(wǎng)絡(luò )視聽(tīng)領(lǐng)域得到越來(lái)越廣泛的應用,市場(chǎng)潛力逐漸顯現。

      音頻生成通常利用深度神經(jīng)網(wǎng)絡(luò )模型對大量音頻數據進(jìn)行訓練學(xué)習,在無(wú)需或較少人工干預或錄制的情況下,自動(dòng)生成高質(zhì)量、逼真的音頻,同時(shí)通過(guò)添加噪聲、修改音頻頻率、改變音調等方法,還可以增強音頻的多樣性和豐富性,生成包括語(yǔ)音、音樂(lè )和自然聲音等在內的多種音頻類(lèi)型。

      此外,音頻生成技術(shù)還可以根據特定場(chǎng)景或需求對生成的音頻進(jìn)行優(yōu)化和定制,以滿(mǎn)足不同用戶(hù)的需求。AIGC+視頻生成技術(shù)基于多個(gè)卷積神經(jīng)網(wǎng)絡(luò )(Convolutional Neural Network,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò )(Recurrent Neural Network,RNN)、GAN、VAE的組合,學(xué)習大量視頻中的空間、序列、時(shí)間、場(chǎng)景、物體和動(dòng)作等信息,自動(dòng)生成具備真實(shí)感視頻的細節和紋理和更加多樣化的視頻內容。

      同時(shí),根據給定的輸入條件,如不同場(chǎng)景、不同人物、不同動(dòng)作等,并通過(guò)視頻去噪、色彩校正、邊緣增強等后期處理,可以在保持視頻逼真度的同時(shí),實(shí)現對生成視頻的精細化控制以及細節的修復與優(yōu)化。

      音視頻生成技術(shù)在明星語(yǔ)音合成、智能音樂(lè )創(chuàng )作、自動(dòng)化視頻集錦、視頻拆條、視頻超分、游戲開(kāi)發(fā)和虛擬現實(shí)等細分場(chǎng)景中擁有廣泛的應用前景,且高效節省了人力時(shí)間成本。

      2018年,英偉達(NVIDIA)發(fā)布StyleGAN模型可以自動(dòng)生成圖片,目前最新的第四代模型StyleGAN-XL生成的高分辨率圖片人眼也難辨真假。

      2019年,DeepMind提出DVD-GAN (Dual Video Discriminator GAN)模型,利用計算高效的判別器分解,擴展生成時(shí)間更長(cháng)、分辨率更高的視頻,在草地、廣場(chǎng)等明確場(chǎng)景下表現不凡。

      2020年全國兩會(huì )期間,人民日報社利用“智能云剪輯師”實(shí)現自動(dòng)匹配字幕、人物實(shí)時(shí)追蹤、畫(huà)面抖動(dòng)修復、橫屏速轉豎屏等技術(shù)操作,快速生成視頻以適應多平臺分發(fā)要求。

      2022年冬奧會(huì )期間,科大訊飛的智能錄音筆通過(guò)跨語(yǔ)種語(yǔ)音轉寫(xiě)2分鐘快速出稿,央視視頻利用AI智能內容生產(chǎn)剪輯系統制作與發(fā)布冬奧會(huì )冰雪項目的視頻集錦,極大地提高了制作效率,縮短發(fā)布周期。

      利用AIGC技術(shù)生成音視頻可大幅減少時(shí)間和成本,提高生產(chǎn)效率,同時(shí)保證作品一致性和穩定性。其次,它能生成高質(zhì)量、逼真的音視頻內容,允許創(chuàng )作者更好地表達創(chuàng )意和想法。然而,AIGC技術(shù)在音視頻生成方面也存在一些局限性。

      首先,AIGC技術(shù)目前還無(wú)法完全替代人類(lèi)的音視頻創(chuàng )作,因為人類(lèi)的創(chuàng )作具有更加復雜的情感和思維,能夠表達更多元化的創(chuàng )意和想法。

      其次,AIGC技術(shù)還存在一些技術(shù)問(wèn)題,例如在生成音視頻時(shí)可能存在一些不真實(shí)的細節和瑕疵,需要不斷改進(jìn)和優(yōu)化。AIGC技術(shù)也需要大量的數據和計算資源,才能夠達到更高的生成效果和質(zhì)量,這也對技術(shù)的使用和推廣提出了一定的挑戰。

      AIGC+虛擬主播:推動(dòng)虛實(shí)融合多樣化進(jìn)程

      近兩年來(lái),虛擬主播成為廣電領(lǐng)域內熱門(mén)話(huà)題。許多虛擬主播逐漸嶄露頭角,其中包括中央廣播電視總臺的“小小撒”和“AI王冠”,以及北京廣播電視臺的“時(shí)間小妮”、湖南廣播電視臺的“小漾”、東方衛視的“申雅”、“東方嬡”、浙江衛視的“谷小雨”等等。

      這些虛擬主播已經(jīng)成為廣電領(lǐng)域中的高新技術(shù)標配產(chǎn)品,越來(lái)越多的虛擬主播也正在走上前臺。在眾多虛擬數字人好看的皮囊下,離不開(kāi)AIGC技術(shù)賦能。虛擬主播是指由計算機程序生成的具有人類(lèi)形象和行為的虛擬人物,目前已成為廣播電視和網(wǎng)絡(luò )視頻領(lǐng)域中越來(lái)越流行的一種形式。

      AIGC技術(shù)通過(guò)深度學(xué)習算法對大量人類(lèi)主播的視頻和音頻數據進(jìn)行分析和學(xué)習,從而生成具有逼真、自然的語(yǔ)音和動(dòng)作的虛擬主播,展現與真人主播無(wú)異的信息傳達效果。虛擬主播不受時(shí)間、空間的限制,可以隨時(shí)隨地出現在直播、電視節目等各種媒體中,成為一個(gè)可以為人們提供有趣、實(shí)用、便捷服務(wù)的新型媒體形態(tài)。

      此外,虛擬主播也可以通過(guò)各種動(dòng)畫(huà)特效、配音等手段進(jìn)行二次創(chuàng )作,創(chuàng )作出各種風(fēng)格獨特的視頻內容,為廣播電視和網(wǎng)絡(luò )視頻領(lǐng)域注入更多的創(chuàng )意和活力。

      虛擬主播的出現和發(fā)展,極大地豐富了數字內容的形態(tài)和表現方式,對于拓展數字媒體的應用場(chǎng)景具有重要意義。2022年兩會(huì )期間,百度利用AIGC技術(shù)生成虛擬數字人主播“度曉曉”,通過(guò)多模態(tài)交互技術(shù)、3D數字人建模、機器翻譯、語(yǔ)音識別、自然語(yǔ)言理解等技術(shù),能夠快速、準確地播報新聞內容,且具有自主學(xué)習能力。

      “度曉曉”

      與此同時(shí),新華社、中央廣播電視總臺、人民日報社以及湖南衛視等國家級和省市級媒體都在積極布局AI虛擬主播技術(shù),并將其應用場(chǎng)景從新聞播報擴展至晚會(huì )主持、記者報道、天氣預報等更廣泛場(chǎng)景,為全國兩會(huì )、冬奧會(huì )、冬殘奧會(huì )等重大活動(dòng)深度賦能。

      北京廣播電視臺發(fā)布了中國首個(gè)廣播級智能交互數字人“時(shí)間小妮”,它利用先進(jìn)的人工智能視頻合成技術(shù),包括人工智能、深度學(xué)習和卷積神經(jīng)網(wǎng)絡(luò )技術(shù),經(jīng)過(guò)情緒仿真引擎處理,創(chuàng )造出高度逼真的“數字人”,其外貌、語(yǔ)音、口型、肢體動(dòng)作與真人相似度達到97%。該數字人可用于營(yíng)銷(xiāo)宣傳、新聞報道、教育教學(xué)、智能問(wèn)答等多個(gè)領(lǐng)域,并且擁有廣播級別的智能交互功能。

      “時(shí)間小妮”

      虛擬主播通過(guò)AIGC技術(shù)可以實(shí)現24小時(shí)不間斷播報、無(wú)需人工休息,解決了傳統主播工作中存在的疲勞和失誤問(wèn)題。同時(shí),虛擬主播可以在短時(shí)間內適應各種語(yǔ)調和風(fēng)格,滿(mǎn)足不同類(lèi)型節目的需求,提高了廣播電視和網(wǎng)絡(luò )視頻制作的效率。

      然而,虛擬主播也存在一些局限性。首先,由于缺乏人性化的情感表達和傳遞,虛擬主播還難以完全取代傳統主播的角色。此外,虛擬主播的知識和信息來(lái)源受到限制,需要對其進(jìn)行不斷的數據訓練和更新,才能滿(mǎn)足用戶(hù)不斷增長(cháng)的需求。

      AIGC+內容審核:助力審核高效化發(fā)展

      隨著(zhù)數據驅動(dòng)的經(jīng)濟社會(huì )的快速發(fā)展,音視頻和文字內容的傳播量呈現爆發(fā)式增長(cháng)。然而,這其中也存在不良、低俗、暴力等違法違規內容的情況,對社會(huì )的穩定和公序良俗帶來(lái)負面影響,因此需要更加全面、高效和細致的審核方式。

      AIGC技術(shù)在廣播電視內容審核方面發(fā)揮著(zhù)重要作用。相較于傳統的內容審核方式需要耗費大量人力物力,AIGC技術(shù)能夠通過(guò)自動(dòng)識別和分類(lèi)技術(shù)快速準確地對大量?jì)热葸M(jìn)行篩查和審核。

      例如,通過(guò)語(yǔ)音識別和語(yǔ)義理解技術(shù),AIGC技術(shù)可以檢測和識別內容中的敏感詞匯和暴力內容,從而對違規內容進(jìn)行標記和刪除。

      此外,AIGC技術(shù)還能夠通過(guò)圖像和視頻分析技術(shù)監測、識別和過(guò)濾不良內容,如色情和暴力畫(huà)面,從而幫助廣播電視機構更好地維護社會(huì )公共秩序和道德風(fēng)尚。

      騰訊與虎牙成立安全聯(lián)合實(shí)驗室,共同建設AI智能審核平臺?;⒀澜Y合自研“AI智能識別、人工審核和網(wǎng)絡(luò )志愿者”三位一體模式,騰訊則全面開(kāi)放“AI+大數據”內容風(fēng)控安全技術(shù),共同優(yōu)化內容識別能力,以營(yíng)造更為安全的內容生產(chǎn)環(huán)境,應對直播平臺內容風(fēng)險和威脅。

      百度提出“AI內容風(fēng)控”概念,通過(guò)應用圖像識別、富媒體識別、NLP、分類(lèi)/聚類(lèi)、關(guān)聯(lián)挖掘、機器學(xué)習等技術(shù),對違法違規、垃圾信息、內容質(zhì)量差等情況進(jìn)行風(fēng)控,可跨場(chǎng)景判斷,實(shí)現對多種內容的風(fēng)控,其中99%的信息在上線(xiàn)前被自動(dòng)攔截,減少了人工勞動(dòng)。

      AIGC技術(shù)能夠通過(guò)自然語(yǔ)言處理和圖像識別技術(shù)快速對大量的數據進(jìn)行處理,識別和標記涉黃、暴力、政治敏感等不良信息,幫助審核機構和平臺快速發(fā)現并刪除違規內容,提高內容審核的效率和精度。

      然而,AIGC技術(shù)仍然無(wú)法完全替代人類(lèi)審查,可能會(huì )漏檢或誤判某些內容。此外,AIGC技術(shù)本身也存在一定的局限性,例如難以識別復雜的隱喻、諷刺等語(yǔ)言形式,難以理解某些具有特殊含義的圖片、視頻等內容。

      因此,在實(shí)際應用中,需要結合人工審核來(lái)提高審核的準確性和可信度。

      AIGC+智能推薦:完善用戶(hù)個(gè)性化體驗

      隨著(zhù)用戶(hù)需求的日益個(gè)性化和多樣化,在內容智能推薦領(lǐng)域,AIGC技術(shù)同樣蘊藏了諸多可能性,助力增強廣播電視和網(wǎng)絡(luò )視頻領(lǐng)域生產(chǎn)力。AIGC技術(shù)通過(guò)對用戶(hù)的觀(guān)看行為、視頻偏好等數據進(jìn)行分析,建立完整的用戶(hù)畫(huà)像,智能推薦符合用戶(hù)興趣的音視頻內容,還可以通過(guò)生成個(gè)性化的音視頻內容來(lái)滿(mǎn)足為用戶(hù)生成個(gè)性化的新聞播報、廣告宣傳等內容特定的需求。

      目前,央視視頻、芒果TV、騰訊視頻、愛(ài)奇藝、優(yōu)酷、今日頭條等平臺均結合AIGC技術(shù)分析用戶(hù)行為和興趣偏好,分析用戶(hù)觀(guān)看歷史、搜索記錄、點(diǎn)贊、評論等細粒度數據,為用戶(hù)提供針對性更強、內容更加精準的視頻推薦,為用戶(hù)提供更佳的觀(guān)看體驗。

      AIGC技術(shù)在智能推薦的應用為廣播電視和網(wǎng)絡(luò )視頻行業(yè)的發(fā)展帶來(lái)了巨大的推動(dòng)力,不僅促進(jìn)了視頻內容的多樣化、個(gè)性化,提高了用戶(hù)的滿(mǎn)意度,還增強了廣播電視和網(wǎng)絡(luò )視頻領(lǐng)域的用戶(hù)黏性和競爭力。

      然而,AIGC技術(shù)在個(gè)性化推薦應用中仍存在一些局限性,如對用戶(hù)數據的依賴(lài)性、算法不透明等問(wèn)題需要進(jìn)一步解決。

      03

      總結與展望

      隨著(zhù)數據規??焖倥蛎?、算力性能不斷提升以及人工智能算法不斷發(fā)展,AIGC能夠替代內容創(chuàng )作者完成更多內容挖掘、素材查詢(xún)調用等基礎性勞動(dòng),創(chuàng )新內容生產(chǎn)范式,為更具藝術(shù)性和創(chuàng )造性的內容創(chuàng )作提供可能。AIGC技術(shù)也將會(huì )進(jìn)一步提高生成內容的質(zhì)量和準確度,使得其在視頻制作、音頻制作、文本創(chuàng )作等方面的應用更加廣泛,進(jìn)一步豐富用戶(hù)體驗和提升市場(chǎng)競爭力。

      值得注意的是,以ChatGPT和GPT-4為代表的AIGC技術(shù)或將給各行各業(yè)帶來(lái)一些變化,也勢必會(huì )給廣播電視和網(wǎng)絡(luò )視聽(tīng)行業(yè)帶來(lái)一定機遇和挑戰。

      ChatGPT和GPT-4能夠被廣泛應用于多模態(tài)任務(wù),輔助提高內容創(chuàng )作、編輯和審核效率,推動(dòng)創(chuàng )造新的互動(dòng)范式,為智慧廣電與網(wǎng)絡(luò )新視聽(tīng)帶來(lái)創(chuàng )新可能性,同時(shí)推動(dòng)行業(yè)向更智能化、個(gè)性化和高質(zhì)量的發(fā)展方向邁進(jìn),以提升用戶(hù)與設備之間的交互體驗,包括語(yǔ)音交互、內容推薦、視頻自動(dòng)化處理、內容審核和廣告精準投放等場(chǎng)景。

      可以預見(jiàn)的是,隨著(zhù)人工智能加速迭代,未來(lái)AIGC功能勢必越來(lái)越強大,應用領(lǐng)域越來(lái)越廣闊,人工智能或將會(huì )取代一部分創(chuàng )造性以及創(chuàng )新度不高的工作,這也會(huì )倒逼廣播電視和網(wǎng)絡(luò )視聽(tīng)行業(yè)從業(yè)人員不斷提高創(chuàng )造力和創(chuàng )新能力以構建自我的不可替代性。

      然而,AIGC技術(shù)的應用落地仍然面臨技術(shù)安全性、版權保護、隱私保護和算法不透明等的挑戰。解決這些挑戰需要通過(guò)不斷的技術(shù)創(chuàng )新和改進(jìn)優(yōu)化來(lái)提高AIGC技術(shù)的精準度和實(shí)用性。

      與此同時(shí),為了更好地應對新興AIGC技術(shù)的帶來(lái)機遇與挑戰,廣播電視和網(wǎng)絡(luò )視頻領(lǐng)域更要繼續加強多維互動(dòng)合作、共同研究,推動(dòng)制定相關(guān)的規范、標準和政策,以保證AIGC技術(shù)的合理使用與可持續發(fā)展,打造行業(yè)發(fā)展新增長(cháng)點(diǎn),推動(dòng)孕育新業(yè)態(tài)。

      【聚焦】流媒體網(wǎng)重磅推出《2021-2022全球OTT核心市場(chǎng)發(fā)展研究報告》,點(diǎn)擊圖片了解報告更多內容。

      責任編輯:房家輝

      分享到:版權聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權均屬流媒體網(wǎng)所有,轉載需注明出處。非本站出處的文章為轉載,觀(guān)點(diǎn)供業(yè)內參考,不代表本站觀(guān)點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò )收集整理,僅供學(xué)習交流,版權歸原作者所有。如涉及侵權,請及時(shí)聯(lián)系我們刪除!

      關(guān)鍵詞:

      責任編輯:QL0009

      為你推薦

      關(guān)于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

      版權所有 © 2020 跑酷財經(jīng)網(wǎng)

      所載文章、數據僅供參考,使用前務(wù)請仔細閱讀網(wǎng)站聲明。本站不作任何非法律允許范圍內服務(wù)!

      聯(lián)系我們:315 541 185@qq.com

      精品成人精品无码区_欧亚乱色熟女一区二区_91在线精品国产丝袜超清_色欲久久久久综合网
      <ruby id="zpo55"></ruby>
      1. <mark id="zpo55"></mark>
        <ruby id="zpo55"><video id="zpo55"></video></ruby>

        <progress id="zpo55"></progress>
        <mark id="zpo55"></mark>
          <strong id="zpo55"></strong>