TWI688269B - 影片擷取方法與使用此方法的電子裝置 - Google Patents
影片擷取方法與使用此方法的電子裝置 Download PDFInfo
- Publication number
- TWI688269B TWI688269B TW107143895A TW107143895A TWI688269B TW I688269 B TWI688269 B TW I688269B TW 107143895 A TW107143895 A TW 107143895A TW 107143895 A TW107143895 A TW 107143895A TW I688269 B TWI688269 B TW I688269B
- Authority
- TW
- Taiwan
- Prior art keywords
- video
- time point
- feature information
- clip
- score
- Prior art date
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本發明提出一種影片擷取方法,用於以電子裝置擷取影片的至少一剪輯,其中所述影片對應於觀眾聊天室,所述影片擷取方法包括:取得所述影片在多個時間點的特徵資訊,其中所述特徵資訊包括所述觀眾聊天室的刷新頻率;以及根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯。此外,一種使用此方法的電子裝置亦被提出。
Description
本發明是有關於一種擷取技術,且特別是有關於一種影片擷取方法與使用此方法的電子裝置。
隨著科技的進步、網路直播平台的普及與各式網路影音平台興起,娛樂影音唾手可得,改變了人們的影音觀看行為。從固定時間蹲坐在電視螢幕前,轉而移向隨選隨看的網路影音,網路影音帶來新的互動與觀看體驗。
然而,由於直播門檻的降低,只要下載直播應用程式(application,APP)或是登入直播平台,每個人隨時隨地都可以變成直播主,直播儼然成為了一種新的娛樂模式。但,往往一個直播經常超過一小時且時間不定,觀眾也不會一直關注某個直播主每天隨時的完整內容。因此,為了吸引觀眾,直播主通常都要花費額外的時間過濾冗長的直播內容並剪輯精華片段以吸引粉絲觀看。此外,直播主也能將精簡版的精華影片分享至其他社群平台以提高知名度並增加訂閱觀眾。據此,如何能夠設計出一套自動的方法來剪輯精華片段,是本領域的技術人員研究的課題之一。
本發明提供一種影片擷取方法與使用此方法的電子裝置,能夠自動分析影片以擷取影片中的精華片段,據此可節省使用者剪輯影片的時間。
本發明的影片擷取方法,用於以電子裝置擷取影片的至少一剪輯,其中所述影片對應於觀眾聊天室,所述影片擷取方法包括:取得所述影片在多個時間點的特徵資訊,其中所述特徵資訊包括所述觀眾聊天室的刷新頻率;以及根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯。
在本發明的一實施例中,上述根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯的步驟包括:根據各時間點的所述特徵資訊,利用神經網路模型將所述影片在各時間點的影像分類為精華類別或非精華類別,其中所述神經網路模型是基於多個歷史精華影片來建構;以及根據分類為所述精華類別的所述影像產生所述至少一剪輯。
在本發明的一實施例中,上述取得所述影片在所述時間點的所述特徵資訊的步驟包括:記錄第一時間點時,所述觀眾聊天室的最近更新留言;在第二時間點找出所述最近更新留言在所述觀眾聊天室中的所在位置;以及根據所述第一時間點、所述第二時間點以及所述所在位置,計算所述影片在所述第一時間點的所述刷新頻率。
在本發明的一實施例中,上述的特徵資訊包括表情分數及音量,並且取得所述影片在所述時間點的所述特徵資訊的步驟包括:對所述影片在各時間點的影像進行人臉偵測並且取得多種表情類別的其中之一;以及根據所述表情類別設定所述表情分數。
在本發明的一實施例中,上述根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯的步驟包括:根據各時間點的所述刷新頻率、所述表情分數以及所述音量計算特徵分數;以及根據所述特徵分數,從所述影片擷取所述至少一剪輯,其中計算所述特徵分數時,所述刷新頻率的權重值高於所述表情分數的權重值以及所述音量的權重值。
本發明的電子裝置,用以擷取影片的至少一剪輯,其中所述影片對應於觀眾聊天室,所述電子裝置包括:儲存裝置,記錄多個模組;以及處理器,耦接於所述儲存裝置,以存取並執行所述儲存裝置中記錄的所述模組,所述模組包括: 資料收集模組,取得所述影片在多個時間點的特徵資訊,其中所述特徵資訊包括所述觀眾聊天室的刷新頻率;以及影片擷取模組,根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯。
在本發明的一實施例中,上述的影片擷取模組包括:根據各時間點的所述特徵資訊,利用神經網路模型將所述影片在各時間點的影像分類為精華類別或非精華類別,其中所述神經網路模型是基於多個歷史精華影片來建構;以及根據分類為所述精華類別的所述影像產生所述至少一剪輯。
在本發明的一實施例中,上述的資料收集模組包括:記錄第一時間點時,所述觀眾聊天室的最近更新留言;在第二時間點找出所述最近更新留言在所述觀眾聊天室中的所在位置;以及根據所述第一時間點、所述第二時間點以及所述所在位置,計算所述影片在所述第一時間點的所述刷新頻率。
在本發明的一實施例中,上述的特徵資訊包括表情分數及音量,並且所述資料收集模組包括:對所述影片在各時間點的影像進行人臉偵測並且取得多種表情類別的其中之一;以及根據所述表情類別設定所述表情分數。
在本發明的一實施例中,上述的影片擷取模組包括:根據各時間點的所述刷新頻率、所述表情分數以及所述音量計算特徵分數;以及根據所述特徵分數,從所述影片擷取所述至少一剪輯,其中計算所述特徵分數時,所述刷新頻率的權重值高於所述表情分數的權重值以及所述音量的權重值。
基於上述,本發明實施例所提供的影片擷取方法與使用此方法的電子裝置,能夠將影片在多個時間點的特徵資訊輸入神經網路模型以將在各時間點的影像分類為精華類別或非精華類別,並且對分類為精華類別的影像進行擷取操作,藉此能夠自動分析影片以擷取影片中的精華片段。如此一來,可節省使用者剪輯影片的時間。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
圖1繪示本發明一實施例中電子裝置的方塊圖。
請參照圖1,電子裝置100包括儲存裝置110以及處理器120。電子裝置100例如為桌上型電腦(Desktop)、筆記型電腦(Notebook)、平板電腦(Tablet PC)、智慧型行動電話(Smart Phone)或攜帶式遊戲機(PSP)等具有運算能力以提供剪輯功能的裝置,本發明並不加以限制。
儲存裝置110用以記錄資料收集模組112以及影片擷取模組114,這些模組例如是儲存在儲存裝置110中的程式。在一些實施例中,儲存裝置100例如是任何型態的固定式或可移動式隨機存取記憶體(random access memory,RAM)、唯讀記憶體(read-only memory,ROM)、快閃記憶體(flash memory)或類似元件或上述元件的組合,本發明並不加以限制。
處理器120耦接儲存裝置110,並且會從儲存裝置110載入資料收集模組112以及影片擷取模組114的程式碼,據以執行本發明實施例的影片擷取方法。在一些實施例中,處理器120例如是中央處理單元(Central Processing Unit,CPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、數位訊號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuits,ASIC)、可程式化邏輯裝置(Programmable Logic Device,PLD)或其他類似裝置或這些裝置的組合,本發明並不加以限制。
為了能夠自動擷取影片中的精華片段,本發明實施例的電子裝置100分析影片在各時間點的特徵資訊以進行影片擷取操作,其中所分析的特徵資訊包括影片在各時間點時對應的觀眾聊天室的刷新頻率。如此一來,電子裝置100可立即提供影片的精華片段,以減少使用者剪輯影片的時間。
圖2繪示本發明一實施例的影片擷取方法的流程圖。
圖2實施例的影片擷取方法適用於圖1實施例的電子裝置100。以下將參照圖1實施例的各項元件來詳細說明圖2實施例的影片擷取方法。在此需特別說明的是,本實施例中的影片對應於一個觀眾聊天室。在影片播放的過程中,影片的觀眾可以在觀眾聊天室中留言。在一些實施例中,影片中的影像包括所述觀眾聊天室,本發明並不加以限制。
在步驟S220中,處理器120執行資料收集模組112,處理器120取得影片在多個時間點的特徵資訊,所述特徵資訊包括觀眾聊天室的刷新頻率。具體而言,處理器120取得所述觀眾聊天室的刷新頻率的方式如下:首先,處理器120記錄第一時間點時,觀眾聊天室的最近更新留言。接著,處理器120在第二時間點找出所述最近更新留言在觀眾聊天室中的所在位置。最後,處理器120根據第一時間點、第二時間點以及所在位置,統計在第一時間點與第二時間點之間出現幾次新的留言,隨後處理器120將所述新的留言的數量除以第一時間點與第二時間點的差值,以計算影片在第一時間點的刷新頻率。
以下舉實施例說明處理器120取得觀眾聊天室的刷新頻率的具體方式。
圖3A及圖3B繪示本發明一實施例的影片中影像的示意圖。圖3A示出在影片中時間點t秒的影像300a,在影像300a中顯示觀眾聊天室320的最近更新留言為留言322。圖3B示出在影片中時間點t+3秒的影像300b,在影像300b中顯示在時間點t+3秒時,留言322在觀眾聊天室320中的位置。處理器120根據時間點t秒、時間點t+3秒以及留言322在時間點t+3秒時的所在位置,統計在時間點t秒與時間點t+3秒之間出現9次新的留言,因此影片在時間點t的刷新頻率為3次/秒。
在一些實施例中,所述特徵資訊還包括表情分數及音量。處理器120取得所述音量的方式如下:處理器120依據影片的音軌統計在各時間點的分貝數,所述分貝數即為音量。處理器120取得所述表情分數的方式如下:首先,處理器120利用情緒偵測模型(例如,Python的DLIB函式庫等,但不限於此)對影片在各時間點的影像進行人臉偵測並且取得多種表情類別的其中之一,所述表情類別包括平淡無奇的表情、害怕的表情或開心的表情,本發明並不加以限制。接著,處理器120根據所述表情類別設定表情分數。詳細來說,處理器120取出人臉顯示為害怕或開心的表情,並將所述害怕或開心的表情量化為數值1(最大值),也就是說,處理器120將表情量化為數值0至1,其中數值0為平淡無奇的表情,數值1為害怕或開心的表情(所述數值即為表情分數)。值得注意的是,在一些實施例中,所述影片中的影像還包括直播主視窗,處理器120僅針對直播主視窗進行人臉偵測,以減輕系統的運算負擔,但本發明並不加以限制。
舉例來說,請參照圖3A及圖3B,圖3A的影像300a及圖3B的影像300b包括直播主視窗340。在圖3A的示例中,於影片中時間點t秒時,直播主視窗340中的人臉顯示為平淡無奇的表情,因此處理器120在取得人臉顯示為平淡無奇的表情後,設定表情分數為0。在圖3B的示例中,於影片中時間點t+1秒時,直播主視窗340的人臉顯示為害怕的表情,因此處理器120在取得人臉顯示為害怕的表情後,設定表情分數為1。
回到圖2的流程圖,在步驟S240中,處理器120執行影片擷取模組,處理器120根據各時間點的特徵資訊,從影片擷取至少一剪輯。在一些實施例中,處理器120根據各時間點的特徵資訊,利用神經網路模型將影片在各時間點的影像分類為精華類別或非精華類別,接著根據分類為精華類別的影像產生至少一剪輯。
在一些實施例中,處理器120根據各時間點的刷新頻率、表情分數以及音量計算特徵分數,並且根據特徵分數,從影片擷取至少一剪輯。特別是,處理器120計算所述特徵分數時,刷新頻率的權重值高於表情分數的權重值以及音量的權重值。舉例來說,處理器120會將所述特徵分數輸入神經網路模型以輸出機率值,且判斷所述機率值是否大於一預設閾值,若所述機率值大於所述預設閾值,處理器120將所述時間點的影像分類為精華類別;若所述機率值不大於所述預設閾值,處理器120將所述時間點的影像分類為非精華類別。接著,處理器120對分類為精華類別的影像進行擷取以產生至少一剪輯。在一些實施例中,特徵分數等於刷新頻率加上表情分數與音量的乘積,本發明並不加以限制。
在其他實施例中,處理器120也可以直接將刷新頻率、表情分數以及音量輸入神經網路模型,以將各時間點的影像分類為精華類別或非精華類別。然而,本發明並不加以限制。
值得一提的是,在一些實施例中,神經網路模型是基於多個歷史精華影片來建構。神經網絡模型的建立方式請見下述說明。首先,處理器120取得至少一個歷史精華影片,所述歷史精華影片包括多個精華影像,且各精華影像包括特徵資訊。舉例來說,歷史精華影片例如是由直播主剪輯完成的精華影片。詳細來說,處理器120在取得到歷史精華影片後,透過影片分析技術(video object detection)將歷史精華影片中的精華影像分類為直播主視窗以及觀眾聊天室,處理器120取得各精華影像中觀眾聊天室的刷新頻率、直播主視窗的表情分數以及聲音。接著,處理器120利用精華影像以及各精華影像的特徵資訊(觀眾聊天室的刷新頻率、直播主視窗的表情分數以及聲音)訓練神經網路模型。
此外,在一些實施例中,處理器120可利用資料反饋的方式,透過使用者有無使用所述至少一剪輯當精華片段的行為進行重訓練流程(Re-Training Process)。所述重訓練流程針對新取得精華片段中影像的不同刷新頻率、不同表情分數以及不同聲音分別在神經網路模型中進行機器學習(machine learning),藉此優化神經網路模型,而使得未來經神經網絡模型所輸出的結果更加準確,並且更符合個人化需求。
綜上所述,本發明實施例所提供的影片擷取方法與使用此方法的電子裝置,能夠將影片在多個時間點的特徵資訊輸入神經網路模型以將在各時間點的影像分類為精華類別或非精華類別,並且對分類為精華類別的影像進行擷取操作,藉此能夠自動分析影片以擷取影片中的精華片段。如此一來,可節省使用者剪輯影片的時間。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100:電子裝置
110:儲存裝置
112:資料收集模組
114:影片擷取模組
120:處理器
S220、S240:影片擷取方法的步驟
300a、300b:影像
320:觀眾聊天室
322:留言
340:直播主視窗
圖1繪示本發明一實施例中電子裝置的方塊圖。 圖2繪示本發明一實施例的影片擷取方法的流程圖。 圖3A及圖3B繪示本發明一實施例的影片中影像的示意圖。
S220、S240:影片擷取方法的步驟
Claims (8)
- 一種影片擷取方法,用於以電子裝置擷取影片的至少一剪輯,其中所述影片對應於觀眾聊天室,所述影片擷取方法包括:取得所述影片在多個時間點的特徵資訊,其中所述特徵資訊包括所述觀眾聊天室的刷新頻率;以及根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯,其中所述特徵資訊包括表情分數及音量,並且取得所述影片在所述時間點的所述特徵資訊的步驟包括:對所述影片在各時間點的影像進行人臉偵測並且取得多種表情類別的其中之一;以及根據所述表情類別設定所述表情分數。
- 如申請專利範圍第1項所述的影片擷取方法,其中根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯的步驟包括:根據各時間點的所述特徵資訊,利用神經網路模型將所述影片在各時間點的影像分類為精華類別或非精華類別,其中所述神經網路模型是基於多個歷史精華影片來建構;以及根據分類為所述精華類別的所述影像產生所述至少一剪輯。
- 如申請專利範圍第1項所述的影片擷取方法,其中取得所述影片在所述時間點的所述特徵資訊的步驟包括:記錄第一時間點時,所述觀眾聊天室的最近更新留言; 在第二時間點找出所述最近更新留言在所述觀眾聊天室中的所在位置;以及根據所述第一時間點、所述第二時間點以及所述所在位置,計算所述影片在所述第一時間點的所述刷新頻率。
- 如申請專利範圍第1項所述的影片擷取方法,其中根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯的步驟包括:根據各時間點的所述刷新頻率、所述表情分數以及所述音量計算特徵分數;以及根據所述特徵分數,從所述影片擷取所述至少一剪輯,其中計算所述特徵分數時,所述刷新頻率的權重值高於所述表情分數的權重值以及所述音量的權重值。
- 一種電子裝置,用以擷取影片的至少一剪輯,其中所述影片對應於觀眾聊天室,所述電子裝置包括:儲存裝置,記錄多個模組;以及處理器,耦接於所述儲存裝置,以存取並執行所述儲存裝置中記錄的所述模組,所述模組包括:資料收集模組,取得所述影片在多個時間點的特徵資訊,其中所述特徵資訊包括所述觀眾聊天室的刷新頻率;以及影片擷取模組,根據各時間點的所述特徵資訊,從所述影片擷取所述至少一剪輯,其中所述特徵資訊包括表情分數及音量,並且所述資料 收集模組包括:對所述影片在各時間點的影像進行人臉偵測並且取得多種表情類別的其中之一;以及根據所述表情類別設定所述表情分數。
- 如申請專利範圍第5項所述的電子裝置,其中所述影片擷取模組包括:根據各時間點的所述特徵資訊,利用神經網路模型將所述影片在各時間點的影像分類為精華類別或非精華類別,其中所述神經網路模型是基於多個歷史精華影片來建構;以及根據分類為所述精華類別的所述影像產生所述至少一剪輯。
- 如申請專利範圍第5項所述的電子裝置,其中所述資料收集模組包括:記錄第一時間點時,所述觀眾聊天室的最近更新留言;在第二時間點找出所述最近更新留言在所述觀眾聊天室中的所在位置;以及根據所述第一時間點、所述第二時間點以及所述所在位置,計算所述影片在所述第一時間點的所述刷新頻率。
- 如申請專利範圍第5項所述的電子裝置,其中所述影片擷取模組包括:根據各時間點的所述刷新頻率、所述表情分數以及所述音量計算特徵分數;以及根據所述特徵分數,從所述影片擷取所述至少一剪輯,其中 計算所述特徵分數時,所述刷新頻率的權重值高於所述表情分數的權重值以及所述音量的權重值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107143895A TWI688269B (zh) | 2018-12-06 | 2018-12-06 | 影片擷取方法與使用此方法的電子裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107143895A TWI688269B (zh) | 2018-12-06 | 2018-12-06 | 影片擷取方法與使用此方法的電子裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI688269B true TWI688269B (zh) | 2020-03-11 |
TW202023285A TW202023285A (zh) | 2020-06-16 |
Family
ID=70766962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107143895A TWI688269B (zh) | 2018-12-06 | 2018-12-06 | 影片擷取方法與使用此方法的電子裝置 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI688269B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101854529A (zh) * | 2010-04-30 | 2010-10-06 | 第一视频通信传媒有限公司 | 一种细分受众的多画面网络直播方法 |
CN102842327A (zh) * | 2012-09-03 | 2012-12-26 | 深圳市迪威视讯股份有限公司 | 一种多媒体数据流的剪辑方法及系统 |
CN102890950A (zh) * | 2011-07-18 | 2013-01-23 | 大猩猩科技股份有限公司 | 媒体自动剪辑装置、方法、媒体播送方法与其播送系统 |
-
2018
- 2018-12-06 TW TW107143895A patent/TWI688269B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101854529A (zh) * | 2010-04-30 | 2010-10-06 | 第一视频通信传媒有限公司 | 一种细分受众的多画面网络直播方法 |
CN102890950A (zh) * | 2011-07-18 | 2013-01-23 | 大猩猩科技股份有限公司 | 媒体自动剪辑装置、方法、媒体播送方法与其播送系统 |
CN102842327A (zh) * | 2012-09-03 | 2012-12-26 | 深圳市迪威视讯股份有限公司 | 一种多媒体数据流的剪辑方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
TW202023285A (zh) | 2020-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112753226B (zh) | 用于从视频流中提取元数据的方法、介质和系统 | |
CN110519636B (zh) | 语音信息播放方法、装置、计算机设备及存储介质 | |
JP5795580B2 (ja) | タイムベースメディアにおけるソーシャルインタレストの推定および表示 | |
CN107801096B (zh) | 视频播放的控制方法、装置、终端设备及存储介质 | |
US10524005B2 (en) | Facilitating television based interaction with social networking tools | |
CN104813678A (zh) | 用于使用用户参与度来提供内容呈现的方法和装置 | |
JP2010016482A (ja) | 情報処理装置および情報処理方法 | |
TW201220216A (en) | System and method for detecting human emotion and appeasing human emotion | |
CN110035302B (zh) | 信息推荐及模型训练方法和装置、计算设备、存储介质 | |
CN110072140B (zh) | 一种视频信息提示方法、装置、设备及存储介质 | |
CN112312215B (zh) | 基于用户识别的开机内容推荐方法、智能电视及存储介质 | |
CN113791557A (zh) | 一种智能设备的控制方法和装置 | |
CN112150457A (zh) | 视频检测方法、装置及计算机可读存储介质 | |
WO2020052062A1 (zh) | 检测方法和装置 | |
JP2011164681A (ja) | 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 | |
CN114257824A (zh) | 直播显示方法、装置、存储介质及计算机设备 | |
TWI688269B (zh) | 影片擷取方法與使用此方法的電子裝置 | |
CN110636363A (zh) | 多媒体信息播放方法及装置、电子设备和存储介质 | |
US11812185B2 (en) | Video conferencing system and method of removing interruption thereof | |
CN111343391A (zh) | 影片撷取方法与使用此方法的电子装置 | |
WO2022022075A1 (zh) | 视频及直播处理方法、直播系统、电子设备、终端、介质 | |
CN114302231A (zh) | 视频处理方法及装置、电子设备和存储介质 | |
CN111046232A (zh) | 一种视频分类方法、装置及系统 | |
US11682210B1 (en) | Methods and device for video data analysis | |
US20230128043A1 (en) | Information processing device, information processing method, and information processing program |