TW201416889A - 場景的片段建構系統、方法及其記錄媒體 - Google Patents

場景的片段建構系統、方法及其記錄媒體 Download PDF

Info

Publication number
TW201416889A
TW201416889A TW101138301A TW101138301A TW201416889A TW 201416889 A TW201416889 A TW 201416889A TW 101138301 A TW101138301 A TW 101138301A TW 101138301 A TW101138301 A TW 101138301A TW 201416889 A TW201416889 A TW 201416889A
Authority
TW
Taiwan
Prior art keywords
time
scene
media
data
play
Prior art date
Application number
TW101138301A
Other languages
English (en)
Other versions
TWI474201B (zh
Inventor
Chia-Hsiang Chang
Emery Jou
Jing-Fung Chen
pei-wen Huang
Original Assignee
Inst Information Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inst Information Industry filed Critical Inst Information Industry
Priority to TW101138301A priority Critical patent/TWI474201B/zh
Priority to CN201210558736.1A priority patent/CN103780976B/zh
Priority to US13/713,948 priority patent/US9049416B2/en
Priority to JP2013031950A priority patent/JP5544030B2/ja
Priority to KR1020130022356A priority patent/KR101467079B1/ko
Priority to DE102013102992.2A priority patent/DE102013102992A1/de
Publication of TW201416889A publication Critical patent/TW201416889A/zh
Application granted granted Critical
Publication of TWI474201B publication Critical patent/TWI474201B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/437Interfacing the upstream path of the transmission network, e.g. for transmitting client requests to a VOD server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本發明揭露一種場景的片段建構系統、方法及其記錄媒體。此系統包括一媒體提供設備、一描述伺服設備、一場景伺服設備與一終端裝置。媒體提供設備用以提供媒體資料。描述伺服設備用以提供對應媒體資料之播放場景的場景時間資訊。第一終端裝置取得媒體資料與場景時間資訊,並用以在播放媒體資料時輸入的擷取時間資料,以從各場景時間資訊中取出至少一目標場景時間。場景伺服設備則取得媒體資料與目標場景時間,並依據目標場景時間與各場景時間資訊的比對結果,從媒體資料取出局部場景片段以形成一媒體區段資料。

Description

場景的片段建構系統、方法及其記錄媒體
本發明係有關於一種場景的片段建構系統、方法及其記錄媒體,特別是有關於藉由場景時間資訊以取出所需場景片段的場景的片段建構系統、方法及其記錄媒體。
先前技術中,使用者可藉由一終端裝置從網路或是媒體供應設備取得任一種媒體資料並播放。然而,網站上一般對於某些精彩片段的播放時間陳述,僅是文字上的述說,以供他人得知此精彩片段於此媒體資料的播放時間點。
然而,媒體資料多是採用的線性播放方式。影像播放軟體會提供一個對應播放媒體資料的時間軸。使用者得知精彩片段的播放時間點時,僅能對媒體資料的時間軸作位置點擊,或是拖曳時間軸上的軸閂,以試著取得精彩片段的播放時間並觀看。
但若對媒體資料的播放內容與播放時間點不熟悉,使用者需耗費較多的時間來找尋所需要的視像場景。其次,軸閂拖曳的精確度是取決於時間軸的長度,若時間軸太短,使用者很難將軸閂拖曳至需求的定點,反會增加使用者操作上的困擾。其三,當使用者想將所觀看/收聽的媒體資料分享其片段時,必須使用媒體擷取程式或軟體來進行媒體擷取,但軟體的取得與使用皆會造成使用者一定程度的困擾。
因此,如何提升媒體資料分享的精確度,且簡化媒體資料分享的複雜性,為廠商應思考的課題。
為解決上述問題,本發明係揭露一種場景的片段建構系統、方法及其記錄媒體,其是藉由場景時間資訊作為媒體區段資料的選取依據。
本發明所揭露的場景的片段建構系統,其包括一媒體提供設備、一描述伺服設備、一場景伺服設備與一第一終端裝置。
此媒體提供設備用以提供一媒體資料。描述伺服設備用以接收媒體資料,以提供對應媒體資料之播放場景的複數個場景時間資訊。第一終端裝置用以取得媒體提供設備提供的媒體資料與描述伺服設備提供的場景時間資訊,並用以在播放媒體資料時輸入對應媒體資料播放的一擷取時間資訊,以從取得的場景時間資訊中,將匹配擷取時間資訊的至少一第一目標場景時間取出,並輸出至場景伺服設備。場景伺服設備用以取得第一目標場景時間、媒體資料與其對應的場景時間資訊,並將各第一目標場景時間比對取得的所有場景時間資訊,以依據比對結果從媒體資料取出複數個局部場景片段以形成一媒體區段資料。
本發明所揭露的場景的片段建構方法,其包括:由一媒體提供設備提供一媒體資料;由一描述伺服設備接收該媒體資料,並提供對應該媒體資料之播放場景的複數個場 景時間資訊;由一第一終端裝置取得媒體資料與場景時間資訊,並依據播放媒體資料時輸入的一擷取時間資訊,將從所有場景時間資訊中取出對應擷取時間資訊的至少一第一目標場景時間;以及,由一場景伺服設備取得第一目標場景時間與媒體資料與場景時間資訊,並將第一目標場景時間比對各場景時間資訊,以從媒體資料取出複數個局部場景片段以形成一媒體區段資料。
此外,本發明亦揭露一種記錄媒體,其儲存一電子裝置可讀取之程式碼。當電子裝置讀取該程式碼時執行一場景的片段建構方法。此方法已如前所述。
本發明之特點係在於,其它使用者的終端裝置僅需透過場景伺服設備即得取得使用者想分享的媒體區段資料,不但提升媒體分享的明確性,而且其它使用者不需耗費較多的時間從媒體資料找尋所需視像場景。其次,其它使用者不需費心於媒體資料的時間軸控制作業,即可直接取得使用者分享的媒體區段資料,不但簡化影像控制的複雜性,亦避免其它使用者不易拖曳軸閂至需求定點,導致無法取得媒體區段資料的操作性困擾。其三,使用者不需特定的媒體擷取程式或軟體即能提供想要分享媒體區段。
茲配合圖式將本發明較佳實施例詳細說明如下。
請參照圖1繪示本發明實施例之場景的片段建構系統 架構示意圖。此系統得以應用於具媒體播放能力的裝置、設備或系統,配置的型態並不設限。此場景的片段建構系統包括客戶端(Client Side)與伺服端(Server Side),此兩端的設備、裝置是透過網路(Network)連接。伺服端包括一媒體提供設備10(Media Supply Equipment)、一描述伺服設備20(Metadata Server)與一場景伺服設備30(Scene Server)。客戶端包括一個以上的終端裝置(End Device),其是使用者的電子裝置,如個人電腦(Personal Computer,PC)、筆記型電腦(NoteBook)、平板電腦(Tablet PC)、智慧型手機(Smart Phone)、數位機上盒(Set-Top Box,STB)…等具有供使用者操控的人機介面與連接網路能力的電子裝置。於此例,以一第一終端裝置40進行說明。
媒體提供設備10用以提供一媒體資料11(Media data)。此媒體資料11可為整體的影像、音訊或影音資料,或是即時傳輸的串流資料(Stream Data)。媒體提供設備10可為與描述伺服設備20及場景伺服設備30同屬一處的設備,或是為相異地點的第三方設備(Third-Party Equipment),並不設限。媒體提供設備10輸出媒體資料11的模式包括:廣播(Broadcast)、寬頻放送(Broadband)、有線傳輸(如Community Antenna Television,Community Antenna Television,Cable Television,CATV)、網路協定傳輸(Internet Protocol Television,IPTV)…等有線、無線的資料傳輸方式,亦不設限。
此媒體提供設備10包括具媒體供給能力的硬體、或是軟體與硬體結合的單元、組件、裝置、設備與系統等至少一種以上型態的組成。媒體資料11是由多個場景片段(Scene)所組成。媒體資料11包括多個不同內容的場景片段,如媒體資料11為影像資料(Image Data)時,影像資料即具有標的、場景、人物…等一種以上內容的影像框(Image Frame)。又如媒體資料11為音訊資料(Voice Data),音訊資料即具有高音、低音、說話聲、音樂聲…等一種以上內容的音訊框(Voice Frame)。
描述伺服設備20取得此媒體資料11時,會提供對應媒體資料11之播放內容的場景時間資訊21。場景時間資訊21是對媒體資料11,或媒體資料11包括場景片段的播放時間點、甚至於播放內容進行詮釋的註解資料,例如場景片段播放內容的簡述、播放時間、標題…等相類似對場景片段進一步解說的資料。此例中,各場景時間資訊21是記錄其對應場景片段的播放時間。而場景時間資訊21的提供方式如下:(1)由描述伺服設備20直接依據媒體資料11的播放內容進行場景時間資訊21的建構;(2)從外部裝置取得此媒體資料11對應的場景時間資訊21。
此第一終端裝置40包括供使用者輸入資料的資料輸入介面,亦具播放媒體的能力。而第一終端裝置40介面的呈現端視設計人員的需求而定,並不設限。當第一終端裝置40播放媒體資料11時,可利用第一終端裝置40用輸入 一擷取時間資訊41。擷取時間資訊41是指媒體資料11正播放區段對應的時間點或是時間間隔。第一終端裝置40會依此擷取時間資訊41,從所有的場景時間資訊21中取出至少一第一目標場景時間42,並將其輸出至場景伺服設備30。此(或此等)第一目標場景時間42記錄的播放時間係匹配擷取時間資訊41。
場景伺服設備30會取得第一目標場景時間42、媒體資料11與場景時間資訊21,但媒體資料11的取得來源是描述伺服設備20或是媒體提供設備10。場景伺服設備30會將第一目標場景時間42與各場景時間資訊21相比對,並依據比對結果從媒體資料11中取出局部場景片段32,將此等局部場景片段32形成一媒體區段資料31。此媒體區段資料31即得以透過網路而被分享至其它終端裝置。
然而,依據擷取時間資訊41包括的資料類型,第一終端裝置40與場景伺服設備30亦有不同的施行動作。說明如下:
(1)每一場景時間資訊21儲存其對應的局部場景片段32的播放時間。擷取時間資訊41包括一媒體記錄起始時間與一媒體記錄結束時間。第一終端裝置40比對擷取時間資訊41與各場景時間資訊21時,取得播放時間記錄為媒體記錄起始時間與媒體記錄結束時間之間的第一目標場景時間42,並將第一目標場景時間42輸出至場景伺服設備30,供場景伺服設備30形成媒體區段資料31
(2)場景伺服設備30依據各場景時間資訊21的記錄資訊,將各場景時間資訊21分類,再依據分類結果自媒體資料11劃分出複數個場景片段資料33。擷取時間資訊41包括一個時間點資料,第一終端裝置40會將包括此時間點資料的第一目標場景時間42傳輸至場景伺服設備30。場景伺服設備30比對時間點資料與各場景片段資料33的播放始末時間,以取出播放時間包括上述時間點資料的一目標場景片段資料33,以形成媒體區段資料31。
更進一步,場景伺服設備30依據各場景時間資訊21的播放內容,取得各場景時間資訊21的資料相依賴關係、或是資料屬性的類別進行場景時間資訊21的分類,並依據此分類結果劃分出複數個場景片段資料33。場景伺服設備30會依據各場景時間資訊21的資料相依性、資料屬性與資料層次關係,將各場景片段資料33建構為一媒體播放樹結構。當場景伺服設備30取得第一目標場景時間42時,會依據第一目標場景時間42與所有場景時間資訊21的比對結果,從媒體播放樹結構擷取出相關的場景片段資料33,以形成媒體區段資料31。
然而,場景片段、場景時間資訊、媒體播放樹結構、播放媒體…等擷取結果,其得以被儲存場景伺服設備30中,以供次回媒體區段資料31提供作業時使用。更甚者,經過場景片段提供作業所建構而成的媒體區段資料31,在分享至其它終端裝置後,亦得以直接儲存於其它終端裝 置,以供其播放軟/硬體直接取用與播放。
請參照圖2繪示本發明實施例之媒體區段資料更新的資料流向示意圖。此系統更包括一第二終端裝置50(Second End Device)。此例中,場景時間資訊21亦記載媒體區段資料31(或局部場景片段32、或場景片段資料33)的播放內容。
與第一終端裝置40運作相同,第二終端裝置50亦得以取得媒體資料11與場景時間資訊21。且另一使用者可透過第二終端裝置50的控制介面,於播放媒體資料11時輸入對應媒體資料播放的一擷取時間資訊51。第二終端裝置50會依此擷取時間資訊51,從所有的場景時間資訊21中取出至少一第二目標場景時間52,並將其輸出至場景伺服設備30。此(或此等)第二目標場景時間52記錄的播放時間係匹配擷取時間資訊51。
當場景伺服設備30取得第二目標場景時間52時,若判斷第一目標場景時間42與第二目標場景時間52記錄的媒體播放內容為相同或等義,而媒體播放時間為相異時,場景伺服設備30會依據第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間來設定一播放修正時間,以從媒體資料11中擷取播放時間處於播放修正時間內的複數個調整片段,更新媒體區段資料31。
其中,播放修正時間為第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間長度的聯集或交集。亦 或是,播放修正時間的起始時間為第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間之起始時間的平均值;播放修正時間的結束時間為第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間之結束時間的平均值。或者,為其它相關或相類似的設定方式,並不以上述設定方式為限,端視設計人員之需求而定。
請參閱圖3繪示本發明實施例之場景的片段建構方法的流程示意圖。請配置參閱圖1至圖2以利於了解。此方法流程如下:由一媒體提供設備10提供一媒體資料11(步驟S110)。如前所述,媒體提供設備10提供的媒體資料11可為整體的影像、音訊或影音資料,或是即時傳輸的串流資料(Stream Data)。媒體資料11傳輸模式包括;廣播、寬頻放送、有線傳輸、網路協定傳輸…等有線、無線的資料傳輸方式。
由一描述伺服設備20接收媒體資料11,並提供對應媒體資料11的播放場景的場景時間資訊21(步驟S120)。如前所述,場景時間資訊21的提供方式如:(1)由描述伺服設備20直接依據媒體資料11的播放內容進行場景時間資訊21的建構;(2)從外部裝置取得此媒體資料11對應的場景時間資訊21。
由一第一終端裝置40取得媒體資料11與場景時間資訊21,並依據播放媒體資料11時輸入的一擷取時間資訊 41,從場景時間資訊21中取出對應擷取時間資訊41的至少一第一目標場景時間42(步驟S130)。此步驟中,依據擷取時間資訊41記錄的資料類型之不同,第一終端裝置40取得第一目標場景時間42的方式亦有所不同。說明如下:
(1)每一場景時間資訊21儲存其對應的場景片段的播放時間。擷取時間資訊41包括一媒體記錄起始時間與一媒體記錄結束時間。當第一終端裝置40比對擷取時間資訊41與各場景時間資訊21時,係取得播放時間記錄為媒體記錄起始時間與媒體記錄結束時間之間的第一目標場景時間42,並將第一目標場景時間42輸出至場景伺服設備30。
(2)場景伺服設備30依據各場景時間資訊21的記錄資訊,將各場景時間資訊21分類,再依據分類結果自媒體資料11劃分出複數個場景片段資料33。擷取時間資訊41包括一個時間點資料,第一終端裝置40會將記錄此時間點資料的第一目標場景時間42傳輸至場景伺服設備30。
由一場景伺服設備30取得第一目標場景時間42、媒體提供設備10提供的媒體資料11與描述伺服設備20提供的場景時間資訊21,並將第一目標場景時間42比對各場景時間資訊21,以依據比對結果從媒體資料11取出複數個局部場景片段32以形成一媒體區段資料31(步驟S140)。
然而,第一終端裝置40傳輸的第一目標場景時間42,依據其記錄的資料不同,場景伺服設備30亦具有不同的作 法。例如:
(1)當第一終端裝置所傳輸的第一目標場景時間42,其記錄的播放時間處於媒體記錄起始時間與媒體記錄結束時間之間,為一場景時間資訊群時。場景伺服設備30會取出此場景時間資訊群對應的局部場景片段32來形成一媒體區段資料31。
(2)當第一終端裝置40所傳輸的第一目標場景時間42,其僅記錄一時間點資料時,場景伺服設備30比對時間點資料與各場景片段資料33的播放始末時間,以取出播放時間包括上述時間點資料的一目標場景片段資料33,以形成媒體區段資料31。
請參閱圖4繪示本發明實施例之媒體播放樹結構的建構流程示意圖。請配合圖1以利於了解。此例中,場景時間資訊21亦記載媒體區段資料31(或局部場景片段32、或場景片段資料33)的播放內容。此方法包括:由場景伺服設備30依據各場景時間資訊21的記錄資訊,取得各場景時間資訊21的資料相依賴關係、或是資料屬性的類別進行場景時間資訊21的分類,並依據此分類結果劃分出複數個場景片段資料33(步驟S210)。
由場景伺服設備30依據各場景時間資訊21的資料相依性、資料屬性與資料層次關係,將各場景片段資料33建構為一媒體播放樹結構(步驟S220)。
故於步驟S140中,當場景伺服設備30會取得第一目標場景時間42時,會依據第一目標場景時間42從媒體播放樹結構擷取出局部場景片段32,以形成媒體區段資料31。
請參閱圖5繪示本發明實施例之媒體區段資料更新方法流程示意圖,請配合圖2以利於了解。此方法適用於場景伺服設備30取得第一目標場景時間42與第二目標場景時間52,流程包括:當場景伺服設備30取得第二目標場景時間52時,判斷第一目標場景時間42與第二目標場景時間52記錄的媒體播放內容是否為相同或等義,媒體播放時間是否為相異(步驟S310)。
由場景伺服設備30依據判斷結果,決定是否利用第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間來設定一播放修正時間,及從媒體資料11中擷取播放時間處於播放修正時間內的複數個調整片段,更新媒體區段資料31(步驟S320)。而播放修正時間的設定方式如前所述,於此不再贅述。
請參閱圖6至圖8繪示本發明實施例之一媒體控制的情境示意圖。於此,媒體資料11以一籃球比賽的錄製影像進行說明。
如圖6繪示本發明實施例之一媒體層次示意圖。籃球比賽的錄製影像可以劃分出不同影像層次。層次最高者, 是整個比賽的錄像;其次為各節次的錄像;再次為特寫鏡頭的錄像。整個錄像是由許多場景片段(為前述的局部場景片段32或場景片段資料33)所組成,且與場景時間資訊21對應。
如圖7繪示本發明實施例之媒體區段資料31的時間點比對示意圖。此例中,使用者透過第一終端裝置40觀看媒體資料11。當使用者觀看到一特定影像,如「精彩得分影像」,使用者即對此「精彩得分影像」進行標記。標記方式可為擷取時間資訊41(即畫面的起始時間與結束時間)、標記符號(對播放的場景片段加入符號註記)或是時間點註記等任一種。第一終端裝置40即將被標記資料對應的第一目標場景時間42傳輸至場景伺服設備30,場景伺服設備30即取出對應第一目標場景時間42的場景片段資料33(亦或是傳輸相關的局部場景片段),形成分享於其它終端裝置的媒體區段資料31。以圖13為例,第一終端裝置40標記(如圖13繪示的圓框V字符號)的片段資料為第三場景片段資料33(P3),對應第7秒至第10秒的場景片段。
如圖8繪示本發明實施例之一媒體播放樹結構示意圖。於此,將圖6繪示的影像層次,配合前述的場景時間資訊的資料相依賴關係、或是資料屬性的類別,整個錄製影像的場景時間資訊21或場景片段資料33可被建構為一媒體播放樹結構。
此媒體播放樹結構第一層為整個比賽錄像。第二層為 第一層錄像的分支,為各節次的錄像。第三層為第二層錄像的分支,為雙方於比賽中的特寫鏡頭錄像。第四層為第三層錄像的分支,為雙方的特定球員於比賽中的特寫鏡頭錄像。
然而,場景伺服設備30並不需顧及上述的影像層次,而是依據第一目標場景時間42而取出任一層次的場景片段資料33,以形成上述的媒體區段資料。
綜上所述,乃僅記載本發明為呈現解決問題所採用的技術手段之實施方式或實施例而已,並非用來限定本發明專利實施之範圍。即凡與本發明專利申請範圍文義相符,或依本發明專利範圍所做的均等變化與修飾,皆為本發明專利範圍所涵蓋。
10‧‧‧媒體提供設備
11‧‧‧媒體資料
20‧‧‧描述伺服設備
21‧‧‧場景時間資訊
30‧‧‧場景伺服設備
31‧‧‧媒體區段資料
32‧‧‧局部場景片段
33‧‧‧場景片段資料
40‧‧‧第一終端裝置
41,51‧‧‧擷取時間資訊
42‧‧‧第一目標場景時間
50‧‧‧第二終端裝置
52‧‧‧第二目標場景時間
S110~S140‧‧‧步驟
S210~S220‧‧‧步驟
S310~S320‧‧‧步驟
圖1繪示本發明實施例之場景的片段建構系統架構示意圖;圖2繪示本發明實施例之媒體區段資料更新的資料流向示意圖;圖3繪示本發明實施例之場景的片段建構方法的流程示意圖;圖4繪示本發明實施例之媒體播放樹結構的建構流程示意圖;圖5繪示本發明實施例之媒體區段資料更新方法流程示意 圖;圖6繪示本發明實施例之一媒體層次示意圖;圖7繪示本發明實施例之媒體區段資料的時間點比對示意圖;以及圖8繪示本發明實施例之一媒體播放樹結構示意圖。
S110~S140‧‧‧步驟

Claims (18)

  1. 一種場景的片段建構系統,其包括:一媒體提供設備,用以提供一媒體資料;一描述伺服設備,用以接收該媒體提供設備提供之該媒體資料,以提供對應該媒體資料之播放場景的複數個場景時間資訊並輸出;一第一終端裝置,用以取得該媒體提供設備提供之該媒體資料與該描述伺服設備提供之該等場景時間資訊,並用以在播放該媒體資料時輸入對應該媒體資料播放的一擷取時間資訊,以從該等場景時間資訊中,將記錄播放時間匹配該擷取時間資訊的至少一第一目標場景時間輸出;以及一場景伺服設備,用以取得各該第一目標場景時間、該媒體資料與該等場景時間資訊,並將各該第一目標場景時間比對該等場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料。
  2. 如申請專利範圍第1項所述場景的片段建構系統,其中每一該場景時間資訊儲存其對應之該局部場景片段的播放時間,該擷取時間資訊包括一媒體記錄起始時間與一媒體記錄結束時間,該第一終端裝置比對該擷取時間資訊與各該場景時間資訊時,取得播放時間記錄為該媒體記錄起始時間與該媒體記錄結束時間之間的各該第一目標場景時間,以傳送各該第一目標場景時間至該場 景伺服設備。
  3. 如申請專利範圍第1項所述場景的片段建構系統,其中每一該場景時間資訊儲存其對應之該局部場景片段的播放內容,該場景伺服設備依據各該場景時間資訊的記錄資訊,將各該場景時間資訊分類,並依據分類結果自該媒體資料劃分出複數個場景片段資料,該擷取時間資料包括一時間點資料,該第一終端裝置輸出記錄該時間點資料的該至少一第一目標場景時間,該場景伺服設備比對該時間點資料與各該場景片段資料的播放始末時間,以取出至少一目標場景片段資料,以形成該媒體區段資料。
  4. 如申請專利範圍第1項所述場景的片段建構系統,其中更包括一第二終端裝置用以建立至少一第二目標場景時間,當該場景伺服設備取得該至少一第二目標場景時間,並判斷該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放內容為相同或等義,媒體播放時間為相異時,依據該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間以設定一播放修正時間,以從該媒體資料中擷取播放時間處於該播放修正時間內的複數個調整片段,更新該媒體區段資料。
  5. 如申請專利範圍第4項所述場景的片段建構系統,其中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的聯 集。
  6. 如申請專利範圍第4項所述場景的片段建構系統,其中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的交集。
  7. 如申請專利範圍第4項所述場景的片段建構系統,其中該播放修正時間的起始時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間之起始時間的平均值,該播放修正時間的結束時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間之結束時間的平均值。
  8. 如申請專利範圍第1項所述場景的片段建構系統,其中每一該場景時間資訊儲存其對應之該局部場景片段的播放內容,該場景伺服設備依據各該局部場景片段的播放內容,將各該場景時間資訊分類,並依據分類結果自該媒體資料劃分出複數個場景片段資料,並依據各該場景時間資訊的資料相依性、資料屬性與資料層次關係,將各該場景片段資料建構為一媒體播放樹結構。
  9. 如申請專利範圍第8項所述場景的片段建構系統,其中當該場景伺服設備會取得該至少一第一目標場景時間時,會依據該至少一第一目標場景時間從該媒體播放樹結構擷取出該等局部場景片段,以形成該媒體區段資料。
  10. 一種場景的片段建構方法,其包含: 由一媒體提供設備提供一媒體資料;由一描述伺服設備接收該媒體資料,並提供對應該媒體資料之播放場景的複數個場景時間資訊;由一第一終端裝置取得該媒體資料與該等場景時間資訊,並依據播放該媒體資料時輸入的一擷取時間資訊,從該等場景時間資訊中取出對應該擷取時間資訊的至少一第一目標場景時間;以及由一場景伺服設備取得該至少一第一目標場景時間、該媒體提供設備提供之該媒體資料與該描述伺服設備提供之該等場景時間資訊,並將該至少一第一目標場景時間比對各該場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料。
  11. 如申請專利範圍第10項所述場景的片段建構方法,其中每一該場景時間資訊儲存其對應之該局部場景片段的播放時間,該播放時間包括一起始時間與一結束時間,而從該等場景時間資訊中取出對應該擷取時間資訊的至少一第一目標場景時間之該步驟包括:當該第一終端裝置比對該擷取時間資訊與各該場景時間資訊時,取得播放時間記錄為該媒體記錄起始時間與該媒體記錄結束時間之間的該至少一第一目標場景時間。
  12. 如申請專利範圍第10項所述場景的片段建構方法,其中每一該場景時間資訊儲存其對應之該局部場景片段 的播放內容,該場景伺服設備依據各該場景時間資訊的記錄資訊,將各該場景時間資訊分類,並依據分類結果自該媒體資料劃分出複數個場景片段資料,該擷取時間資訊包括一時間點資料,該第一終端裝置係輸出記錄該時間點資料之該至少一第一目標場景時間至該場景伺服設備,而將該至少一第一目標場景時間比對各該場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料之該步驟包括:由該場景伺服設備比對該時間點資料與各該場景片段資料的播放始末時間,以取出一目標場景片段資料,以形成該媒體區段資料。
  13. 如申請專利範圍第10項所述場景的片段建構方法,其中更包括一第二終端裝置用以建立至少一第二目標場景時間,該方法更包括:當該場景伺服設備取得該至少一第二目標場景時間,並判斷該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放內容為相同或等義,媒體播放時間為相異時;由該場景伺服設備依據判斷結果決定是否利用該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間來設定一播放修正時間,以從該媒體資料中擷取播放時間處於該播放修正時間內的複數個調整片段,更新該媒體區段資料。
  14. 如申請專利範圍第13項所述場景的片段建構方法,其 中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的聯集。
  15. 如申請專利範圍第13項所述場景的片段建構方法,其中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的交集。
  16. 如申請專利範圍第13項所述場景的片段建構方法,其中該播放修正時間的起始時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間之起始時間的平均值,該播放修正時間的結束時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間之結束時間的平均值。
  17. 一種記錄媒體,其儲存一電子裝置可讀取之程式碼,當電子裝置讀取該程式碼時執行一場景的片段建構方法,該方法包含下列步驟:由一媒體提供設備提供一媒體資料;由一描述伺服設備接收該媒體資料,並提供對應該媒體資料之播放場景的複數個場景時間資訊;由一第一終端裝置取得該媒體資料與該等場景時間資訊,並依據播放該媒體資料時輸入的一擷取時間資訊,從該等場景時間資訊中取出對應該擷取時間資訊的至少一第一目標場景時間;以及由一場景伺服設備取得該至少一第一目標場景時 間、該媒體提供設備提供之該媒體資料與該描述伺服設備提供之該等場景時間資訊,並將該至少一第一目標場景時間比對各該場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料。
  18. 如申請專利範圍第17項所述記錄媒體,其中更包括一第二終端裝置用以建立至少一第二目標場景時間,其中,該方法更包括:當該場景伺服設備取得該至少一第二目標場景時間,並判斷該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放內容為相同或等義,媒體播放時間為相異時;由該場景伺服設備依據判斷結果決定是否利用該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間來設定一播放修正時間,以從該媒體資料中擷取播放時間處於該播放修正時間內的複數個調整片段,更新該媒體區段資料。
TW101138301A 2012-10-17 2012-10-17 Construction system scene fragment, method and recording medium TWI474201B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
TW101138301A TWI474201B (zh) 2012-10-17 2012-10-17 Construction system scene fragment, method and recording medium
CN201210558736.1A CN103780976B (zh) 2012-10-17 2012-12-12 场景的片段建构系统及其方法
US13/713,948 US9049416B2 (en) 2012-10-17 2012-12-13 System and method for constructing scene clip, and record medium thereof
JP2013031950A JP5544030B2 (ja) 2012-10-17 2013-02-21 動画シーンのクリップ構成システム、方法および記録メディア
KR1020130022356A KR101467079B1 (ko) 2012-10-17 2013-02-28 신 클립을 구성하기 위한 시스템 및 방법, 및 그 기록매체
DE102013102992.2A DE102013102992A1 (de) 2012-10-17 2013-03-22 Szenenaufbausystem und - verfahren durch Szenenausschnitte sowie deren Aufzeichnungsmedien

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101138301A TWI474201B (zh) 2012-10-17 2012-10-17 Construction system scene fragment, method and recording medium

Publications (2)

Publication Number Publication Date
TW201416889A true TW201416889A (zh) 2014-05-01
TWI474201B TWI474201B (zh) 2015-02-21

Family

ID=50383325

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101138301A TWI474201B (zh) 2012-10-17 2012-10-17 Construction system scene fragment, method and recording medium

Country Status (5)

Country Link
US (1) US9049416B2 (zh)
JP (1) JP5544030B2 (zh)
CN (1) CN103780976B (zh)
DE (1) DE102013102992A1 (zh)
TW (1) TWI474201B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10923157B2 (en) * 2015-07-17 2021-02-16 ScoreBreak, LLC System and method for event data collection and video alignment
DE112019007460T5 (de) * 2019-07-16 2022-03-10 Lg Electronics Inc. Anzeigegerät

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
WO1999003273A1 (fr) * 1997-07-11 1999-01-21 Mitsubishi Denki Kabushiki Kaisha Appareil de lecture de films et appareil permettant de constituer un recueil de films
GB2354104A (en) * 1999-09-08 2001-03-14 Sony Uk Ltd An editing method and system
JP2002351878A (ja) * 2001-05-18 2002-12-06 Internatl Business Mach Corp <Ibm> デジタルコンテンツ再生装置、データ取得システム、デジタルコンテンツ再生方法、メタデータ管理方法、電子透かし埋め込み方法、プログラム及び記録媒体
JP2003304523A (ja) * 2002-02-08 2003-10-24 Ntt Docomo Inc 情報配信システム、情報配信方法、情報配信サーバ、コンテンツ配信サーバ及び端末
AU2003221185A1 (en) * 2002-04-12 2003-10-27 Mitsubishi Denki Kabushiki Kaisha Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
US7528890B2 (en) * 2003-05-02 2009-05-05 Yoostar Entertainment Group, Inc. Interactive system and method for video compositing
KR100739770B1 (ko) * 2004-12-11 2007-07-13 삼성전자주식회사 멀티 앵글 타이틀에 적용 가능한 메타 데이터를 포함하는저장 매체, 그 재생 장치 및 방법
JP2006319918A (ja) * 2005-05-16 2006-11-24 Infonext:Kk コンテンツ配信制御システム、情報端末、コンテンツ配信制御装置、コンテンツ配信制御方法、およびプログラム
JP5248802B2 (ja) * 2006-06-16 2013-07-31 カシオ計算機株式会社 動画符号化装置および動画符号化方法と、動画復号化装置および動画復号化方法と、動画記録装置
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US20090313324A1 (en) * 2008-06-17 2009-12-17 Deucos Inc. Interactive viewing of media content
US8519820B2 (en) * 2008-09-02 2013-08-27 Apple Inc. Systems and methods for saving and restoring scenes in a multimedia system
CN101778260B (zh) * 2009-12-29 2012-01-04 公安部第三研究所 一种基于结构化描述的视频监控管理方法及系统

Also Published As

Publication number Publication date
CN103780976A (zh) 2014-05-07
CN103780976B (zh) 2017-04-12
DE102013102992A1 (de) 2014-04-17
TWI474201B (zh) 2015-02-21
US9049416B2 (en) 2015-06-02
KR20140049446A (ko) 2014-04-25
US20140105570A1 (en) 2014-04-17
JP2014082734A (ja) 2014-05-08
JP5544030B2 (ja) 2014-07-09

Similar Documents

Publication Publication Date Title
US11743547B2 (en) Method and apparatus for creating and sharing customized multimedia segments
TWI474200B (zh) Scene clip playback system, method and recording medium thereof
US20140052696A1 (en) Systems and methods for visual categorization of multimedia data
US20130290845A1 (en) Method and system for sending video edit information
CN110168541B (zh) 基于静态和时间知识图消除词语歧义的系统和方法
US8805866B2 (en) Augmenting metadata using user entered metadata
CN106471498A (zh) 用于使用元数据和使用数据分析的过滤技术的系统和方法
US20090193463A1 (en) Method and system for sharing information between users in media reproducing system
US20220030329A1 (en) Systems and methods for discovery of, identification of, and ongoing monitoring of viral media assets
US10348426B2 (en) Apparatus, systems and methods for identifying particular media content event of interest that is being received in a stream of media content
TWI474201B (zh) Construction system scene fragment, method and recording medium
JP5306550B2 (ja) 映像解析情報送信装置、映像解析情報配信システム及び配信方法、映像視聴システム及び映像視聴方法
JP2006229453A (ja) 番組提示システム
JP2009194767A (ja) ビデオ評価装置及び方法、並びにビデオ提供装置
TWI497959B (zh) Scene extraction and playback system, method and its recording media
US9084011B2 (en) Method for advertising based on audio/video content and method for creating an audio/video playback application
JP2013098640A (ja) 映像解析情報アップロード装置及び映像視聴システム及び方法
KR101467079B1 (ko) 신 클립을 구성하기 위한 시스템 및 방법, 및 그 기록매체
TW201421985A (zh) 場景片段傳輸系統、方法及記錄媒體
US20160179803A1 (en) Augmenting metadata using commonly available visual elements associated with media content
TW201528804A (zh) 媒體推薦系統及其方法