TWI474201B - Construction system scene fragment, method and recording medium - Google Patents
Construction system scene fragment, method and recording medium Download PDFInfo
- Publication number
- TWI474201B TWI474201B TW101138301A TW101138301A TWI474201B TW I474201 B TWI474201 B TW I474201B TW 101138301 A TW101138301 A TW 101138301A TW 101138301 A TW101138301 A TW 101138301A TW I474201 B TWI474201 B TW I474201B
- Authority
- TW
- Taiwan
- Prior art keywords
- time
- scene
- media
- data
- segment
- Prior art date
Links
- 238000010276 construction Methods 0.000 title claims description 26
- 238000000034 method Methods 0.000 title claims description 24
- 239000012634 fragment Substances 0.000 title claims description 16
- 239000000463 material Substances 0.000 claims description 58
- 230000004048 modification Effects 0.000 claims description 15
- 238000012986 modification Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 238000001454 recorded image Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/87—Regeneration of colour television signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/222—Secondary servers, e.g. proxy server, cable television Head-end
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4334—Recording operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/437—Interfacing the upstream path of the transmission network, e.g. for transmitting client requests to a VOD server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
Description
本發明係有關於一種場景的片段建構系統、方法及其記錄媒體,特別是有關於藉由場景時間資訊以取出所需場景片段的場景的片段建構系統、方法及其記錄媒體。
先前技術中,使用者可藉由一終端裝置從網路或是媒體供應設備取得任一種媒體資料並播放。然而,網站上一般對於某些精彩片段的播放時間陳述,僅是文字上的述說,以供他人得知此精彩片段於此媒體資料的播放時間點。
然而,媒體資料多是採用的線性播放方式。影像播放軟體會提供一個對應播放媒體資料的時間軸。使用者得知精彩片段的播放時間點時,僅能對媒體資料的時間軸作位置點擊,或是拖曳時間軸上的軸閂,以試著取得精彩片段的播放時間並觀看。
但若對媒體資料的播放內容與播放時間點不熟悉,使用者需耗費較多的時間來找尋所需要的視像場景。其次,軸閂拖曳的精確度是取決於時間軸的長度,若時間軸太短,使用者很難將軸閂拖曳至需求的定點,反會增加使用者操作上的困擾。其三,當使用者想將所觀看/收聽的媒體資料分享其片段時,必須使用媒體擷取程式或軟體來進行媒體擷取,但軟體的取得與使用皆會造成使用者一定程度的困擾。
因此,如何提升媒體資料分享的精確度,且簡化媒體資料分享的複雜性,為廠商應思考的課題。
為解決上述問題,本發明係揭露一種場景的片段建構系統、方法及其記錄媒體,其是藉由場景時間資訊作為媒體區段資料的選取依據。
本發明所揭露的場景的片段建構系統,其包括一媒體提供設備、一描述伺服設備、一場景伺服設備與一第一終端裝置。
此媒體提供設備用以提供一媒體資料。描述伺服設備用以接收媒體資料,以提供對應媒體資料之播放場景的複數個場景時間資訊。第一終端裝置用以取得媒體提供設備提供的媒體資料與描述伺服設備提供的場景時間資訊,並用以在播放媒體資料時輸入對應媒體資料播放的一擷取時間資訊,以從取得的場景時間資訊中,將匹配擷取時間資訊的至少一第一目標場景時間取出,並輸出至場景伺服設備。場景伺服設備用以取得第一目標場景時間、媒體資料與其對應的場景時間資訊,並將各第一目標場景時間比對取得的所有場景時間資訊,以依據比對結果從媒體資料取出複數個局部場景片段以形成一媒體區段資料。
本發明所揭露的場景的片段建構方法,其包括:由一媒體提供設備提供一媒體資料;由一描述伺服設備接收該媒體資料,並提供對應該媒體資料之播放場景的複數個場
景時間資訊;由一第一終端裝置取得媒體資料與場景時間資訊,並依據播放媒體資料時輸入的一擷取時間資訊,將從所有場景時間資訊中取出對應擷取時間資訊的至少一第一目標場景時間;以及,由一場景伺服設備取得第一目標場景時間與媒體資料與場景時間資訊,並將第一目標場景時間比對各場景時間資訊,以從媒體資料取出複數個局部場景片段以形成一媒體區段資料。
此外,本發明亦揭露一種記錄媒體,其儲存一電子裝置可讀取之程式碼。當電子裝置讀取該程式碼時執行一場景的片段建構方法。此方法已如前所述。
本發明之特點係在於,其它使用者的終端裝置僅需透過場景伺服設備即得取得使用者想分享的媒體區段資料,不但提升媒體分享的明確性,而且其它使用者不需耗費較多的時間從媒體資料找尋所需視像場景。其次,其它使用者不需費心於媒體資料的時間軸控制作業,即可直接取得使用者分享的媒體區段資料,不但簡化影像控制的複雜性,亦避免其它使用者不易拖曳軸閂至需求定點,導致無法取得媒體區段資料的操作性困擾。其三,使用者不需特定的媒體擷取程式或軟體即能提供想要分享媒體區段。
茲配合圖式將本發明較佳實施例詳細說明如下。
請參照圖1繪示本發明實施例之場景的片段建構系統
架構示意圖。此系統得以應用於具媒體播放能力的裝置、設備或系統,配置的型態並不設限。此場景的片段建構系統包括客戶端(Client Side)與伺服端(Server Side),此兩端的設備、裝置是透過網路(Network)連接。伺服端包括一媒體提供設備10(Media Supply Equipment)、一描述伺服設備20(Metadata Server)與一場景伺服設備30(Scene Server)。客戶端包括一個以上的終端裝置(End Device),其是使用者的電子裝置,如個人電腦(Personal Computer,PC)、筆記型電腦(NoteBook)、平板電腦(Tablet PC)、智慧型手機(Smart Phone)、數位機上盒(Set-Top Box,STB)…等具有供使用者操控的人機介面與連接網路能力的電子裝置。於此例,以一第一終端裝置40進行說明。
媒體提供設備10用以提供一媒體資料11(Media data)。此媒體資料11可為整體的影像、音訊或影音資料,或是即時傳輸的串流資料(Stream Data)。媒體提供設備10可為與描述伺服設備20及場景伺服設備30同屬一處的設備,或是為相異地點的第三方設備(Third-Party Equipment),並不設限。媒體提供設備10輸出媒體資料11的模式包括:廣播(Broadcast)、寬頻放送(Broadband)、有線傳輸(如Community Antenna Television,Community Antenna Television,Cable Television,CATV)、網路協定傳輸(Internet Protocol Television,IPTV)…等有線、無線的資料傳輸方式,亦不設限。
此媒體提供設備10包括具媒體供給能力的硬體、或是軟體與硬體結合的單元、組件、裝置、設備與系統等至少一種以上型態的組成。媒體資料11是由多個場景片段(Scene)所組成。媒體資料11包括多個不同內容的場景片段,如媒體資料11為影像資料(Image Data)時,影像資料即具有標的、場景、人物…等一種以上內容的影像框(Image Frame)。又如媒體資料11為音訊資料(Voice Data),音訊資料即具有高音、低音、說話聲、音樂聲…等一種以上內容的音訊框(Voice Frame)。
描述伺服設備20取得此媒體資料11時,會提供對應媒體資料11之播放內容的場景時間資訊21。場景時間資訊21是對媒體資料11,或媒體資料11包括場景片段的播放時間點、甚至於播放內容進行詮釋的註解資料,例如場景片段播放內容的簡述、播放時間、標題…等相類似對場景片段進一步解說的資料。此例中,各場景時間資訊21是記錄其對應場景片段的播放時間。而場景時間資訊21的提供方式如下:(1)由描述伺服設備20直接依據媒體資料11的播放內容進行場景時間資訊21的建構;(2)從外部裝置取得此媒體資料11對應的場景時間資訊21。
此第一終端裝置40包括供使用者輸入資料的資料輸入介面,亦具播放媒體的能力。而第一終端裝置40介面的呈現端視設計人員的需求而定,並不設限。當第一終端裝置40播放媒體資料11時,可利用第一終端裝置40用輸入
一擷取時間資訊41。擷取時間資訊41是指媒體資料11正播放區段對應的時間點或是時間間隔。第一終端裝置40會依此擷取時間資訊41,從所有的場景時間資訊21中取出至少一第一目標場景時間42,並將其輸出至場景伺服設備30。此(或此等)第一目標場景時間42記錄的播放時間係匹配擷取時間資訊41。
場景伺服設備30會取得第一目標場景時間42、媒體資料11與場景時間資訊21,但媒體資料11的取得來源是描述伺服設備20或是媒體提供設備10。場景伺服設備30會將第一目標場景時間42與各場景時間資訊21相比對,並依據比對結果從媒體資料11中取出局部場景片段32,將此等局部場景片段32形成一媒體區段資料31。此媒體區段資料31即得以透過網路而被分享至其它終端裝置。
然而,依據擷取時間資訊41包括的資料類型,第一終端裝置40與場景伺服設備30亦有不同的施行動作。說明如下:
(1)每一場景時間資訊21儲存其對應的局部場景片段32的播放時間。擷取時間資訊41包括一媒體記錄起始時間與一媒體記錄結束時間。第一終端裝置40比對擷取時間資訊41與各場景時間資訊21時,取得播放時間記錄為媒體記錄起始時間與媒體記錄結束時間之間的第一目標場景時間42,並將第一目標場景時間42輸出至場景伺服設備30,供場景伺服設備30形成媒體區段資料31
(2)場景伺服設備30依據各場景時間資訊21的記錄資訊,將各場景時間資訊21分類,再依據分類結果自媒體資料11劃分出複數個場景片段資料33。擷取時間資訊41包括一個時間點資料,第一終端裝置40會將包括此時間點資料的第一目標場景時間42傳輸至場景伺服設備30。場景伺服設備30比對時間點資料與各場景片段資料33的播放始末時間,以取出播放時間包括上述時間點資料的一目標場景片段資料33,以形成媒體區段資料31。
更進一步,場景伺服設備30依據各場景時間資訊21的播放內容,取得各場景時間資訊21的資料相依賴關係、或是資料屬性的類別進行場景時間資訊21的分類,並依據此分類結果劃分出複數個場景片段資料33。場景伺服設備30會依據各場景時間資訊21的資料相依性、資料屬性與資料層次關係,將各場景片段資料33建構為一媒體播放樹結構。當場景伺服設備30取得第一目標場景時間42時,會依據第一目標場景時間42與所有場景時間資訊21的比對結果,從媒體播放樹結構擷取出相關的場景片段資料33,以形成媒體區段資料31。
然而,場景片段、場景時間資訊、媒體播放樹結構、播放媒體…等擷取結果,其得以被儲存場景伺服設備30中,以供次回媒體區段資料31提供作業時使用。更甚者,經過場景片段提供作業所建構而成的媒體區段資料31,在分享至其它終端裝置後,亦得以直接儲存於其它終端裝
置,以供其播放軟/硬體直接取用與播放。
請參照圖2繪示本發明實施例之媒體區段資料更新的資料流向示意圖。此系統更包括一第二終端裝置50(Second End Device)。此例中,場景時間資訊21亦記載媒體區段資料31(或局部場景片段32、或場景片段資料33)的播放內容。
與第一終端裝置40運作相同,第二終端裝置50亦得以取得媒體資料11與場景時間資訊21。且另一使用者可透過第二終端裝置50的控制介面,於播放媒體資料11時輸入對應媒體資料播放的一擷取時間資訊51。第二終端裝置50會依此擷取時間資訊51,從所有的場景時間資訊21中取出至少一第二目標場景時間52,並將其輸出至場景伺服設備30。此(或此等)第二目標場景時間52記錄的播放時間係匹配擷取時間資訊51。
當場景伺服設備30取得第二目標場景時間52時,若判斷第一目標場景時間42與第二目標場景時間52記錄的媒體播放內容為相同或等義,而媒體播放時間為相異時,場景伺服設備30會依據第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間來設定一播放修正時間,以從媒體資料11中擷取播放時間處於播放修正時間內的複數個調整片段,更新媒體區段資料31。
其中,播放修正時間為第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間長度的聯集或交集。亦
或是,播放修正時間的起始時間為第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間之起始時間的平均值;播放修正時間的結束時間為第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間之結束時間的平均值。或者,為其它相關或相類似的設定方式,並不以上述設定方式為限,端視設計人員之需求而定。
請參閱圖3繪示本發明實施例之場景的片段建構方法的流程示意圖。請配置參閱圖1至圖2以利於了解。此方法流程如下:由一媒體提供設備10提供一媒體資料11(步驟S110)。如前所述,媒體提供設備10提供的媒體資料11可為整體的影像、音訊或影音資料,或是即時傳輸的串流資料(Stream Data)。媒體資料11傳輸模式包括;廣播、寬頻放送、有線傳輸、網路協定傳輸…等有線、無線的資料傳輸方式。
由一描述伺服設備20接收媒體資料11,並提供對應媒體資料11的播放場景的場景時間資訊21(步驟S120)。如前所述,場景時間資訊21的提供方式如:(1)由描述伺服設備20直接依據媒體資料11的播放內容進行場景時間資訊21的建構;(2)從外部裝置取得此媒體資料11對應的場景時間資訊21。
由一第一終端裝置40取得媒體資料11與場景時間資訊21,並依據播放媒體資料11時輸入的一擷取時間資訊
41,從場景時間資訊21中取出對應擷取時間資訊41的至少一第一目標場景時間42(步驟S130)。此步驟中,依據擷取時間資訊41記錄的資料類型之不同,第一終端裝置40取得第一目標場景時間42的方式亦有所不同。說明如下:
(1)每一場景時間資訊21儲存其對應的場景片段的播放時間。擷取時間資訊41包括一媒體記錄起始時間與一媒體記錄結束時間。當第一終端裝置40比對擷取時間資訊41與各場景時間資訊21時,係取得播放時間記錄為媒體記錄起始時間與媒體記錄結束時間之間的第一目標場景時間42,並將第一目標場景時間42輸出至場景伺服設備30。
(2)場景伺服設備30依據各場景時間資訊21的記錄資訊,將各場景時間資訊21分類,再依據分類結果自媒體資料11劃分出複數個場景片段資料33。擷取時間資訊41包括一個時間點資料,第一終端裝置40會將記錄此時間點資料的第一目標場景時間42傳輸至場景伺服設備30。
由一場景伺服設備30取得第一目標場景時間42、媒體提供設備10提供的媒體資料11與描述伺服設備20提供的場景時間資訊21,並將第一目標場景時間42比對各場景時間資訊21,以依據比對結果從媒體資料11取出複數個局部場景片段32以形成一媒體區段資料31(步驟S140)。
然而,第一終端裝置40傳輸的第一目標場景時間42,依據其記錄的資料不同,場景伺服設備30亦具有不同的作
法。例如:
(1)當第一終端裝置所傳輸的第一目標場景時間42,其記錄的播放時間處於媒體記錄起始時間與媒體記錄結束時間之間,為一場景時間資訊群時。場景伺服設備30會取出此場景時間資訊群對應的局部場景片段32來形成一媒體區段資料31。
(2)當第一終端裝置40所傳輸的第一目標場景時間42,其僅記錄一時間點資料時,場景伺服設備30比對時間點資料與各場景片段資料33的播放始末時間,以取出播放時間包括上述時間點資料的一目標場景片段資料33,以形成媒體區段資料31。
請參閱圖4繪示本發明實施例之媒體播放樹結構的建構流程示意圖。請配合圖1以利於了解。此例中,場景時間資訊21亦記載媒體區段資料31(或局部場景片段32、或場景片段資料33)的播放內容。此方法包括:由場景伺服設備30依據各場景時間資訊21的記錄資訊,取得各場景時間資訊21的資料相依賴關係、或是資料屬性的類別進行場景時間資訊21的分類,並依據此分類結果劃分出複數個場景片段資料33(步驟S210)。
由場景伺服設備30依據各場景時間資訊21的資料相依性、資料屬性與資料層次關係,將各場景片段資料33建構為一媒體播放樹結構(步驟S220)。
故於步驟S140中,當場景伺服設備30會取得第一目標場景時間42時,會依據第一目標場景時間42從媒體播放樹結構擷取出局部場景片段32,以形成媒體區段資料31。
請參閱圖5繪示本發明實施例之媒體區段資料更新方法流程示意圖,請配合圖2以利於了解。此方法適用於場景伺服設備30取得第一目標場景時間42與第二目標場景時間52,流程包括:當場景伺服設備30取得第二目標場景時間52時,判斷第一目標場景時間42與第二目標場景時間52記錄的媒體播放內容是否為相同或等義,媒體播放時間是否為相異(步驟S310)。
由場景伺服設備30依據判斷結果,決定是否利用第一目標場景時間42與第二目標場景時間52記錄的媒體播放時間來設定一播放修正時間,及從媒體資料11中擷取播放時間處於播放修正時間內的複數個調整片段,更新媒體區段資料31(步驟S320)。而播放修正時間的設定方式如前所述,於此不再贅述。
請參閱圖6至圖8繪示本發明實施例之一媒體控制的情境示意圖。於此,媒體資料11以一籃球比賽的錄製影像進行說明。
如圖6繪示本發明實施例之一媒體層次示意圖。籃球比賽的錄製影像可以劃分出不同影像層次。層次最高者,
是整個比賽的錄像;其次為各節次的錄像;再次為特寫鏡頭的錄像。整個錄像是由許多場景片段(為前述的局部場景片段32或場景片段資料33)所組成,且與場景時間資訊21對應。
如圖7繪示本發明實施例之媒體區段資料31的時間點比對示意圖。此例中,使用者透過第一終端裝置40觀看媒體資料11。當使用者觀看到一特定影像,如「精彩得分影像」,使用者即對此「精彩得分影像」進行標記。標記方式可為擷取時間資訊41(即畫面的起始時間與結束時間)、標記符號(對播放的場景片段加入符號註記)或是時間點註記等任一種。第一終端裝置40即將被標記資料對應的第一目標場景時間42傳輸至場景伺服設備30,場景伺服設備30即取出對應第一目標場景時間42的場景片段資料33(亦或是傳輸相關的局部場景片段),形成分享於其它終端裝置的媒體區段資料31。以圖13為例,第一終端裝置40標記(如圖13繪示的圓框V字符號)的片段資料為第三場景片段資料33(P3),對應第7秒至第10秒的場景片段。
如圖8繪示本發明實施例之一媒體播放樹結構示意圖。於此,將圖6繪示的影像層次,配合前述的場景時間資訊的資料相依賴關係、或是資料屬性的類別,整個錄製影像的場景時間資訊21或場景片段資料33可被建構為一媒體播放樹結構。
此媒體播放樹結構第一層為整個比賽錄像。第二層為
第一層錄像的分支,為各節次的錄像。第三層為第二層錄像的分支,為雙方於比賽中的特寫鏡頭錄像。第四層為第三層錄像的分支,為雙方的特定球員於比賽中的特寫鏡頭錄像。
然而,場景伺服設備30並不需顧及上述的影像層次,而是依據第一目標場景時間42而取出任一層次的場景片段資料33,以形成上述的媒體區段資料。
綜上所述,乃僅記載本發明為呈現解決問題所採用的技術手段之實施方式或實施例而已,並非用來限定本發明專利實施之範圍。即凡與本發明專利申請範圍文義相符,或依本發明專利範圍所做的均等變化與修飾,皆為本發明專利範圍所涵蓋。
10‧‧‧媒體提供設備
11‧‧‧媒體資料
20‧‧‧描述伺服設備
21‧‧‧場景時間資訊
30‧‧‧場景伺服設備
31‧‧‧媒體區段資料
32‧‧‧局部場景片段
33‧‧‧場景片段資料
40‧‧‧第一終端裝置
41,51‧‧‧擷取時間資訊
42‧‧‧第一目標場景時間
50‧‧‧第二終端裝置
52‧‧‧第二目標場景時間
S110~S140‧‧‧步驟
S210~S220‧‧‧步驟
S310~S320‧‧‧步驟
圖1繪示本發明實施例之場景的片段建構系統架構示意圖;圖2繪示本發明實施例之媒體區段資料更新的資料流向示意圖;圖3繪示本發明實施例之場景的片段建構方法的流程示意圖;圖4繪示本發明實施例之媒體播放樹結構的建構流程示意圖;圖5繪示本發明實施例之媒體區段資料更新方法流程示意
圖;圖6繪示本發明實施例之一媒體層次示意圖;圖7繪示本發明實施例之媒體區段資料的時間點比對示意圖;以及圖8繪示本發明實施例之一媒體播放樹結構示意圖。
S110~S140‧‧‧步驟
Claims (16)
- 一種場景的片段建構系統,其包括:一媒體提供設備,用以提供一媒體資料;一描述伺服設備,用以接收該媒體提供設備提供之該媒體資料,以提供對應該媒體資料之播放場景的複數個場景時間資訊並輸出,其中每一該場景時間資訊儲存其對應之局部場景片段的播放時間;一第一終端裝置,用以取得該媒體提供設備提供之該媒體資料與該描述伺服設備提供之該等場景時間資訊,並用以在播放該媒體資料時輸入對應該媒體資料播放的一擷取時間資訊,該擷取時間資訊包括一媒體記錄起始時間與一媒體記錄結束時間,該第一終端裝置比對該擷取時間資訊與各該場景時間資訊時,將播放時間記錄為該媒體記錄起始時間與該媒體記錄結束時間之間的至少一第一目標場景時間輸出;以及一場景伺服設備,用以取得各該第一目標場景時間、該媒體資料與該等場景時間資訊,並將各該第一目標場景時間比對該等場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料。
- 如申請專利範圍第1項所述場景的片段建構系統,其中每一該場景時間資訊儲存其對應之該局部場景片段的播放內容,該場景伺服設備依據各該場景時間資訊的記錄資訊,將各該場景時間資訊分類,並依據分類結果自 該媒體資料劃分出複數個場景片段資料,該擷取時間資料包括一時間點資料,該第一終端裝置輸出記錄該時間點資料的該至少一第一目標場景時間,該場景伺服設備比對該時間點資料與各該場景片段資料的播放始末時間,以取出至少一目標場景片段資料,以形成該媒體區段資料。
- 如申請專利範圍第1項所述場景的片段建構系統,其中更包括一第二終端裝置用以建立至少一第二目標場景時間,當該場景伺服設備取得該至少一第二目標場景時間,並判斷該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放內容為相同或等義,媒體播放時間為相異時,依據該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間以設定一播放修正時間,以從該媒體資料中擷取播放時間處於該播放修正時間內的複數個調整片段,更新該媒體區段資料。
- 如申請專利範圍第3項所述場景的片段建構系統,其中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的聯集。
- 如申請專利範圍第3項所述場景的片段建構系統,其中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的交集。
- 如申請專利範圍第3項所述場景的片段建構系統,其中該播放修正時間的起始時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間之起始時間的平均值,該播放修正時間的結束時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間之結束時間的平均值。
- 如申請專利範圍第1項所述場景的片段建構系統,其中每一該場景時間資訊儲存其對應之該局部場景片段的播放內容,該場景伺服設備依據各該局部場景片段的播放內容,將各該場景時間資訊分類,並依據分類結果自該媒體資料劃分出複數個場景片段資料,並依據各該場景時間資訊的資料相依性、資料屬性與資料層次關係,將各該場景片段資料建構為一媒體播放樹結構。
- 如申請專利範圍第7項所述場景的片段建構系統,其中當該場景伺服設備會取得該至少一第一目標場景時間時,會依據該至少一第一目標場景時間從該媒體播放樹結構擷取出該等局部場景片段,以形成該媒體區段資料。
- 一種場景的片段建構方法,其包含:由一媒體提供設備提供一媒體資料;由一描述伺服設備接收該媒體資料,並提供對應該媒體資料之播放場景的複數個場景時間資訊,其中每一該場景時間資訊儲存其對應之局部場景片段的播放時間; 由一第一終端裝置取得該媒體資料與該等場景時間資訊,並依據播放該媒體資料時輸入的一擷取時間資訊,該擷取時間資訊包括一媒體記錄起始時間與一媒體記錄結束時間,從該等場景時間資訊中取出播放時間記錄為該媒體記錄起始時間與該媒體記錄結束時間之間的至少一第一目標場景時間;以及由一場景伺服設備取得該至少一第一目標場景時間、該媒體提供設備提供之該媒體資料與該描述伺服設備提供之該等場景時間資訊,並將該至少一第一目標場景時間比對各該場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料。
- 如申請專利範圍第9項所述場景的片段建構方法,其中每一該場景時間資訊儲存其對應之該局部場景片段的播放內容,該場景伺服設備依據各該場景時間資訊的記錄資訊,將各該場景時間資訊分類,並依據分類結果自該媒體資料劃分出複數個場景片段資料,該擷取時間資訊包括一時間點資料,該第一終端裝置係輸出記錄該時間點資料之該至少一第一目標場景時間至該場景伺服設備,而將該至少一第一目標場景時間比對各該場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料之該步驟包括:由該場景伺服設備比對該時間點資料與各該場景片段資料的播放始末時間,以取出一目標場景片段資 料,以形成該媒體區段資料。
- 如申請專利範圍第9項所述場景的片段建構方法,其中更包括一第二終端裝置用以建立至少一第二目標場景時間,該方法更包括:當該場景伺服設備取得該至少一第二目標場景時間,並判斷該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放內容為相同或等義,媒體播放時間為相異時;由該場景伺服設備依據判斷結果決定是否利用該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間來設定一播放修正時間,以從該媒體資料中擷取播放時間處於該播放修正時間內的複數個調整片段,更新該媒體區段資料。
- 如申請專利範圍第11項所述場景的片段建構方法,其中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的聯集。
- 如申請專利範圍第11項所述場景的片段建構方法,其中該播放修正時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間長度的交集。
- 如申請專利範圍第11項所述場景的片段建構方法,其中該播放修正時間的起始時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放 時間之起始時間的平均值,該播放修正時間的結束時間為該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間之結束時間的平均值。
- 一種記錄媒體,其儲存一電子裝置可讀取之程式碼,當電子裝置讀取該程式碼時執行一場景的片段建構方法,該方法包含下列步驟:由一媒體提供設備提供一媒體資料;由一描述伺服設備接收該媒體資料,並提供對應該媒體資料之播放場景的複數個場景時間資訊,其中每一該場景時間資訊儲存其對應之局部場景片段的播放時間;由一第一終端裝置取得該媒體資料與該等場景時間資訊,並依據播放該媒體資料時輸入的一擷取時間資訊,該擷取時間資訊包括一媒體記錄起始時間與一媒體記錄結束時間,從該等場景時間資訊中取出播放時間記錄為該媒體記錄起始時間與該媒體記錄結束時間之間的至少一第一目標場景時間;以及由一場景伺服設備取得該至少一第一目標場景時間、該媒體提供設備提供之該媒體資料與該描述伺服設備提供之該等場景時間資訊,並將該至少一第一目標場景時間比對各該場景時間資訊,以依據比對結果從該媒體資料取出複數個局部場景片段以形成一媒體區段資料。
- 如申請專利範圍第15項所述記錄媒體,其中更包括一 第二終端裝置用以建立至少一第二目標場景時間,其中,該方法更包括:當該場景伺服設備取得該至少一第二目標場景時間,並判斷該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放內容為相同或等義,媒體播放時間為相異時;由該場景伺服設備依據判斷結果決定是否利用該至少一第一目標場景時間與該至少一第二目標場景時間記錄的媒體播放時間來設定一播放修正時間,以從該媒體資料中擷取播放時間處於該播放修正時間內的複數個調整片段,更新該媒體區段資料。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW101138301A TWI474201B (zh) | 2012-10-17 | 2012-10-17 | Construction system scene fragment, method and recording medium |
CN201210558736.1A CN103780976B (zh) | 2012-10-17 | 2012-12-12 | 场景的片段建构系统及其方法 |
US13/713,948 US9049416B2 (en) | 2012-10-17 | 2012-12-13 | System and method for constructing scene clip, and record medium thereof |
JP2013031950A JP5544030B2 (ja) | 2012-10-17 | 2013-02-21 | 動画シーンのクリップ構成システム、方法および記録メディア |
KR1020130022356A KR101467079B1 (ko) | 2012-10-17 | 2013-02-28 | 신 클립을 구성하기 위한 시스템 및 방법, 및 그 기록매체 |
DE102013102992.2A DE102013102992A1 (de) | 2012-10-17 | 2013-03-22 | Szenenaufbausystem und - verfahren durch Szenenausschnitte sowie deren Aufzeichnungsmedien |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW101138301A TWI474201B (zh) | 2012-10-17 | 2012-10-17 | Construction system scene fragment, method and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201416889A TW201416889A (zh) | 2014-05-01 |
TWI474201B true TWI474201B (zh) | 2015-02-21 |
Family
ID=50383325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW101138301A TWI474201B (zh) | 2012-10-17 | 2012-10-17 | Construction system scene fragment, method and recording medium |
Country Status (5)
Country | Link |
---|---|
US (1) | US9049416B2 (zh) |
JP (1) | JP5544030B2 (zh) |
CN (1) | CN103780976B (zh) |
DE (1) | DE102013102992A1 (zh) |
TW (1) | TWI474201B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10923157B2 (en) * | 2015-07-17 | 2021-02-16 | ScoreBreak, LLC | System and method for event data collection and video alignment |
WO2021010518A1 (ko) * | 2019-07-16 | 2021-01-21 | 엘지전자 주식회사 | 디스플레이 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200635372A (en) * | 2004-12-11 | 2006-10-01 | Samsung Electronics Co Ltd | Information storage medium including meta data for multi-angle title, and apparatus and method for reproducing the same |
CN101778260A (zh) * | 2009-12-29 | 2010-07-14 | 公安部第三研究所 | 一种基于结构化描述的视频监控管理方法及系统 |
US20110234847A1 (en) * | 2007-05-24 | 2011-09-29 | Tessera Technologies Ireland Limited | Image Processing Method and Apparatus |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020120925A1 (en) * | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
WO1999003273A1 (fr) * | 1997-07-11 | 1999-01-21 | Mitsubishi Denki Kabushiki Kaisha | Appareil de lecture de films et appareil permettant de constituer un recueil de films |
GB2354104A (en) * | 1999-09-08 | 2001-03-14 | Sony Uk Ltd | An editing method and system |
JP2002351878A (ja) * | 2001-05-18 | 2002-12-06 | Internatl Business Mach Corp <Ibm> | デジタルコンテンツ再生装置、データ取得システム、デジタルコンテンツ再生方法、メタデータ管理方法、電子透かし埋め込み方法、プログラム及び記録媒体 |
JP2003304523A (ja) * | 2002-02-08 | 2003-10-24 | Ntt Docomo Inc | 情報配信システム、情報配信方法、情報配信サーバ、コンテンツ配信サーバ及び端末 |
EP2200315A1 (en) * | 2002-04-12 | 2010-06-23 | Mitsubishi Denki Kabushiki Kaisha | Hint information describing method for manipulating metadata |
WO2004100535A1 (en) * | 2003-05-02 | 2004-11-18 | Allan Robert Staker | Interactive system and method for video compositing |
JP2006319918A (ja) * | 2005-05-16 | 2006-11-24 | Infonext:Kk | コンテンツ配信制御システム、情報端末、コンテンツ配信制御装置、コンテンツ配信制御方法、およびプログラム |
JP5248802B2 (ja) * | 2006-06-16 | 2013-07-31 | カシオ計算機株式会社 | 動画符号化装置および動画符号化方法と、動画復号化装置および動画復号化方法と、動画記録装置 |
US20090313324A1 (en) * | 2008-06-17 | 2009-12-17 | Deucos Inc. | Interactive viewing of media content |
US8519820B2 (en) * | 2008-09-02 | 2013-08-27 | Apple Inc. | Systems and methods for saving and restoring scenes in a multimedia system |
-
2012
- 2012-10-17 TW TW101138301A patent/TWI474201B/zh active
- 2012-12-12 CN CN201210558736.1A patent/CN103780976B/zh active Active
- 2012-12-13 US US13/713,948 patent/US9049416B2/en active Active
-
2013
- 2013-02-21 JP JP2013031950A patent/JP5544030B2/ja active Active
- 2013-03-22 DE DE102013102992.2A patent/DE102013102992A1/de not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200635372A (en) * | 2004-12-11 | 2006-10-01 | Samsung Electronics Co Ltd | Information storage medium including meta data for multi-angle title, and apparatus and method for reproducing the same |
US20110234847A1 (en) * | 2007-05-24 | 2011-09-29 | Tessera Technologies Ireland Limited | Image Processing Method and Apparatus |
CN101778260A (zh) * | 2009-12-29 | 2010-07-14 | 公安部第三研究所 | 一种基于结构化描述的视频监控管理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
DE102013102992A1 (de) | 2014-04-17 |
TW201416889A (zh) | 2014-05-01 |
JP2014082734A (ja) | 2014-05-08 |
CN103780976B (zh) | 2017-04-12 |
KR20140049446A (ko) | 2014-04-25 |
JP5544030B2 (ja) | 2014-07-09 |
US9049416B2 (en) | 2015-06-02 |
CN103780976A (zh) | 2014-05-07 |
US20140105570A1 (en) | 2014-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11399217B2 (en) | Method and apparatus for creating and sharing customized multimedia segments | |
TWI474200B (zh) | Scene clip playback system, method and recording medium thereof | |
US9378286B2 (en) | Implicit user interest marks in media content | |
US20140052696A1 (en) | Systems and methods for visual categorization of multimedia data | |
US20130290845A1 (en) | Method and system for sending video edit information | |
US8805866B2 (en) | Augmenting metadata using user entered metadata | |
CN106471498A (zh) | 用于使用元数据和使用数据分析的过滤技术的系统和方法 | |
US20220030329A1 (en) | Systems and methods for discovery of, identification of, and ongoing monitoring of viral media assets | |
JP4710000B2 (ja) | 番組提示システム | |
TWI474201B (zh) | Construction system scene fragment, method and recording medium | |
JP5306550B2 (ja) | 映像解析情報送信装置、映像解析情報配信システム及び配信方法、映像視聴システム及び映像視聴方法 | |
JP2009194767A (ja) | ビデオ評価装置及び方法、並びにビデオ提供装置 | |
TWI497959B (zh) | Scene extraction and playback system, method and its recording media | |
US9084011B2 (en) | Method for advertising based on audio/video content and method for creating an audio/video playback application | |
JP2013098640A (ja) | 映像解析情報アップロード装置及び映像視聴システム及び方法 | |
US20160179803A1 (en) | Augmenting metadata using commonly available visual elements associated with media content | |
JP2012089186A (ja) | コンテンツ管理装置及びコンテンツ再生装置 | |
TW201421985A (zh) | 場景片段傳輸系統、方法及記錄媒體 | |
KR101467079B1 (ko) | 신 클립을 구성하기 위한 시스템 및 방법, 및 그 기록매체 | |
TWI497983B (zh) | Internet video playback system and its method | |
TW201528804A (zh) | 媒體推薦系統及其方法 | |
JP2016174241A (ja) | コンテンツ処理装置、コンテンツ処理方法、およびプログラム | |
JP2007158978A (ja) | デジタルコンテンツ受信装置及び表示方法 | |
JP2008160219A (ja) | コンテンツ再生装置及びその制御方法、プログラム、記憶媒体 |