JP5544030B2 - 動画シーンのクリップ構成システム、方法および記録メディア - Google Patents

動画シーンのクリップ構成システム、方法および記録メディア Download PDF

Info

Publication number
JP5544030B2
JP5544030B2 JP2013031950A JP2013031950A JP5544030B2 JP 5544030 B2 JP5544030 B2 JP 5544030B2 JP 2013031950 A JP2013031950 A JP 2013031950A JP 2013031950 A JP2013031950 A JP 2013031950A JP 5544030 B2 JP5544030 B2 JP 5544030B2
Authority
JP
Japan
Prior art keywords
time
scene
media
moving image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013031950A
Other languages
English (en)
Other versions
JP2014082734A (ja
Inventor
張嘉祥
周澤民
陳靜芳
黄珮▲ブン▼
Original Assignee
財團法人資訊工業策進會
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人資訊工業策進會 filed Critical 財團法人資訊工業策進會
Publication of JP2014082734A publication Critical patent/JP2014082734A/ja
Application granted granted Critical
Publication of JP5544030B2 publication Critical patent/JP5544030B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/437Interfacing the upstream path of the transmission network, e.g. for transmitting client requests to a VOD server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は動画シーンのクリップ構成システム、方法および記録メディアに関し、特に動画シーンの時間情報により所望の動画シーンのクリップを取得する動画シーンのクリップ構成システム、方法および記録メディアに関する。
従来技術において、使用者は端末装置によりネットワークまたはメディア供給装置から任意のメディアデータを取得するとともに再生することができる。しかしながら、ウェブサイトにおいては一般的にはある見所シーンの再生時間の説明については、単に文字の説明のみで、このメディアデータにおけるこの見所シーンの再生時点が分かるようにしているに過ぎない。
しかしながら、メディアデータの多くが採用しているのは直線的な再生方式である。動画再生ソフトウェアは再生メディアデータに対応する時間軸を提供している。使用者は見所シーンの再生時点が分かったとき、メディアデータの時間軸の位置をクリックするか、または時間軸上のスライダをドラッグするだけで、見所シーンの再生時間を取得して鑑賞するよう試みることができる。
しかし、もしメディアデータの再生内容および再生時点が不明な場合、使用者は多くの時間を費やして所望の動画シーンを探し出さなければならない。
次に、スライダをドラッグする精度が時間軸の長さを決めるため、もし時間軸が短すぎると、使用者がスライダを所望のポイントにまでドラッグするのが難しくなり、反対に使用者の操作上での手間が増えてしまう。
さらに、使用者が視聴したいメディアデータをクリップとして共有したい場合には、メディアのピックアッププログラムまたはソフトウェアでメディアを切り取らなければならないが、ソフトウェアの取得および使用はいずれも使用者にとってはある程度の手間がかかってしまう。
したがって、メディアデータの共有の精度を如何に高め、かつメディアデータの共有の複雑度を如何に簡素化するかということは、製造業者が思考を巡らせる課題となっている。
上記課題を解決するために、本発明では、動画シーン時間情報をメディアセグメントデータの選択根拠とする動画シーンのクリップ構成システム、方法およびその記録メディアを開示している。
本発明にて開示する動画シーンのクリップ構成システムは、メディア提供手段と、メタデータサーバ手段と、動画シーンサーバ手段と、第1の端末装置とを備えている。
このメディア提供手段はメディアデータを提供するためのものである。メタデータサーバ手段はメディアデータを受け取って、メディアデータの再生シーンに対応する複数の動画シーン時間情報を提供するためのものである。
第1の端末装置は、メディア提供手段が提供したメディアデータとメタデータサーバ手段が提供した動画シーン時間情報を取得するとともに、メディアデータを再生するときにメディアデータ再生に対応するピックアップ時間情報を入力して、取得した動画シーン時間情報中から、ピックアップ時間情報に一致する少なくとも一つの第1の目標シーン時間を取り出すとともに、動画シーンサーバ手段に出力するためのものである。
動画シーンサーバ手段は第1の目標シーン時間、メディアデータおよびその対応する動画シーン時間情報を取得するとともに、各々の第1の目標シーン時間と取得したすべての動画シーン時間情報とを比較して、比較結果に基づいてメディアデータから複数のピンポイントシーンのクリップを取り出して、メディアセグメントデータを形成するためのものである。
本発明で開示する動画シーンのクリップ構成方法は、メディア提供手段メディアデータを提供するステップと、メタデータサーバ手段メディアデータを受け取るとともに、メディアデータの再生シーンに対応する複数の動画シーン時間情報を提供するステップと、第1の端末装置メディアデータと動画シーン時間情報を取得するとともに、メディアデータを再生するときに入力したピックアップ時間情報に基づいて、すべての動画シーン時間情報中からピックアップ時間情報に対応する少なくとも一つの第1の目標シーン時間を取り出すステップと、動画シーンサーバ手段第1の目標シーン時間、メディアデータおよび動画シーン時間情報を取得するとともに、第1の目標シーン時間と各々の動画シーン時間情報とを比較して、メディアデータから複数のピンポイントシーンのクリップデータを取り出して、メディアセグメントデータを形成するステップと、を含む。
また、本発明では、電子装置で読み取り可能なソースコードを記憶する記録メディアも開示している。電子装置がソースコードを読み取るときには、動画シーンのクリップ構成方法を実行する。この方法はすでに上記している。
本発明の特長は、その他の使用者の端末装置では動画シーンサーバ手段を通じるのみで使用者が共有したメディアセグメントデータを取得するものであり、メディア共有の明確性が向上するばかりでなく、その他の使用者は多くの時間を費やすことなくメディアデータから所望の動画シーンを探し出すことができる。
次に、その他の使用者はメディアデータの時間軸を操作する手間をかけずとも、使用者が共有したいメディアセグメントデータを直接取得することができ、動画操作の複雑さを簡素化して、その他使用者がスライダを所望のポイントにまでドラッグするのが難しくなることから、メディアセグメントデータを取得できないという操作上での面倒をなくすことができる。
さらに、使用者は特定のメディアのピックアッププログラムまたはソフトウェアを必要とせずとも、共有したいメディアセグメントを提供することができる。
本発明の実施例における動画シーンのクリップ構成システムの構成概略図。 本発明の実施例におけるメディアセグメントデータを更新するときのデータの流れを示す概略図。 本発明の実施例における動画シーンのクリップ構成方法の概略的なフローチャート。 本発明の実施例におけるメディア再生ツリー構造の構成の概略的なフローチャート。 本発明の実施例におけるメディアセグメントデータの更新方法の概略的なフローチャート。 本発明の実施例におけるメディア階層の概略図。 本発明の実施例におけるメディアセグメントデータの時点比較の概略図。 本発明の実施例におけるメディア再生ツリーの構造概略図。
図面を合わせて、本発明の好ましい実施例を以下の通り詳細に説明する。
本発明の実施例における動画シーンのクリップ構成システムの構成概略図を示す図1を参照する。
このシステムはメディア再生機能を備えた装置、設備またはシステムに応用することができ、配置の形態には制限はない。この動画シーンのクリップ構成システムは顧客側(Client Side)とサーバ側(Server Side)とを備えており、この両側の設備、装置はネットワーク(Network)を介して接続されている。サーバ側はメディア提供手段10(Media Supply Equipment)と、メタデータサーバ手段20(Metadata Server)と、動画シーンサーバ手段30(Scene Server)とを備えている。
顧客側は一台以上の端末装置(End Device)を備えており、この装置は使用者の電子装置であって、例えばパーソナルコンピュータ(Personal Computer、PC)、ノート型パソコン(NoteBook)、タブレット型パソコン(Tablet PC)、多機能携帯電話機(Smart Phone)、セットトップボックス(Set−Top Box、STB)など使用者が操作するインターフェイスとネットワーク接続機能を備えた電子装置である。この例においては、第1の端末装置40で説明を行う。
メディア提供手段10はメディアデータ11(Media Data)を提供するためのものである。このメディアデータ11は全体的な画像、音声または画像・音声データとするか、またはリアルタイムに伝送されるストリームデータ(Stream Data)とすることができる。
メディア提供手段10はメタデータサーバ手段20および動画シーンサーバ手段30と同じ位置にある設備、または場所の異なるサードパーティ設備(Third−Party Equipment)としてもよく、制限はない。
メディア提供手段10がメディアデータ11を出力する形態には、ブロードキャスト配信(Broadcast)、ブロードバンド配信(Broadband)、有線配信(例えばCommunity Antenna Television、Cable Television、CATV)、インターネットプロトコルテレビジョン(Internet Protocol Television、IPTV)など有線、無線のデータ伝送方式が含まれるものの、またこれに限定されるものではない。
このメディア提供手段10はメディア供給機能を備えたハードウェア、またはソフトウェアおよびハードウェアと結合されたユニット、アセンブリ、装置、設備およびシステムなどの少なくとも一つ以上の形態の組み合わせを含む。メディアデータ11は複数の動画シーン(Scene)からなる。
メディアデータ11は内容の異なる複数の動画シーンを含み、例えばメディアデータ11が画像データ(Image Data)である場合、画像データは目標、シーン、人物などの一種類以上の内容を有する画像フレーム(Image Flame)となる。また例えばメディアデータ11が音声データ(Voice Data)である場合、音声データは高音、低音、談話音声、音楽音声などの一種類以上の内容を有する音声フレーム(Voice Flame)となる。
メタデータサーバ手段20がこのメディアデータ11を取得したとき、メディアデータ11の再生内容に対応する動画シーン時間情報21を提供する。動画シーン時間情報21はメディアデータ11、またはメディアデータ11が含む動画シーンの再生時点、場合によっては再生内容に対して解説する解説データであり、これは例えば動画シーンの再生内容の要約、再生時間、タイトルなど動画シーンに対するさらに詳しい解説のデータである。
この例において、各々の動画シーン時間情報21は動画シーンに対応する再生時間を記録したものである。そして動画シーン時間情報21の提供方式は、(1)メタデータサーバ手段20により直接メディアデータ11の再生内容に基づいて動画シーン時間情報21の構成を行う、(2)外部装置からこのメディアデータ11の対応する動画シーン時間情報21を取得する、というものである。
第1の端末装置40は使用者がデータを入力するのに供されるデータ入力インターフェイスを備え、しかもメディアを再生する機能も備えている。ここで、第1の端末装置40のインターフェイスの実現形態は設計者の需要に応じて決定するものであり、限定はない。
第1の端末装置40がメディアデータ11を再生するとき、第1の端末装置40を用いてピックアップ時間情報41を入力する。ピックアップ時間情報41はメディアデータ11の再生中セグメントに対応する時点または時間間隔を表している。
第1の端末装置40はこのピックアップ時間情報41に基づいて、すべての動画シーン時間情報21中から少なくとも一つの第1の目標シーン時間42を取り出すとともに、これを動画シーンサーバ手段30に出力する。この(またはこれらの)第1の目標シーン時間42が記録する再生時間はピックアップ時間情報41に一致する。
動画シーンサーバ手段30は第1の目標シーン時間42、メディアデータ11および動画シーン時間情報21を取得するが、メディアデータ11の取得元はメタデータサーバ手段20またはメディア提供手段10である。
動画シーンサーバ手段30は第1の目標シーン時間42と各々の動画シーン時間情報21とを比較するとともに、比較結果に基づいてメディアデータ11中からピンポイントシーンのクリップ32を取り出し、これらピンポイントシーンのクリップ32でメディアセグメントデータ31を形成する。このメディアセグメントデータ31はネットワークを通じてその他端末装置により共有され得る。
しかしながら、ピックアップ時間情報41が含むデータタイプに応じて、第1の端末装置40および動画シーンサーバ手段30も実行動作が異なる。下記に説明する。
(1)各々の動画シーン時間情報21がその対応するピンポイントシーンのクリップ32の再生時間を記憶する。ピックアップ時間情報41はメディア記録開始時間とメディア記録終了時間とを含む。
第1の端末装置40がピックアップ時間情報41と各々の動画シーン時間情報21とを比較するとき、再生時間をメディア記録開始時間とメディア記録終了時間との間として記録した第1の目標シーン時間42を取得するとともに、動画シーンサーバ手段30がメディアセグメントデータ31を形成するために、第1の目標シーン時間42を動画シーンサーバ手段30に出力する。
(2)動画シーンサーバ手段30は各々の動画シーン時間情報21の記録情報に基づいて、各々の動画シーン時間情報21を分類し、さらに分類結果に基づいてメディアデータ11から複数の動画シーンクリップデータ33を分割する。
ピックアップ時間情報41は時点データを含んでおり、第1の端末装置40はこの時点データを含む第1の目標シーン時間42を動画シーンサーバ手段30に伝送する。動画シーンサーバ手段30が時点データと各々の動画シーンクリップデータ33の再生終了時間とを比較して、再生時間が上記時点データを含む動画シーンクリップデータ33を取り出して、メディアセグメントデータ31を形成する。
さらに、動画シーンサーバ手段30は各々の動画シーン時間情報21の再生内容に基づいて、各々の動画シーン時間情報21のデータの依存関係性、またはデータ属性の種別を取得して動画シーン時間情報21の分類を行うとともに、この分類結果に基づいて複数の動画シーンクリップデータ33を分割する。
動画シーンサーバ手段30は各々の動画シーン時間情報21のデータの依存関係性、データ属性およびデータ階層の関係に基づいて、各々の動画シーンクリップデータ33をメディア再生ツリー構造として構成する。動画シーンサーバ手段30が第1の目標シーン時間42を取得したとき、第1の目標シーン時間42と動画シーン時間情報21との比較結果に基づいて、メディア再生ツリー構造から関連する動画シーンクリップデータ33をピックアップして、メディアセグメントデータ31を形成する。
しかしながら、動画シーンクリップ、動画シーン時間情報、メディア再生ツリー構造、再生メディアなどのピックアップ結果は、動画シーンサーバ手段30内に記憶されて、次回のメディアセグメントデータ31の提供作業時のために使用される。
さらには、動画シーンクリップの提供作業により構成されてなるメディアセグメントデータ31は、その他の端末装置にて共有されたのち、その再生ソフトウェア/ハードウェアで直接取得し再生するように、その他端末装置にも直接記憶される。
本発明の実施例におけるメディアセグメントデータを更新するときのデータの流れを示す概略図を示す図2を参照する。
このシステムでは第2の端末装置50(Second End Device)をさらに備えている。この例において、動画シーン時間情報21にはメディアセグメントデータ31(またはピンポイントシーンのクリップ32、または動画シーンクリップデータ33)の再生内容も記憶されている。
第1の端末装置40の働きと同じく、第2の端末装置50もまたメディアデータ11および動画シーン時間情報21を取得できる。しかも別の使用者は第2の端末装置50の操作インターフェイスを介して、メディアデータ11を再生時にメディアデータ再生に対応するピックアップ時間情報51を入力することができる。
第2の端末装置50はこのピックアップ時間情報51に基づいて、すべての動画シーン時間情報21中から少なくとも一つの第2の目標シーン時間52を取り出すとともに、これを動画シーンサーバ手段30に出力する。この(またはこれらの)第2の目標シーン時間52が記録する再生時間はピックアップ時間情報51に一致する。
動画シーンサーバ手段30が第2の目標シーン時間52を取得したとき、もし第1の目標シーン時間42および第2の目標シーン時間52が記録するメディア再生内容が同一または同義であり、そしてメディア再生時間が相違すると判断した場合、動画シーンサーバ手段30は第1の目標シーン時間42および第2の目標シーン時間52が記録するメディア再生時間に基づいて、再生補正時間を設定して、メディアデータ11中から再生時間が再生補正時間内にある複数の調整クリップをピックアップして、メディアセグメントデータ31を更新する。
このうち、再生補正時間は第1の目標シーン時間42および第2の目標シーン時間52が記録するメディア再生時間の長さの和集合または積集合である。
あるいは、再生補正時間の開始時間は第1の目標シーン時間42および第2の目標シーン時間52が記録するメディア再生時間の開始時間の平均値となり、再生補正時間の終了時間は第1の目標シーン時間42および第2の目標シーン時間52が記録するメディア再生時間の終了時間の平均値となる。
また、その他関連または相似する設定方式は、上記設定方式に限定されず、設計者の需要に応じて決定することができる。
本発明の実施例における動画シーンのクリップ構成方法の概略的なフローチャートを示す図3を参照する。
理解しやすくするために、図1ないし図2を参照されたい。この方法の手順は以下の通りである。
メディア提供手段10によりメディアデータ11を提供する(ステップS110)。上記したように、メディア提供手段10が提供するメディアデータ11は全体の画像、音声または画像・音声データとするか、またはリアルタイムに伝送されるストリームデータ(Stream Data)とすることができる。メディアデータ11の伝送形態には、ブロードキャスト配信、ブロードバンド配信、有線配信、インターネットプロトコルテレビジョンなど有線、無線のデータ伝送方式が含まれる。
メタデータサーバ手段20によりメディアデータ11を受け取るとともに、メディアデータ11の再生シーンに対応する動画シーン時間情報21を提供する(ステップS120)。
上記したように、動画シーン時間情報21の提供方式は、(1)メタデータサーバ手段20により直接メディアデータ11の再生内容に基づいて動画シーン時間情報21の構成を行う、(2)外部装置からこのメディアデータ11の対応する動画シーン時間情報21を取得する、というものである。
第1の端末装置40によりメディアデータ11および動画シーン時間情報21を取得するとともに、メディアデータ11再生時に入力されたピックアップ時間情報41に基づいて、動画シーン時間情報21中からピックアップ時間情報41に対応する少なくとも一つ第1の目標シーン時間42を取り出す(ステップS130)。
このステップにおいて、ピックアップ時間情報41が記録したデータタイプが異なれば、第1の端末装置40が第1の目標シーン時間42を取得する方式もまた異なる。以下の通り説明する。
(1)各々の動画シーン時間情報21がその対応する動画シーンクリップの再生時間を記憶する。ピックアップ時間情報41はメディア記録開始時間とメディア記録終了時間とを含む。第1の端末装置40がピックアップ時間情報41と各々の動画シーン時間情報21とを比較するとき、再生時間をメディア記録開始時間とメディア記録終了時間との間として記録した第1の目標シーン時間42を取得するとともに、第1の目標シーン時間42を動画シーンサーバ手段30に出力する。
(2)動画シーンサーバ手段30は各々の動画シーン時間情報21の記録情報に基づいて、各々の動画シーン時間情報21を分類し、さらに分類結果に基づいてメディアデータ11から複数の動画シーンクリップデータ33を分割する。ピックアップ時間情報41は時点データを含んでおり、第1の端末装置40はこの時点データを記録した第1の目標シーン時間42を動画シーンサーバ手段30に伝送する。
動画シーンサーバ手段30により第1の目標シーン時間42、メディア提供手段10が提供するメディアデータ11およびメタデータサーバ手段20が提供する動画シーン時間情報21を取得するとともに、第1の目標シーン時間42と各々の動画シーン時間情報21とを比較することで、比較結果に基づいてメディアデータ11から複数のピンポイントシーンのクリップ32を取り出して、メディアセグメントデータ31を形成する(ステップS140)。
しかしながら、第1の端末装置40が伝送する第1の目標シーン時間42は、その記録するデータが異なれば、動画シーンサーバ手段30もまた方法が異なる。例えば以下のとおりである。
(1)第1の端末装置が伝送する第1の目標シーン時間42にて、その記録する再生時間がメディア記録開始時間とメディア記録終了時間との間にあることが、動画シーン時間情報グループ時間となる。動画シーンサーバ手段30はこの動画シーン時間情報グループの対応するピンポイントシーンのクリップ32を取り出すことでメディアセグメントデータ31を形成する。
(2)第1の端末装置40が伝送する第1の目標シーン時間42にて、時点データしか記録していない場合、動画シーンサーバ手段30は時点データと各々の動画シーンクリップデータ33の再生終了時間とを比較して、再生時間が上記時点データを含む動画シーンクリップデータ33を取り出して、メディアセグメントデータ31を形成する。
本発明の実施例におけるメディア再生ツリー構造の構成の概略的なフローチャートを示す図4を参照する。
理解しやすくするために、図1を合わせて参照されたい。この例においては、動画シーン時間情報21にもメディアセグメントデータ31(またはピンポイントシーンのクリップ32、または動画シーンクリップデータ33)の再生内容が記録されている。この方法は以下を含む。
動画シーンサーバ手段30により各々の動画シーン時間情報21の記録情報に基づいて、各々の動画シーン時間情報21のデータの依存関係性、またはデータ属性の種別を取得して動画シーン時間情報21の分類を行うとともに、この分類結果に基づいて複数の動画シーンクリップデータ33を分割する(ステップS210)。
動画シーンサーバ手段30により各々の動画シーン時間情報21のデータの依存関係性、データ属性およびデータ階層の関係に基づいて、各々の動画シーンクリップデータ33をメディア再生ツリー構造として構成する(ステップS220)。
よってステップS140において、動画シーンサーバ手段30が第1の目標シーン時間42を取得したとき、第1の目標シーン時間42に基づいてメディア再生ツリー構造からピンポイントシーンのクリップ32を取り出すことで、メディアセグメントデータ31を形成する。
本発明の実施例におけるメディアセグメントデータの更新方法の概略的なフローチャートを示す図5を参照する。
理解しやすくするために、図2を合わせて参照されたい。この方法は動画シーンサーバ手段30が第1の目標シーン時間42および第2の目標シーン時間52を取得するものに適用するものであって、その手順には以下のステップが含まれる。
動画シーンサーバ手段30が第2の目標シーン時間52を取得したとき、第1の目標シーン時間42および第2の目標シーン時間52が記録するメディア再生内容が同一または同義であるか、メディア再生時間が異なるかを判断する(ステップS310)。
動画シーンサーバ手段30による判断結果に基づいて、第1の目標シーン時間42および第2の目標シーン時間52が記録するメディア再生時間を利用して再生補正時間を設定するかどうかを決定する。そしてメディアデータ11中から再生時間が再生補正時間内にある複数の調整クリップをピックアップして、メディアセグメントデータ31を更新する(ステップS320)。尚、再生補正時間の設定方式は上記しているため、ここでは別途説明はしない。
本発明の実施例におけるメディア制御の状況概略図を示す図6ないし図8を参照する。
ここでは、メディアデータ11をバスケットボールの試合の録画映像として説明する。
図6は本発明の実施例におけるメディア階層の概略図である。バスケットボールの試合の録画映像は異なる画像階層に分割することができる。
階層が最も高いものは、試合全体の録画映像であり、その次が各々のセクションの録画映像であり、その次がハイライト部分の録画映像である。画像全体は数多くの動画シーンクリップ(前述したピンポイントシーンのクリップ32または動画シーンクリップデータ33である)から構成され、かつ動画シーン時間情報21に対応している。
図7には本発明の実施例におけるメディアセグメントデータ31の時点比較の概略図が示されている。この例において、使用者は第1の端末装置40を通じてメディアデータ11を鑑賞する。使用者が特定の画像、例えば「得点ハイライト映像」を鑑賞するとき、使用者はこの「得点ハイライト映像」をマーキングする。マーキングの方式はピックアップ時間情報41(場面の開始時間と終了時間)、マーク記号(再生する動画シーンクリップに記号を付記する)または時点付記などのいずれか一種類とすることができる。
第1の端末装置40がマーキングされたデータに対応する第1の目標シーン時間42を動画シーンサーバ手段30に伝送すると、動画シーンサーバ手段30は第1の目標シーン時間42に対応する動画シーンクリップデータ33を取り出して(または関連するピンポイント動画シーンのクリップを伝送する)、その他端末装置で共有するメディアセグメントデータ31を形成する。
図7を例とすると、第1の端末装置40がマーキングした(図7で示す円で囲んだVマーク)クリップ情報は三番目の動画シーンクリップデータ33(P3)となり、7秒目から10秒目の動画シーンクリップが対応する。
図8には本発明の実施例におけるメディア再生ツリーの構造概略図が示されている。ここでは、図6に示す画像階層に、前述した動画シーン時間情報のデータの依存関係性、またはデータ属性の種別を合わせて、画像全体の動画シーン時間情報21または動画シーンクリップデータ33がメディア再生ツリー構造として構成される
このメディア再生ツリー構造の第1層は試合全体の録画映像である。第2層は第1層の録画画像の下位画像であり、各々のセクションの録画映像である。第3層は第2層の録画映像の下位画像であり、試合中におけるチーム双方のハイライト部分の録画映像である。第4層は第3層の下位画像であり、試合中におけるチーム双方の特定選手のハイライト部分の録画映像である。
しかしながら、動画シーンサーバ手段30は上記した画像階層を考慮しなければならないということはなく、第1の目標シーン時間42に基づいていずれかの階層の動画シーンクリップデータ33を取得することで、上記したメディアセグメントデータを形成するものである。
以上は、本発明が課題を解決するために採用した技術的手段の実施方式または実施例を記載したに過ぎず、これにより本発明の特許実施の範囲を限定されることはない。本発明の特許請求の範囲の文意に合致する、または本発明の特許請求の範囲に基づいてなされる等価の変更および付加は、いずれも本発明の特許請求の範囲に含まれるものである。
10 メディア提供手段
11 メディアデータ
20 メタデータサーバ手段
21 動画シーン時間情報
30 動画シーンサーバ手段
31 メディアセグメントデータ
32 ピンポイントシーンのクリップ
33 動画シーンクリップデータ
40 第1の端末装置
41 ピックアップ時間情報
51 ピックアップ時間情報
42 第1の目標シーン時間
50 第2の端末装置
52 第2の目標シーン時間
S110〜S140、S210〜S220、S310〜S320 ステップ

Claims (18)

  1. メディアデータを提供するためのメディア提供手段と、
    前記メディア提供手段が提供した前記メディアデータを受け取って、前記メディアデータの再生シーンに対応する複数の動画シーン時間情報を提供して出力するためのメタデータサーバ手段と、
    前記メディア提供手段が提供した前記メディアデータと前記メタデータサーバ手段が提供した前記複数の動画シーン時間情報を取得するとともに、前記メディアデータを再生するときに前記メディアデータ再生に対応するピックアップ時間情報を入力して、取得した前記複数の動画シーン時間情報中から、記録した再生時間が前記ピックアップ時間情報に一致する少なくとも一つの第1の目標シーン時間を出力するための第1の端末装置と、
    各々の前記第1の目標シーン時間、前記メディアデータおよび前記複数の動画シーン時間情報を取得するとともに、各々の前記第1の目標シーン時間と前記複数の動画シーン時間情報とを比較して、比較結果に基づいて前記メディアデータから複数のピンポイントシーンのクリップを取り出して、メディアセグメントデータを形成するための動画シーンサーバ手段と、を備えることを特徴とする、
    動画シーンのクリップ構成システム。
  2. 各々の前記動画シーン時間情報がその対応する前記ピンポイントシーンのクリップの再生時間を記憶しており、前記ピックアップ時間情報はメディア記録開始時間とメディア記録終了時間とを含み、前記第1の端末装置が前記ピックアップ時間情報と各々の前記動画シーン時間情報とを比較するとき、再生時間を前記メディア記録開始時間と前記メディア記録終了時間との間として記録した各々の前記第1の目標シーン時間を取得して、各々の前記第1の目標シーン時間を前記動画シーンサーバ手段に伝送することを特徴とする請求項1に記載の動画シーンのクリップ構成システム。
  3. 各々の前記動画シーン時間情報がその対応する前記ピンポイントシーンのクリップの再生内容を記憶しており、前記動画シーンサーバ手段は各々の前記動画シーン時間情報の記録情報に基づいて、各々の前記動画シーン時間情報を分類するとともに、分類結果に基づいて前記メディアデータから複数の動画シーンクリップデータを分割し、前記ピックアップ時間情報は時点データを含んでおり、前記第1の端末装置は前記時点データを記録した前記少なくとも一つの第1の目標シーン時間を出力し、前記動画シーンサーバ手段は前記時点データと各々の前記動画シーンクリップデータの再生終了時間とを比較して、少なくとも一つの目標シーンクリップデータを取り出すことで、前記メディアセグメントデータを形成することを特徴とする請求項1に記載の動画シーンのクリップ構成システム。
  4. 少なくとも一つの第2の目標シーン時間を作成するための第2の端末装置をさらに備えており、前記動画シーンサーバ手段が前記少なくとも一つの第2の目標シーン時間を取得するとともに、前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生内容が同一または同義であり、メディア再生時間が相違すると判断した場合、前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間に基づいて再生補正時間を設定して、前記メディアデータ中から再生時間が前記再生補正時間内にある複数の調整クリップをピックアップして、前記メディアセグメントデータを更新することを特徴とする請求項1に記載の動画シーンのクリップ構成システム。
  5. 前記再生補正時間は前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の長さの和集合であることを特徴とする請求項4に記載の動画シーンのクリップ構成システム。
  6. 前記再生補正時間は前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の長さの積集合であることを特徴とする請求項4に記載の動画シーンのクリップ構成システム。
  7. 前記再生補正時間の開始時間が前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の開始時間の平均値となり、前記再生補正時間の終了時間が前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の終了時間の平均値となることを特徴とする請求項4に記載の動画シーンのクリップ構成システム。
  8. 各々の前記動画シーン時間情報がその対応する前記ピンポイントシーンのクリップの再生内容を記憶しており、前記動画シーンサーバ手段は各々の前記ピンポイントシーンのクリップの再生内容に基づいて、各々の前記動画シーン時間情報を分類するとともに、この分類結果に基づいて前記メディアデータから複数の動画シーンクリップデータを分割するとともに、各々の前記動画シーン時間情報のデータの依存関係性、データ属性およびデータ階層の関係に基づいて、各々の前記動画シーンクリップデータをメディア再生ツリー構造として構成することを特徴とする請求項1に記載の動画シーンのクリップ構成システム。
  9. 前記動画シーンサーバ手段が前記少なくとも一つの第1の目標シーン時間を取得したとき、前記少なくとも一つの第1の目標シーン時間に基づいて前記メディア再生ツリー構造から前記複数のピンポイントシーンのクリップを取り出して、前記メディアセグメントデータを形成することを特徴とする請求項8に記載の動画シーンのクリップ構成システム。
  10. メディア提供手段メディアデータを提供するステップと、
    メタデータサーバ手段前記メディアデータを受け取るとともに、前記メディアデータの再生シーンに対応する複数の動画シーン時間情報を提供するステップと、
    第1の端末装置前記メディアデータと前記複数の動画シーン時間情報とを取得するとともに、前記メディアデータを再生するときに入力したピックアップ時間情報に基づいて、前記複数の動画シーン時間情報中から前記ピックアップ時間情報に対応する少なくとも一つの第1の目標シーン時間を取り出すステップと、
    動画シーンサーバ手段前記少なくとも一つの第1の目標シーン時間、前記メディア提供手段が提供する前記メディアデータおよび前記メタデータサーバ手段が提供する前記複数の動画シーン時間情報を取得するとともに、前記少なくとも一つの第1の目標シーン時間と各々の前記動画シーン時間情報とを比較して、比較結果に基づいて前記メディアデータから複数のピンポイントシーンのクリップデータを取り出して、メディアセグメントデータを形成するステップと、を含むことを特徴とする、
    動画シーンのクリップ構成方法。
  11. 各々の前記動画シーン時間情報がその対応する前記ピンポイントシーンのクリップの再生時間を記憶しており、前記再生時間はメディア記録開始時間とメディア記録終了時間とを含み、そして前記複数の動画シーン時間情報中から前記ピックアップ時間情報に対応する前記少なくとも一つの第1の目標シーン時間を取り出す前記ステップが、前記第1の端末装置が前記ピックアップ時間情報と各々の前記動画シーン時間情報とを比較し、再生時間を前記メディア記録開始時間と前記メディア記録終了時間との間として記録した前記少なくとも一つの第1の目標シーン時間を取得することを含むことを特徴とする請求項10に記載の動画シーンのクリップ構成方法。
  12. 各々の前記動画シーン時間情報がその対応する前記ピンポイントシーンのクリップの再生内容を記憶しており、前記動画シーンサーバ手段は各々の前記動画シーン時間情報の記録情報に基づいて、各々の前記動画シーン時間情報を分類するとともに、分類結果に基づいて前記メディアデータから複数の動画シーンクリップデータを分割し、前記ピックアップ時間情報は時点データを含んでおり、前記第1の端末装置は前記時点データを記録した前記少なくとも一つの第1の目標シーン時間を前記動画シーンサーバ手段に出力し、前記少なくとも一つの第1の目標シーン時間と各々の前記動画シーン時間情報とを比較して、比較結果に基づいて前記メディアデータから複数のピンポイントシーンのクリップデータを取り出して、メディアセグメントデータを形成する前記ステップが、前記動画シーンサーバ手段前記時点データと各々の前記動画シーンクリップデータの再生終了時間とを比較して、目標シーンクリップデータを取り出すことで、前記メディアセグメントデータを形成することを含むことを特徴とする請求項10に記載の動画シーンのクリップ構成方法。
  13. 少なくとも一つの第2の目標シーン時間を作成するための第2の端末装置をさらに備えており、前記方法は、前記動画シーンサーバ手段が前記少なくとも一つの第2の目標シーン時間を取得するとともに、前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生内容が同一または同義であり、メディア再生時間が相違すると判断した場合に、前記動画シーンサーバ手段判断結果に基づいて、前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間を利用して再生補正時間を設定するかどうかを決定して、前記メディアデータ中から再生時間が前記再生補正時間内にある複数の調整クリップをピックアップして、前記メディアセグメントデータを更新することをさらに含むことを特徴とする請求項10に記載の動画シーンのクリップ構成方法。
  14. 前記再生補正時間は前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の長さの和集合であることを特徴とする請求項13に記載の動画シーンのクリップ構成方法。
  15. 前記再生補正時間は前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の長さの積集合であることを特徴とする請求項13に記載の動画シーンのクリップ構成方法。
  16. 前記再生補正時間の開始時間が前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の開始時間の平均値となり、前記再生補正時間の終了時間が前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間の終了時間の平均値となることを特徴とする請求項13に記載の動画シーンのクリップ構成方法。
  17. 電子装置で読み取り可能なソースコードを記憶し、電子装置が前記ソースコードを読み取るときには、当該電子装置がメディア提供手段、メタデータサーバ手段、第1の端末装置、動画シーンサーバ手段として機能して、動画シーンのクリップ構成方法を実行する記録メディアであって、前記方法は、
    メディア提供手段メディアデータを提供するステップと、
    メタデータサーバ手段前記メディアデータを受け取るとともに、前記メディアデータの再生シーンに対応する複数の動画シーン時間情報を提供するステップと、
    第1の端末装置前記メディアデータと前記複数の動画シーン時間情報とを取得するとともに、前記メディアデータを再生するときに入力したピックアップ時間情報に基づいて、前記複数の動画シーン時間情報中から前記ピックアップ時間情報に対応する少なくとも一つの第1の目標シーン時間を取り出すステップと、
    動画シーンサーバ手段前記少なくとも一つの第1の目標シーン時間、前記メディア提供手段が提供する前記メディアデータおよび前記メタデータサーバ手段が提供する前記複数の動画シーン時間情報を取得するとともに、前記少なくとも一つの第1の目標シーン時間と各々の前記動画シーン時間情報とを比較して、比較結果に基づいて前記メディアデータから複数のピンポイントシーンのクリップデータを取り出して、メディアセグメントデータを形成するステップと、を含むことを特徴とする、
    記録メディア。
  18. 電子装置が前記ソースコードを読み取るときには、当該電子装置はさらに、少なくとも一つの第2の目標シーン時間を作成するための第2の端末装置として機能し、前記方法は、前記動画シーンサーバ手段が前記少なくとも一つの第2の目標シーン時間を取得するとともに、前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生内容が同一または同義であり、メディア再生時間が相違すると判断した場合に、前記動画シーンサーバ手段判断結果に基づいて、前記少なくとも一つの第1の目標シーン時間および前記少なくとも一つの第2の目標シーン時間が記録するメディア再生時間を利用して再生補正時間を設定するかどうかを決定することで、前記メディアデータ中から再生時間が前記再生補正時間内にある複数の調整クリップをピックアップして、前記メディアセグメントデータを更新することをさらに含むことを特徴とする請求項17に記載の記録メディア。
JP2013031950A 2012-10-17 2013-02-21 動画シーンのクリップ構成システム、方法および記録メディア Active JP5544030B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW101138301 2012-10-17
TW101138301A TWI474201B (zh) 2012-10-17 2012-10-17 Construction system scene fragment, method and recording medium

Publications (2)

Publication Number Publication Date
JP2014082734A JP2014082734A (ja) 2014-05-08
JP5544030B2 true JP5544030B2 (ja) 2014-07-09

Family

ID=50383325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013031950A Active JP5544030B2 (ja) 2012-10-17 2013-02-21 動画シーンのクリップ構成システム、方法および記録メディア

Country Status (5)

Country Link
US (1) US9049416B2 (ja)
JP (1) JP5544030B2 (ja)
CN (1) CN103780976B (ja)
DE (1) DE102013102992A1 (ja)
TW (1) TWI474201B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10923157B2 (en) * 2015-07-17 2021-02-16 ScoreBreak, LLC System and method for event data collection and video alignment
DE112019007460T5 (de) * 2019-07-16 2022-03-10 Lg Electronics Inc. Anzeigegerät

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US6625383B1 (en) * 1997-07-11 2003-09-23 Mitsubishi Denki Kabushiki Kaisha Moving picture collection and event detection apparatus
GB2354104A (en) * 1999-09-08 2001-03-14 Sony Uk Ltd An editing method and system
JP2002351878A (ja) * 2001-05-18 2002-12-06 Internatl Business Mach Corp <Ibm> デジタルコンテンツ再生装置、データ取得システム、デジタルコンテンツ再生方法、メタデータ管理方法、電子透かし埋め込み方法、プログラム及び記録媒体
JP2003304523A (ja) * 2002-02-08 2003-10-24 Ntt Docomo Inc 情報配信システム、情報配信方法、情報配信サーバ、コンテンツ配信サーバ及び端末
EP2202978A1 (en) * 2002-04-12 2010-06-30 Mitsubishi Denki Kabushiki Kaisha Hint information describing method for manipulating metadata
WO2004100535A1 (en) * 2003-05-02 2004-11-18 Allan Robert Staker Interactive system and method for video compositing
KR100739770B1 (ko) 2004-12-11 2007-07-13 삼성전자주식회사 멀티 앵글 타이틀에 적용 가능한 메타 데이터를 포함하는저장 매체, 그 재생 장치 및 방법
JP2006319918A (ja) * 2005-05-16 2006-11-24 Infonext:Kk コンテンツ配信制御システム、情報端末、コンテンツ配信制御装置、コンテンツ配信制御方法、およびプログラム
JP5248802B2 (ja) * 2006-06-16 2013-07-31 カシオ計算機株式会社 動画符号化装置および動画符号化方法と、動画復号化装置および動画復号化方法と、動画記録装置
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US20090313324A1 (en) * 2008-06-17 2009-12-17 Deucos Inc. Interactive viewing of media content
US8519820B2 (en) * 2008-09-02 2013-08-27 Apple Inc. Systems and methods for saving and restoring scenes in a multimedia system
CN101778260B (zh) * 2009-12-29 2012-01-04 公安部第三研究所 一种基于结构化描述的视频监控管理方法及系统

Also Published As

Publication number Publication date
CN103780976A (zh) 2014-05-07
DE102013102992A1 (de) 2014-04-17
TW201416889A (zh) 2014-05-01
US20140105570A1 (en) 2014-04-17
JP2014082734A (ja) 2014-05-08
TWI474201B (zh) 2015-02-21
CN103780976B (zh) 2017-04-12
US9049416B2 (en) 2015-06-02
KR20140049446A (ko) 2014-04-25

Similar Documents

Publication Publication Date Title
TWI474200B (zh) Scene clip playback system, method and recording medium thereof
US20150020086A1 (en) Systems and methods for obtaining user feedback to media content
US20140075316A1 (en) Method and apparatus for creating a customizable media program queue
US11383164B2 (en) Systems and methods for creating a non-curated viewing perspective in a video game platform based on a curated viewing perspective
US11617020B2 (en) Systems and methods for enabling and monitoring content creation while consuming a live video
JP4742366B2 (ja) 番組提示システム
US20140075310A1 (en) Method and Apparatus For creating user-defined media program excerpts
JP5544030B2 (ja) 動画シーンのクリップ構成システム、方法および記録メディア
JP5306550B2 (ja) 映像解析情報送信装置、映像解析情報配信システム及び配信方法、映像視聴システム及び映像視聴方法
WO2014103374A1 (ja) 情報管理装置、サーバ及び制御方法
WO2022163023A1 (ja) コンテンツ修正装置、コンテンツ配信サーバ、コンテンツ修正方法、および、記録媒体
TWI497959B (zh) Scene extraction and playback system, method and its recording media
JP2013098640A (ja) 映像解析情報アップロード装置及び映像視聴システム及び方法
KR101434783B1 (ko) 신 프래그먼트 전송 시스템, 신 프래그먼트 전송방법, 및 그 기록매체
JP2012089186A (ja) コンテンツ管理装置及びコンテンツ再生装置
US20160127807A1 (en) Dynamically determined audiovisual content guidebook
US11763849B1 (en) Automatic and fast generation of music audio content for videos
WO2022209648A1 (ja) 情報処理装置、情報処理方法および非一時的なコンピュータ可読記憶媒体
JP7390877B2 (ja) 動画編集装置、動画編集方法及びコンピュータプログラム
TW201414292A (zh) 媒體場景播放系統、方法及其記錄媒體
KR101467079B1 (ko) 신 클립을 구성하기 위한 시스템 및 방법, 및 그 기록매체
EP2824630A1 (en) Systems and methods for obtaining user feedback to media content
JP2012195025A (ja) コンテンツ再生装置、コンテンツ再生プログラム、コンテンツ再生方法、およびストリーミング配信システム
JP2006054631A (ja) 番組の編集再生方法、番組の編集再生システム、及び番組の編集再生プログラム
JP2016025470A (ja) 映像再生装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140509

R150 Certificate of patent or registration of utility model

Ref document number: 5544030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250