JP2012256105A - 表示装置、オブジェクト表示方法、及びプログラム - Google Patents
表示装置、オブジェクト表示方法、及びプログラム Download PDFInfo
- Publication number
- JP2012256105A JP2012256105A JP2011127390A JP2011127390A JP2012256105A JP 2012256105 A JP2012256105 A JP 2012256105A JP 2011127390 A JP2011127390 A JP 2011127390A JP 2011127390 A JP2011127390 A JP 2011127390A JP 2012256105 A JP2012256105 A JP 2012256105A
- Authority
- JP
- Japan
- Prior art keywords
- person
- relationship
- character
- scene
- characters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims description 147
- 238000004364 calculation method Methods 0.000 claims abstract description 59
- 230000036651 mood Effects 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 9
- 230000007423 decrease Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 49
- 239000011159 matrix material Substances 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 19
- 230000010365 information processing Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000005381 potential energy Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 101150012579 ADSL gene Proteins 0.000 description 2
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 2
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 238000000137 annealing Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/22—Means responsive to presence or absence of recorded information signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【解決手段】各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出部と、動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示部と、を備え、前記オブジェクト表示部は、前記関係性スコアが高い登場人物の組に対応するオブジェクトを互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、表示装置が提供される。
【選択図】図1
Description
ここで、以下に記載する説明の流れについて簡単に述べる。
1:実施形態
1−1:情報処理装置100の構成
1−2:関係性値の算出方法
1−2−1:区間メタデータに基づく共演関係の評価方法
1−2−2:共演作品数に基づく関係性値の算出方法
1−2−3:共演作品数に基づく関係性値の算出方法(重み付き)
1−2−4:出演時間に基づく関係性値の算出方法
1−2−5:出演シーン時間に基づく関係性値の算出方法
1−3:オブジェクトの表示方法
1−3−1:オブジェクトのサイズについて
1−3−2:オブジェクト間の距離について
1−3−3:奥行き表現について
1−3−4:関係性の表現について
1−4:シーン画像の表示方法
1−4−1:シーン画像の配置方法(ランダム配置)
1−4−2:シーン画像の配置方法(時系列配置)
1−4−3:シーン画像の配置方法(ムードに応じた配置)
1−5:シーン画像表示及びオブジェクト表示の切り替え
1−5−1:年代の切り替え
1−5−2:地域の切り替え
1−5−3:切り替え時のオブジェクト表示
1−6:その他の表示方法
1−6−1:3D表示
1−6−2:関連情報の表示
1−6−3:動画再生画面の表示
2:ハードウェア構成例
3:まとめ
本技術の一実施形態について説明する。本実施形態に係る技術は、動画に登場する登場人物について登場人物間の関係性を抽出し、関係性の有無及び関係性の強さをユーザに分かりやすく提示する技術に関する。また、本実施形態に係る技術は、指定された登場人物と動画との関係を俯瞰することが可能なユーザインターフェースを提供する技術に関する。さらに、本実施形態に係る技術は、指定された登場人物が登場する映像シーンを選択的に再生したり、その登場人物に関する関連情報を表示したりするためのユーザインターフェースを提供する技術に関する。以下、詳細な技術内容について説明する。
まず、図1を参照しながら、本実施形態に係る情報処理装置100の構成について説明する。図1は、本実施形態に係る情報処理装置100の構成について説明するための説明図である。
図1に示すように、情報処理装置100は、主に、メタデータ取得部101と、出演時間計算部102と、関係性計算部103と、オブジェクト表示部104と、関連情報表示部105と、シーン画像取得部106と、シーン画像表示部107と、動画取得部108と、再生制御部109と、表示部110とにより構成される。なお、表示部110は、別体であってもよい。この場合、情報処理装置100は、信号線又はネットワークを通じて表示部110に画像を表示させる表示制御装置として機能する。さらに、動画取得部108及び再生制御部109は別体であってもよい。
まず、メタデータ取得部101は、動画タイムラインメタデータを取得する。例えば、メタデータ取得部101は、信号線又はネットワークを介して接続された記憶装置、又はネットワークを介して接続されたメタデータ提供システムなどから動画タイムラインメタデータを取得する。記憶装置としては、例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどの記録媒体に書き込まれたデータを読み出し可能な装置、或いは、これら記録媒体にデータを書き込み及び読み出し可能な装置が該当する。なお、メタデータ取得部101は、事前に動画タイムラインメタデータを取得しておいてもよいし、再生対象の動画がユーザにより指定されたタイミングで動画タイムラインメタデータを取得してもよい。
さて、関連情報表示部105には、領域メタデータ及びオブジェクトメタデータが入力される。領域メタデータ及びオブジェクトメタデータが入力されると、関連情報表示部105は、入力された領域メタデータ及びオブジェクトメタデータを利用して表示部110に関連情報を表示する。例えば、あるオブジェクトが選択された場合、関連情報表示部105は、選択されたオブジェクトに対応する人物又は物品の関連情報を表示する。また、動画の再生中に、ある画面上の領域が選択された場合、関連情報表示部105は、領域メタデータを利用して、選択された領域に対応する人物又は物品を検出する。そして、関連情報表示部105は、検出した人物又は物品に関する関連情報を表示する。なお、関連情報の具体的な表示方法については後述する。
シーン画像取得部106は、動画の1シーンを表現したシーン画像を取得する。例えば、シーン画像取得部106は、信号線又はネットワークを介して接続された記憶装置、又はネットワークを介して接続された動画配信システムなどから動画又はシーン画像を取得する。記憶装置としては、例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどの記録媒体に書き込まれたデータを読み出し可能な装置、或いは、これら記録媒体にデータを書き込み及び読み出し可能な装置が該当する。なお、シーン画像取得部106は、事前に動画又はシーン画像を取得しておいてもよいし、再生対象の動画がユーザにより指定されたタイミングで動画又はシーン画像を取得してもよい。
動画取得部108は、信号線又はネットワークを介して接続された記憶装置、又はネットワークを介して接続された動画配信システムなどから動画を取得する。記憶装置としては、例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどの記録媒体に書き込まれたデータを読み出し可能な装置、或いは、これら記録媒体にデータを書き込み及び読み出し可能な装置が該当する。なお、動画取得部108は、事前に動画を取得しておいてもよいし、再生対象の動画がユーザにより指定されたタイミングで動画を取得してもよい。動画取得部108により取得された動画は、再生制御部109に入力される。
次に、図3〜図9を参照しながら、本実施形態に係る関係性値の算出方法について説明する。なお、関係性値の計算は、主に関係性計算部103の機能により実現される。
まず、図3〜図5を参照しながら、区間メタデータに基づく共演関係の評価方法について説明する。ここでは、区間メタデータから得られる主な情報の種類と、人物間の関係性を評価する際の評価基準とについて説明する。図3〜図5は、区間メタデータに基づく共演関係の評価方法について説明するための説明図である。
まず、図6を参照しながら、共演作品数に基づく関係性値の算出方法について説明する。図6は、共演作品数に基づく関係性値の算出方法について説明するための説明図である。なお、対象とする動画群は、動画M1〜M6であるとする。また、動画M1〜M6に登場する人物は、人物A、人物B、人物Cであるとする。
次に、図7を参照しながら、共演作品数に基づく関係性値の算出方法(重み付き)について説明する。図7は、共演作品数に基づく関係性値の算出方法(重み付き)について説明するための説明図である。ここでは、主役/脇役の区別を重みで表現し、その重み値と共演作品数とに基づいて関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M1〜M6であるとする。また、動画M1〜M6に登場する人物は、人物A、人物B、人物Cであるとする。
次に、図8を参照しながら、出演時間に基づく関係性値の算出方法について説明する。図8は、出演時間に基づく関係性値の算出方法について説明するための説明図である。ここでは、各動画における各人物の出演時間を利用して関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M1〜M6であるとする。また、動画M1〜M6に登場する人物は、人物A、人物B、人物Cであるとする。
次に、図9を参照しながら、出演シーン時間に基づく関係性値の算出方法について説明する。図9は、出演シーン時間に基づく関係性値の算出方法について説明するための説明図である。ここでは、各動画における共演シーン時間を利用して関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M1〜M6であるとする。また、動画M1〜M6に登場する人物は、人物A、人物B、人物Cであるとする。
一例として、共演シーン時間CSL及び役柄重みRWを組み合わせて関係性値Relを算出する方法を紹介する。なお、CSL及びRWの定義は既に説明したものと同じである。この例において、関係性値Rel(A,B)は、下記の式(4)により算出される。なお、右辺の平方根は省略してもよい。この方法によると、各動画における各人物の重要度を示す役柄重みと、各動画における人物間の関係性の強さを示す共演シーン時間とを共に考慮した関係性値が算出される。
別の例として、共演シーン時間CSL及び出演時間PSLを組み合わせて関係性値Relを算出する方法を紹介する。なお、CSL及びPSLの定義は既に説明したものと同じである。この例において、関係性値Rel(A,B)は、下記の式(5)により算出される。なお、右辺の平方根は省略してもよい。この方法によると、各動画における各人物の重要度を示す出演時間と、各動画における人物間の関係性の強さを示す共演シーン時間とを共に考慮した関係性値が算出される。
次に、図10〜図24を参照しながら、上記の関係性値を利用したオブジェクトの表示方法について説明する。例えば、図10に示すように、動画の各登場人物をオブジェクトで表現し、関係性値の高いオブジェクト同士を近づけて表示する。このような表示方法を用いると、人物間の関係性を容易に視認することが可能になる。なお、オブジェクトの表示は、主にオブジェクト表示部104の機能により実現される。以下、オブジェクトの表示方法について、より詳細に説明する。
まず、図11を参照する。オブジェクトの表現に利用できる情報として、各人物の出演時間に関する情報がある。区間メタデータを利用して得られる各人物の出演時間に関する情報としては、動画別出演時間の情報、及び総出演時間の情報がある。ここでは、総出演時間の情報を利用するオブジェクトの表現方法について考える。総出演時間は、人物のメジャー度、或いは、注目度を表す指標であると考えられる。例えば、主役として出演する動画の数が多い人物は、当然に総出演時間が長くなるであろう。従って、総出演時間の長い人物に対応するオブジェクトは目立つように表現される方が好ましい。
次に、図12を参照する。ここでは、人物間の関係性をオブジェクト間の距離で表現する方法について紹介する。人物間の関係性は、関係性値により表現される。図12に示すように、人物間の関係性値が大きい場合、その人物に対応するオブジェクト間の距離を小さくする。逆に、人物間の関係性値が小さい場合、その人物に対応するオブジェクト間の距離を大きくする。但し、図10に示したように複数のオブジェクトを表示した場合に、視認性が損なわれるのは好ましくない。そのため、オブジェクトが適度に散らばって配置されるようにすることが好ましい。また、オブジェクトが表示領域内に留まるように配慮することが望まれる。
図10に示したオブジェクト群は、2次元平面に配置されているように見えるだろう。上記の方法を用いると、オブジェクト群を2次元平面に適切に配置することができる。但し、上記の方法は、オブジェクト群を3次元空間に配置する方法に拡張することも可能である。例えば、2次元配置を基本とし、図19に示すように、奥行き方向にオブジェクトをずらして3次元配置にすることが可能である。奥行き方向へのずらし方としては、ランダムにずらす方法や、オブジェクトのサイズに応じてずらす方法などが考えられる。具体的には、図19に示すように、サイズの大きなオブジェクトを少し奥行き方向にずらし、サイズの小さなオブジェクトを少し手前方向にずらして配置するのが好ましい。
次に、関係性の表現方法に関する追加的なアイデアを紹介する。
既に説明したように、上記の方法を適用すると、関係性の強い人物のオブジェクト同士が近くに配置され、関係性の弱い人物のオブジェクト同士が遠くに配置される。そのため、オブジェクト間の距離やオブジェクト群の位置関係などから人物間の関係性を推察することができる。しかし、関係性の有無を確実に知りたい場合もある。例えば、オブジェクトの数が多く、表示領域内におけるオブジェクトの密度が高い場合、オブジェクト間の距離だけでは関係性の有無を正確に把握できないことがある。
ところで、これまでは各オブジェクトの表示位置が固定されているかのように説明をしてきた。もちろん、各オブジェクトの表示位置が固定されていてもよいが、各オブジェクトを揺動させることにより、画面内に動きが生まれ、より親しみやすいユーザインターフェースが実現できる。また、人物間の関係性をオブジェクトの揺動により表現することもできる。例えば、図21に示すように、通常はオブジェクトをランダムに揺動させておき、あるオブジェクトが選択された場合に、そのオブジェクトに対応する人物と関係のある人物のオブジェクトを全て同位相で揺動させる方法などが考えられる。この方法を用いると、接続線の表示がなくとも、直感的に関係性の有無を認識することが可能になる。
次に、図25〜図28を参照しながら、シーン画像の表示方法について説明する。
シーン画像の配置方法としては、図26に示すように、ランダムにシーン画像を配置する方法が考えられる。シーン画像をランダムに配置すると、あるオブジェクトが選択された場合に、そのオブジェクトに対応する人物が登場する動画のシーン画像がハイライト表示される。また、所定のタイミングでシーン画像の再配置が行われるようにすると、ハイライト表示されるシーン画像の位置が頻繁に変わるため、飽きがこないユーザインターフェースが実現される。
また、シーン画像の配置方法としては、図27に示すように、時系列でシーン画像を配置する方法が考えられる。図27の例では、X軸に沿って動画のシリーズが時系列で並ぶようにし、Y軸に沿って動画中に登場する映像シーンのシーン画像が時系列に並ぶようにしている。このような配置にすると、ハイライト表示されたシーン画像の分布から、例えば、選択したオブジェクトに対応する人物が、シリーズの前半に登場するのか、後半から登場するのかを一目で把握することが可能になる。また、その人物が、動画中の前半に登場することが多いのか、中盤に登場することが多いのか、或いは、後半に登場することが多いのかが容易に把握できるようになる。
また、シーン画像の配置方法としては、図28に示すように、ムードに応じてシーン画像を配置する方法が考えられる。例えば、図28に示すように、アクション、ファニー、ハピネス、ラブリー、ホラー、アンハッピーなど、動画のムード毎に列を分けてシーン画像を配置する方法が考えられる。また、行の並びについては、時系列で配置してもよいし、ムードの度合いに応じて配置してもよい。例えば、アクションの列に関し、アクションシーンの比較的多い動画のシーン画像を手前に表示し、アクションシーンの比較的少ない動画のシーン画像を奥側に表示するなどの配置方法が考えられる。
次に、図29〜図32を参照しながら、シーン画像群の表示方法及びオブジェクト表示の切り替え方法について説明する。図25に示したように、タイル状に配置されるシーン画像群は、オブジェクトと共に表示される。また、シーン画像は、オブジェクトの選択に応じてハイライト表示される。さらに、シーン画像を選択することにより、そのシーン画像に対応する動画が再生される仕組みが設けられていてもよい。これらの構成については既に説明した通りである。ここでは、シーン画像群の切り替えに関するアイデアを紹介する。また、シーン画像群の切り替えに伴うオブジェクト表示の切り替えに関するアイテムについても紹介する。
例えば、図29に示すように、年代で分けたシーン画像群を用意しておき、シーン画像群を切り替えることにより、対象とする動画が属する年代を切り替えられるようにする仕組みについて考える。オブジェクトと共に表示されるシーン画像群は、1つの年代に対応するシーン画像群である。もちろん、シーン画像群と共に表示されるオブジェクトは、そのシーン画像群に対応する動画に登場する人物のオブジェクトである。そのため、シーン画像群を切り替えると、シーン画像群と共に表示されるオブジェクトも切り替わる。
図29の例は、シーン画像群を時間的要素に基づいて区分し、シーン画像群の切り替えに応じてオブジェクト表示を切り替える構成に関するものであった。ここでは、図30を参照しながら、地域に応じてシーン画像群及びオブジェクト群を切り替える構成について説明する。図30に示すように、画面上に地図を表示し、ユーザに地図上の地域を選択させるユーザインターフェースを提案する。このユーザインターフェースにおいて、ユーザがヨーロッパを選択すると、オブジェクト表示部104は、ヨーロッパの俳優が登場する動画のシーン画像群と、その俳優に対応するオブジェクト群とを表示する。また、ユーザがアメリカを選択すると、オブジェクト表示部104は、アメリカの俳優が登場する動画のシーン画像群と、その俳優に対応するオブジェクト群とを表示する。
シーン画像群を切り替えた際、図31に示すように、オブジェクトがシーン画像群から抜け出すように表示されるようにしてもよい。例えば、人物Aのオブジェクトは、人物Aが登場する動画の映像シーンを表すシーン画像から抜け出すように表示されるようにする。また、人物Aが複数の動画に登場する場合、人物Aの出演時間が最も長い動画に対応するシーン画像から抜け出すように表示されるようにする。このような表示にすることで、シーン画像と人物との対応関係が容易に把握できるようになる。
これまで、シーン画像群及びオブジェクトの表示方法について、図10に示した表示構成を念頭において説明してきた。ここでは、シーン画像群の表示方法に関する変形例、関連情報の表示方法、動画再生画面の表示方法について説明する。
図10の例では、オブジェクトの下側にシーン画像群が表示されていた。しかし、図32に示すように、オブジェクトの上下左右にシーン画像群を表示してもよい。このような表示にすると、より多くのシーン画像を表示することが可能になる。より多くのシーン画像を表示することができるようになると、例えば、1つの動画から比較的再生時間の長い映像シーンを複数抽出し、各映像シーンのシーン画像を表示することなども可能になる。また、シーン画像群を種類毎に分けて見やすく表示することなども可能になる。
さて、これまでは主にオブジェクト及びシーン画像の表示方法について説明してきたが、オブジェクトメタデータを利用すると、図33に示すように、人物の関連情報を表示することが可能になる。例えば、ユーザによりオブジェクトが選択された場合、オブジェクトメタデータを利用して、そのオブジェクトに対応する人物に対応する関連情報を表示することができる。
さて、上記の説明の中で、オブジェクトの選択、シーン画像の選択、或いは、映像シーンの画像の選択などに応じて動画全体又は一部の映像シーンが再生される仕組みについて言及してきた。ここでは、図34を参照しながら、動画再生画面の構成例について紹介する。例えば、図34に示すように、再生ウィンドウを表示し、その中に動画の再生画面を表示する方法が考えられる。また、再生画面に登場する人物の顔領域を表示したり、人物のサムネイル画像を表示したりしてもよい。さらに、サムネイル画像が選択された場合に、そのサムネイル画像に対応する人物が登場する区間を表示してもよい。
上記の情報処理装置100が有する各構成要素の機能は、例えば、図35に示すハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図35に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、テレビジョン受像機、録画再生装置、セットトップボックス、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。とりわけ、以下に記載する技術的思想は、こうした情報処理装置に含まれる表示装置としての機能に適用することができる。
各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出部と、
動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示部と、
を備え、
前記オブジェクト表示部は、前記関係性スコアが高い登場人物の組に対応するオブジェクトを互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
表示装置。
前記区間メタデータを利用し、各登場人物が動画中に登場する時間の合計値を表す出演時間を登場人物毎に算出する出演時間算出部をさらに備え、
前記オブジェクト表示部は、前記出演時間が長い登場人物に対応するオブジェクトを大きく表示し、前記出演時間が短い登場人物に対応するオブジェクトを小さく表示する、
前記(1)に記載の表示装置。
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について共演作品の数を算出し、当該共演作品の数を前記関係性スコアとして出力する、
前記(1)又は(2)に記載の表示装置。
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として出演した共演作品の数に第1の重み値をかけた値と、一方の登場人物が主役として出演し、かつ、他方の登場人物が脇役として出演した共演作品の数に第2の重み値をかけた値と、両登場人物が脇役として出演した共演作品の数に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力し、
前記第1の重み値は、前記第2の重み値よりも大きく、
前記第2の重み値は、前記第3の重み値よりも大きい、
前記(1)又は(2)に記載の表示装置。
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、各共演作品中における一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
前記(2)に記載の表示装置。
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が同じ動画フレームに登場する時間の合計値を算出し、当該合計値を前記関係性スコアとして出力する、
前記(1)又は(2)に記載の表示装置。
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として同じ動画フレームに登場する時間の合計値に第1の重み値をかけた値と、同じ動画フレームに一方の登場人物が主役として登場し、かつ、他方の登場人物が脇役として登場する時間の合計値に第2の重み値をかけた値と、両登場人物が脇役として同じ動画フレームに登場する時間の合計値に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力する、
前記(1)又は(2)に記載の表示装置。
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、共演作品毎に、一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値と、両登場人物が同じ動画フレームに登場する時間の合計値と、をかけた値を算出し、算出した値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
前記(2)に記載の表示装置。
前記オブジェクト表示部は、表示領域内におけるオブジェクトの位置に関する第1の関数と、オブジェクト間の位置関係に関する第2の関数とで構成されるポテンシャル関数の値が最小となるように全てのオブジェクトを表示し、
前記第1の関数は、オブジェクトの位置が前記表示領域に近づくほど値が大きくなる関数であり、
前記第2の関数は、関係性のある登場人物の組に対応する2つのオブジェクトが当該登場人物の組に対応する関係性スコアに応じた距離に近づくと値が減少し、関係性のない登場人物の組に対応する2つのオブジェクトが近づくと値が増加する関数であり、
前記関係性スコアに応じた距離は、前記関係性スコアが大きくなるほど小さくなる、
前記(1)〜(8)のいずれか1項に記載の表示装置。
動画の1シーンを表す画像をタイル状に並べて表示するシーン表示部をさらに備え、
前記シーン表示部は、1つの前記オブジェクトがユーザにより選択された場合に、選択されたオブジェクトに対応する登場人物が登場する動画の1シーンを表す画像をハイライト表示する、
前記(1)に記載の表示装置。
前記シーン表示部は、動画からランダムにシーンを選択し、選択したシーンを表す画像をランダムな位置に並べて表示する、
前記(10)に記載の表示装置。
前記シーン表示部は、同じ列に同じ動画から抽出された画像が並ぶように表示し、
前記画像は、抽出元の動画が古い順に行方向に並んで表示され、かつ、各動画中における出現時刻が早い順に列方向に並んで表示される、
前記(10)に記載の表示装置。
前記シーン表示部は、同じムードを持つシーンが同じ列に並ぶように前記動画の1シーンを表す画像を表示する、
前記(10)に記載の表示装置。
前記オブジェクト表示部は、ユーザにより1つの前記画像が選択された場合に、当該画像に対応する動画に登場する登場人物に対応するオブジェクトだけを表示する、
前記(10)に記載の表示装置。
前記オブジェクト表示部は、関連性のある登場人物の組に対応する2つのオブジェクトを結ぶ線を表示する、
前記(1)に記載の表示装置。
ユーザにより1つの前記オブジェクトが選択された場合に、前記区間メタデータを利用して当該オブジェクトに対応する登場人物が登場する区間を抽出し、抽出した区間の動画フレームを再生する動画再生部をさらに備える、
前記(1)に記載の表示装置。
前記オブジェクト表示部は、ユーザにより1つの前記オブジェクトが選択された場合に、選択されたオブジェクトに対応する登場人物と関係性のある登場人物に対応する全てのオブジェクトを同位相で動かす、
前記(1)に記載の表示装置。
各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出するステップと、
動画に登場する各登場人物に対応するオブジェクトを表示するステップと、
を含み、
前記関係性スコアが高い登場人物の組に対応するオブジェクトの組は、互いに近い位置に表示され、
前記関係性スコアが低い登場人物の組に対応するオブジェクトの組は、互いに離れた位置に表示される、
オブジェクト表示方法。
各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出機能と、
動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示機能と、
をコンピュータに実現させるためのプログラムであり、
前記オブジェクト表示機能は、前記関係性スコアが高い登場人物の組に対応するオブジェクトの組を互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
プログラム。
上記の情報処理装置100は、表示装置の一例である。上記の関係性計算部103は、関係性スコア算出部の一例である。上記の出演時間計算部102は、出演時間算出部の一例である。上記のシーン画像表示部107は、シーン表示部の一例である。上記の再生制御部109は、動画再生部の一例である。
101 メタデータ取得部
102 出演時間計算部
103 関係性計算部
104 オブジェクト表示部
105 関連情報表示部
106 シーン画像取得部
107 シーン画像表示部
108 動画取得部
109 再生制御部
110 表示部
Claims (19)
- 各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出部と、
動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示部と、
を備え、
前記オブジェクト表示部は、前記関係性スコアが高い登場人物の組に対応するオブジェクトを互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
表示装置。 - 前記区間メタデータを利用し、各登場人物が動画中に登場する時間の合計値を表す出演時間を登場人物毎に算出する出演時間算出部をさらに備え、
前記オブジェクト表示部は、前記出演時間が長い登場人物に対応するオブジェクトを大きく表示し、前記出演時間が短い登場人物に対応するオブジェクトを小さく表示する、
請求項1に記載の表示装置。 - 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について共演作品の数を算出し、当該共演作品の数を前記関係性スコアとして出力する、
請求項1に記載の表示装置。 - 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として出演した共演作品の数に第1の重み値をかけた値と、一方の登場人物が主役として出演し、かつ、他方の登場人物が脇役として出演した共演作品の数に第2の重み値をかけた値と、両登場人物が脇役として出演した共演作品の数に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力し、
前記第1の重み値は、前記第2の重み値よりも大きく、
前記第2の重み値は、前記第3の重み値よりも大きい、
請求項1に記載の表示装置。 - 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、各共演作品中における一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
請求項2に記載の表示装置。 - 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が同じ動画フレームに登場する時間の合計値を算出し、当該合計値を前記関係性スコアとして出力する、
請求項1に記載の表示装置。 - 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として同じ動画フレームに登場する時間の合計値に第1の重み値をかけた値と、同じ動画フレームに一方の登場人物が主役として登場し、かつ、他方の登場人物が脇役として登場する時間の合計値に第2の重み値をかけた値と、両登場人物が脇役として同じ動画フレームに登場する時間の合計値に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力する、
請求項1に記載の表示装置。 - 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、共演作品毎に、一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値と、両登場人物が同じ動画フレームに登場する時間の合計値と、をかけた値を算出し、算出した値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
請求項2に記載の表示装置。 - 前記オブジェクト表示部は、表示領域内におけるオブジェクトの位置に関する第1の関数と、オブジェクト間の位置関係に関する第2の関数とで構成されるポテンシャル関数の値が最小となるように全てのオブジェクトを表示し、
前記第1の関数は、オブジェクトの位置が前記表示領域に近づくほど値が大きくなる関数であり、
前記第2の関数は、関係性のある登場人物の組に対応する2つのオブジェクトが当該登場人物の組に対応する関係性スコアに応じた距離に近づくと値が減少し、関係性のない登場人物の組に対応する2つのオブジェクトが近づくと値が増加する関数であり、
前記関係性スコアに応じた距離は、前記関係性スコアが大きくなるほど小さくなる、
請求項1に記載の表示装置。 - 動画の1シーンを表す画像をタイル状に並べて表示するシーン表示部をさらに備え、
前記シーン表示部は、1つの前記オブジェクトがユーザにより選択された場合に、選択されたオブジェクトに対応する登場人物が登場する動画の1シーンを表す画像をハイライト表示する、
請求項1に記載の表示装置。 - 前記シーン表示部は、動画からランダムにシーンを選択し、選択したシーンを表す画像をランダムな位置に並べて表示する、
請求項10に記載の表示装置。 - 前記シーン表示部は、同じ列に同じ動画から抽出された画像が並ぶように表示し、
前記画像は、抽出元の動画が古い順に行方向に並んで表示され、かつ、各動画中における出現時刻が早い順に列方向に並んで表示される、
請求項10に記載の表示装置。 - 前記シーン表示部は、同じムードを持つシーンが同じ列に並ぶように前記動画の1シーンを表す画像を表示する、
請求項10に記載の表示装置。 - 前記オブジェクト表示部は、ユーザにより1つの前記画像が選択された場合に、当該画像に対応する動画に登場する登場人物に対応するオブジェクトだけを表示する、
請求項10に記載の表示装置。 - 前記オブジェクト表示部は、関連性のある登場人物の組に対応する2つのオブジェクトを結ぶ線を表示する、
請求項1に記載の表示装置。 - ユーザにより1つの前記オブジェクトが選択された場合に、前記区間メタデータを利用して当該オブジェクトに対応する登場人物が登場する区間を抽出し、抽出した区間の動画フレームを再生する動画再生部をさらに備える、
請求項1に記載の表示装置。 - 前記オブジェクト表示部は、ユーザにより1つの前記オブジェクトが選択された場合に、選択されたオブジェクトに対応する登場人物と関係性のある登場人物に対応する全てのオブジェクトを同位相で動かす、
請求項1に記載の表示装置。 - 各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出するステップと、
動画に登場する各登場人物に対応するオブジェクトを表示するステップと、
を含み、
前記関係性スコアが高い登場人物の組に対応するオブジェクトの組は、互いに近い位置に表示され、
前記関係性スコアが低い登場人物の組に対応するオブジェクトの組は、互いに離れた位置に表示される、
オブジェクト表示方法。 - 各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出機能と、
動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示機能と、
をコンピュータに実現させるためのプログラムであり、
前記オブジェクト表示機能は、前記関係性スコアが高い登場人物の組に対応するオブジェクトの組を互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011127390A JP2012256105A (ja) | 2011-06-07 | 2011-06-07 | 表示装置、オブジェクト表示方法、及びプログラム |
CN2012101770669A CN102821261A (zh) | 2011-06-07 | 2012-05-31 | 显示设备、对象显示方法和程序 |
US13/485,104 US8928697B2 (en) | 2011-06-07 | 2012-05-31 | Display apparatus, object display method, and program for displaying objects corresponding to characters |
US14/582,476 US20150117838A1 (en) | 2011-06-07 | 2014-12-24 | Display apparatus, object display method, and program for displaying objects corresponding to characters |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011127390A JP2012256105A (ja) | 2011-06-07 | 2011-06-07 | 表示装置、オブジェクト表示方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012256105A true JP2012256105A (ja) | 2012-12-27 |
JP2012256105A5 JP2012256105A5 (ja) | 2014-06-19 |
Family
ID=47292813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011127390A Ceased JP2012256105A (ja) | 2011-06-07 | 2011-06-07 | 表示装置、オブジェクト表示方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (2) | US8928697B2 (ja) |
JP (1) | JP2012256105A (ja) |
CN (1) | CN102821261A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014238712A (ja) * | 2013-06-07 | 2014-12-18 | 三菱電機株式会社 | コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014060577A (ja) * | 2012-09-18 | 2014-04-03 | Sony Corp | 通信端末、プログラムおよび情報処理装置 |
JP6207260B2 (ja) * | 2013-06-28 | 2017-10-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9477879B2 (en) * | 2013-06-28 | 2016-10-25 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium for obtaining a relationship between pieces of contents from use history information about the contents |
US10291597B2 (en) | 2014-08-14 | 2019-05-14 | Cisco Technology, Inc. | Sharing resources across multiple devices in online meetings |
US10034038B2 (en) * | 2014-09-10 | 2018-07-24 | Cisco Technology, Inc. | Video channel selection |
US10542126B2 (en) | 2014-12-22 | 2020-01-21 | Cisco Technology, Inc. | Offline virtual participation in an online conference meeting |
US9948786B2 (en) | 2015-04-17 | 2018-04-17 | Cisco Technology, Inc. | Handling conferences using highly-distributed agents |
US10592867B2 (en) | 2016-11-11 | 2020-03-17 | Cisco Technology, Inc. | In-meeting graphical user interface display using calendar information and system |
US10516707B2 (en) | 2016-12-15 | 2019-12-24 | Cisco Technology, Inc. | Initiating a conferencing meeting using a conference room device |
US10783679B2 (en) * | 2017-01-30 | 2020-09-22 | Disney Enterprises Inc. | Circular visual representation of media content |
US10440073B2 (en) | 2017-04-11 | 2019-10-08 | Cisco Technology, Inc. | User interface for proximity based teleconference transfer |
US10375125B2 (en) | 2017-04-27 | 2019-08-06 | Cisco Technology, Inc. | Automatically joining devices to a video conference |
US10375474B2 (en) | 2017-06-12 | 2019-08-06 | Cisco Technology, Inc. | Hybrid horn microphone |
US10477148B2 (en) | 2017-06-23 | 2019-11-12 | Cisco Technology, Inc. | Speaker anticipation |
US10516709B2 (en) | 2017-06-29 | 2019-12-24 | Cisco Technology, Inc. | Files automatically shared at conference initiation |
US10706391B2 (en) | 2017-07-13 | 2020-07-07 | Cisco Technology, Inc. | Protecting scheduled meeting in physical room |
US10091348B1 (en) | 2017-07-25 | 2018-10-02 | Cisco Technology, Inc. | Predictive model for voice/video over IP calls |
CN107943935B (zh) * | 2017-11-23 | 2021-02-02 | 北京天广汇通科技有限公司 | 数据的处理方法、装置和计算机可读存储介质 |
NO20172029A1 (en) * | 2017-12-22 | 2018-10-08 | Pexip AS | Visual control of a video conference |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0946305A (ja) * | 1995-07-31 | 1997-02-14 | Sony Corp | Isdb用送信装置およびその受信装置 |
JPH10207907A (ja) * | 1997-01-27 | 1998-08-07 | Mitsubishi Electric Corp | 3次元空間を用いたオブジェクト配置・表示・操作方法および装置 |
JP2000299829A (ja) * | 1999-04-13 | 2000-10-24 | Canon Inc | 画像処理装置及び方法 |
JP2008167082A (ja) * | 2006-12-27 | 2008-07-17 | Toshiba Corp | 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム |
US20080196064A1 (en) * | 2007-02-14 | 2008-08-14 | Kabushiki Kaisha Toshiba | Apparatus and method of providing a recommended broadcast program |
JP2008276340A (ja) * | 2007-04-26 | 2008-11-13 | Hitachi Ltd | 検索装置 |
JP2009089065A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | 電子機器および顔画像表示装置 |
JP2009100314A (ja) * | 2007-10-17 | 2009-05-07 | Sony Corp | 電子機器、コンテンツ分類方法及びそのプログラム |
JP2009201041A (ja) * | 2008-02-25 | 2009-09-03 | Oki Electric Ind Co Ltd | コンテンツ検索装置およびその表示方法 |
JP2010062758A (ja) * | 2008-09-02 | 2010-03-18 | Sony Corp | 電子機器、情報処理方法及びプログラム |
JP2010213052A (ja) * | 2009-03-11 | 2010-09-24 | Casio Computer Co Ltd | 撮像装置、撮像方法、及び撮像プログラム |
JP2011023828A (ja) * | 2009-07-13 | 2011-02-03 | Toshiba Corp | 電子機器および映像データ処理方法 |
JP2011035837A (ja) * | 2009-08-05 | 2011-02-17 | Toshiba Corp | 電子機器および画像データの表示方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7986372B2 (en) * | 2004-08-02 | 2011-07-26 | Microsoft Corporation | Systems and methods for smart media content thumbnail extraction |
TW200806027A (en) * | 2005-11-11 | 2008-01-16 | Sony Corp | Imaging/reproducing device |
JP2007206919A (ja) * | 2006-02-01 | 2007-08-16 | Sony Corp | 表示制御装置および方法、プログラム、並びに記録媒体 |
US8949895B2 (en) * | 2006-08-18 | 2015-02-03 | The Directv Group, Inc. | Mosaic channel video stream with personalized interactive services |
CN101334780A (zh) * | 2007-06-25 | 2008-12-31 | 英特维数位科技股份有限公司 | 人物影像的搜寻方法、系统及存储影像元数据的记录媒体 |
JP4424389B2 (ja) * | 2007-08-24 | 2010-03-03 | ソニー株式会社 | 動画作成装置、動画作成方法、およびプログラム |
JP4462334B2 (ja) * | 2007-11-16 | 2010-05-12 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム及び情報共有システム |
JP5223318B2 (ja) * | 2007-12-07 | 2013-06-26 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2009151896A (ja) * | 2007-12-21 | 2009-07-09 | Sony Corp | 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム |
JP4816717B2 (ja) * | 2008-12-09 | 2011-11-16 | ソニー株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
JP2010277661A (ja) | 2009-05-29 | 2010-12-09 | Toshiba Corp | 番組再生装置及び番組再生方法 |
WO2010144093A1 (en) * | 2009-06-12 | 2010-12-16 | Otis Elevator Company | Elevator governor device |
JP5227911B2 (ja) * | 2009-07-22 | 2013-07-03 | 株式会社日立国際電気 | 監視映像検索装置及び監視システム |
JP5552767B2 (ja) * | 2009-07-27 | 2014-07-16 | ソニー株式会社 | 表示処理装置、表示処理方法および表示処理プログラム |
JP5524653B2 (ja) * | 2010-02-26 | 2014-06-18 | キヤノン株式会社 | 表示制御装置及びその制御方法 |
JP5570079B2 (ja) * | 2010-03-18 | 2014-08-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | データ処理装置およびデータ処理方法 |
-
2011
- 2011-06-07 JP JP2011127390A patent/JP2012256105A/ja not_active Ceased
-
2012
- 2012-05-31 US US13/485,104 patent/US8928697B2/en not_active Expired - Fee Related
- 2012-05-31 CN CN2012101770669A patent/CN102821261A/zh active Pending
-
2014
- 2014-12-24 US US14/582,476 patent/US20150117838A1/en not_active Abandoned
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0946305A (ja) * | 1995-07-31 | 1997-02-14 | Sony Corp | Isdb用送信装置およびその受信装置 |
JPH10207907A (ja) * | 1997-01-27 | 1998-08-07 | Mitsubishi Electric Corp | 3次元空間を用いたオブジェクト配置・表示・操作方法および装置 |
JP2000299829A (ja) * | 1999-04-13 | 2000-10-24 | Canon Inc | 画像処理装置及び方法 |
JP2008167082A (ja) * | 2006-12-27 | 2008-07-17 | Toshiba Corp | 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム |
US20080196064A1 (en) * | 2007-02-14 | 2008-08-14 | Kabushiki Kaisha Toshiba | Apparatus and method of providing a recommended broadcast program |
JP2008199406A (ja) * | 2007-02-14 | 2008-08-28 | Toshiba Corp | 推薦番組情報提供装置、推薦番組情報提供方法及びプログラム |
JP2008276340A (ja) * | 2007-04-26 | 2008-11-13 | Hitachi Ltd | 検索装置 |
JP2009089065A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | 電子機器および顔画像表示装置 |
JP2009100314A (ja) * | 2007-10-17 | 2009-05-07 | Sony Corp | 電子機器、コンテンツ分類方法及びそのプログラム |
JP2009201041A (ja) * | 2008-02-25 | 2009-09-03 | Oki Electric Ind Co Ltd | コンテンツ検索装置およびその表示方法 |
JP2010062758A (ja) * | 2008-09-02 | 2010-03-18 | Sony Corp | 電子機器、情報処理方法及びプログラム |
JP2010213052A (ja) * | 2009-03-11 | 2010-09-24 | Casio Computer Co Ltd | 撮像装置、撮像方法、及び撮像プログラム |
JP2011023828A (ja) * | 2009-07-13 | 2011-02-03 | Toshiba Corp | 電子機器および映像データ処理方法 |
JP2011035837A (ja) * | 2009-08-05 | 2011-02-17 | Toshiba Corp | 電子機器および画像データの表示方法 |
Non-Patent Citations (2)
Title |
---|
CSNG200600527002; 梶並 知記 外2名: '"キーワードマップを用いたWeb情報検索インタフェースのためのキーワード配置支援方法"' 計測自動制御学会論文集 第42巻,第4号, 20060430, p.319-326, 社団法人計測自動制御学会 * |
JPN6014049385; 梶並 知記 外2名: '"キーワードマップを用いたWeb情報検索インタフェースのためのキーワード配置支援方法"' 計測自動制御学会論文集 第42巻,第4号, 20060430, p.319-326, 社団法人計測自動制御学会 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014238712A (ja) * | 2013-06-07 | 2014-12-18 | 三菱電機株式会社 | コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20120313971A1 (en) | 2012-12-13 |
US20150117838A1 (en) | 2015-04-30 |
CN102821261A (zh) | 2012-12-12 |
US8928697B2 (en) | 2015-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012256105A (ja) | 表示装置、オブジェクト表示方法、及びプログラム | |
JP5857450B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7118966B2 (ja) | メディアアセットの着目オブジェクトの移動の経路を予測し、移動の経路におけるオーバーレイの設置を回避することによって、オーバーレイによるメディアアセットの妨害を最小化するためのシステムおよび方法 | |
JP5819649B2 (ja) | 自動でコンテンツを推薦するモバイルシステム、コンテンツ推薦システム、およびコンテンツ推薦方法 | |
JP5654984B2 (ja) | コンピューターおよびメディアプレーヤー上で消費されるコンテンツに複数の段階のコンテキストを提供すること | |
JP2012248070A (ja) | 情報処理装置、メタデータ設定方法、及びプログラム | |
JP2013025748A (ja) | 情報処理装置、動画要約方法、及びプログラム | |
WO2015048235A1 (en) | Systems and methods for presenting video/audio content and metadata for a broadband television service | |
US9558784B1 (en) | Intelligent video navigation techniques | |
JP2009100314A (ja) | 電子機器、コンテンツ分類方法及びそのプログラム | |
WO2013113985A1 (en) | Method, apparatus and computer program product for generation of motion images | |
US20150301693A1 (en) | Methods, systems, and media for presenting related content | |
CN112118397B (zh) | 一种视频合成的方法、相关装置、设备以及存储介质 | |
US20230164369A1 (en) | Event progress detection in media items | |
WO2014174940A1 (ja) | コンテンツ再生装置およびコンテンツ再生装置の広告表示方法 | |
WO2015121436A1 (en) | Sensed content delivery | |
CN109618229A (zh) | 音视频的关联播放方法、装置、服务器及存储介质 | |
JP6031096B2 (ja) | オブジェクトの位置を通じた映像ナビゲーション | |
JP2006139408A (ja) | 特徴ベクトル生成装置、検索装置、特徴ベクトル生成方法、検索方法及びプログラム | |
KR101683809B1 (ko) | 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치 | |
KR101658189B1 (ko) | 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치 | |
JP5399211B2 (ja) | 情報処理システム、サーバ装置、情報処理方法、およびプログラム | |
JP6344379B2 (ja) | 情報処理装置、及び情報処理方法 | |
KR101580944B1 (ko) | 이벤트 영상 및 비-이벤트 영상을 포함하는 탐색 바를 구비한 영상 재생 장치 및 그 동작 방법 | |
CN112839251A (zh) | 一种电视及其与用户的交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140424 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150331 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20150728 |