JP2012256105A - 表示装置、オブジェクト表示方法、及びプログラム - Google Patents

表示装置、オブジェクト表示方法、及びプログラム Download PDF

Info

Publication number
JP2012256105A
JP2012256105A JP2011127390A JP2011127390A JP2012256105A JP 2012256105 A JP2012256105 A JP 2012256105A JP 2011127390 A JP2011127390 A JP 2011127390A JP 2011127390 A JP2011127390 A JP 2011127390A JP 2012256105 A JP2012256105 A JP 2012256105A
Authority
JP
Japan
Prior art keywords
person
relationship
character
scene
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2011127390A
Other languages
English (en)
Other versions
JP2012256105A5 (ja
Inventor
Makoto Murata
誠 村田
Tomohiko Goto
智彦 後藤
Naoki Shibuya
直樹 澁谷
Shunsuke Mochizuki
俊助 望月
Takeshi Yaeda
岳 八重田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011127390A priority Critical patent/JP2012256105A/ja
Priority to CN2012101770669A priority patent/CN102821261A/zh
Priority to US13/485,104 priority patent/US8928697B2/en
Publication of JP2012256105A publication Critical patent/JP2012256105A/ja
Publication of JP2012256105A5 publication Critical patent/JP2012256105A5/ja
Priority to US14/582,476 priority patent/US20150117838A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/22Means responsive to presence or absence of recorded information signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】一又は複数の動画に登場する人物について、人物間の関係性をユーザに分かりやすく提示すること。
【解決手段】各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出部と、動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示部と、を備え、前記オブジェクト表示部は、前記関係性スコアが高い登場人物の組に対応するオブジェクトを互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、表示装置が提供される。
【選択図】図1

Description

本技術は、表示装置、オブジェクト表示方法、及びプログラムに関する。
テレビジョン映像やビデオ映像など、人々は、様々な動画を視聴する機会に恵まれている。また、広域通信網の整備が進み、多くの家庭では、インターネットを介してストリーミング配信される動画(以下、ストリーミング映像)を視聴することも可能になっている。こうした動画を視聴する際、ユーザは、リモートコントローラ(以下、リモコン)を操作して放送局を選択したり、ビデオ映像の再生を開始させたりする。視聴する動画が録画映像、DVDビデオ映像、Blu−rayビデオ映像、ストリーミング映像などの場合、ユーザは、再生を開始する位置を指定したり、一部の映像シーンをスキップさせたりすることができる。例えば、下記の特許文献1には、簡単な操作でCMをスキップ再生できるようにする技術が開示されている。
特開2010−277661号公報
しかしながら、動画に登場する人物の中から指定した人物が登場する映像シーンを選択的に再生できるようにしたり、指定した人物に関係する人物が登場する別の動画を再生できるようにしたりする技術は知られていない。また、動画に登場する人物について、人物間の関係性をユーザに分かりやすく提示する技術も知られていない。そこで、本技術は、上記のような事情を受けて考案されたものであり、一又は複数の動画に登場する人物について、人物間の関係性をユーザに分かりやすく提示することが可能な、新規かつ改良された表示装置、オブジェクト表示方法、及びプログラムを提供することを意図している。
本技術のある観点によれば、各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出部と、動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示部と、を備え、前記オブジェクト表示部は、前記関係性スコアが高い登場人物の組に対応するオブジェクトを互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、表示装置が提供される。
また、本技術の別の観点によれば、各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出するステップと、動画に登場する各登場人物に対応するオブジェクトを表示するステップと、を含み、前記関係性スコアが高い登場人物の組に対応するオブジェクトの組は、互いに近い位置に表示され、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組は、互いに離れた位置に表示される、オブジェクト表示方法が提供される。
また、本技術の別の観点によれば、各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出機能と、動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示機能と、をコンピュータに実現させるためのプログラムであり、前記オブジェクト表示機能は、前記関係性スコアが高い登場人物の組に対応するオブジェクトの組を互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、プログラムが提供される。
また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本技術によれば、一又は複数の動画に登場する人物について、人物間の関係性をユーザに分かりやすく提示することが可能になる。
本実施形態に係る情報処理装置の機能構成について説明するための説明図である。 本実施形態に係る動画タイムラインメタデータの構成について説明するための説明図である。 本実施形態に係る区間メタデータの構成及び区間メタデータを利用して検出可能な情報について説明するための説明図である。 本実施形態に係る関係性の評価方法について説明するための説明図である。 本実施形態に係る関係性マトリックスの構成について説明するための説明図である。 本実施形態に係る関係性マトリックスの計算方法について説明するための説明図である。 本実施形態に係る関係性マトリックスの計算方法について説明するための説明図である。 本実施形態に係る関係性マトリックスの計算方法について説明するための説明図である。 本実施形態に係る関係性マトリックスの計算方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法及びシーン画像の表示方法について説明するための説明図である。 本実施形態に係るシーン画像の表示方法について説明するための説明図である。 本実施形態に係るシーン画像の表示方法について説明するための説明図である。 本実施形態に係るシーン画像の表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法及びシーン画像の表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法及びシーン画像の表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法及びシーン画像の表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法及びシーン画像の表示方法について説明するための説明図である。 本実施形態に係るオブジェクトの表示方法、シーン画像の表示方法、及び関連情報の表示方法について説明するための説明図である。 本実施形態に係る再生ウィンドウの表示方法について説明するための説明図である。 本実施形態に係る情報処理装置のハードウェア構成例について説明するための説明図である。
以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。
まず、図1を参照しながら、本実施形態に係る情報処理装置100の構成について説明する。次いで、図2を参照しながら、本実施形態に係る動画タイムラインメタデータの構成について説明する。次いで、図3〜図9を参照しながら、本実施形態に係る関係性値の算出方法について説明する。次いで、図10〜図24を参照しながら、本実施形態に係る関係性値を利用したオブジェクトの表示方法について説明する。
次いで、図25〜図32を参照しながら、本実施形態に係るシーン画像の表示方法について説明する。次いで、図33を参照しながら、本実施形態に係る関連情報の表示方法について説明する。次いで、図34を参照しながら、本実施形態に係る動画再生画面の表示方法及び動画の再生方法について説明する。次いで、図35を参照しながら、本実施形態に係る情報処理装置100の機能を実現することが可能なハードウェア構成例について説明する。最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:実施形態
1−1:情報処理装置100の構成
1−2:関係性値の算出方法
1−2−1:区間メタデータに基づく共演関係の評価方法
1−2−2:共演作品数に基づく関係性値の算出方法
1−2−3:共演作品数に基づく関係性値の算出方法(重み付き)
1−2−4:出演時間に基づく関係性値の算出方法
1−2−5:出演シーン時間に基づく関係性値の算出方法
1−3:オブジェクトの表示方法
1−3−1:オブジェクトのサイズについて
1−3−2:オブジェクト間の距離について
1−3−3:奥行き表現について
1−3−4:関係性の表現について
1−4:シーン画像の表示方法
1−4−1:シーン画像の配置方法(ランダム配置)
1−4−2:シーン画像の配置方法(時系列配置)
1−4−3:シーン画像の配置方法(ムードに応じた配置)
1−5:シーン画像表示及びオブジェクト表示の切り替え
1−5−1:年代の切り替え
1−5−2:地域の切り替え
1−5−3:切り替え時のオブジェクト表示
1−6:その他の表示方法
1−6−1:3D表示
1−6−2:関連情報の表示
1−6−3:動画再生画面の表示
2:ハードウェア構成例
3:まとめ
<1:実施形態>
本技術の一実施形態について説明する。本実施形態に係る技術は、動画に登場する登場人物について登場人物間の関係性を抽出し、関係性の有無及び関係性の強さをユーザに分かりやすく提示する技術に関する。また、本実施形態に係る技術は、指定された登場人物と動画との関係を俯瞰することが可能なユーザインターフェースを提供する技術に関する。さらに、本実施形態に係る技術は、指定された登場人物が登場する映像シーンを選択的に再生したり、その登場人物に関する関連情報を表示したりするためのユーザインターフェースを提供する技術に関する。以下、詳細な技術内容について説明する。
[1−1:情報処理装置100の構成]
まず、図1を参照しながら、本実施形態に係る情報処理装置100の構成について説明する。図1は、本実施形態に係る情報処理装置100の構成について説明するための説明図である。
(全体構成)
図1に示すように、情報処理装置100は、主に、メタデータ取得部101と、出演時間計算部102と、関係性計算部103と、オブジェクト表示部104と、関連情報表示部105と、シーン画像取得部106と、シーン画像表示部107と、動画取得部108と、再生制御部109と、表示部110とにより構成される。なお、表示部110は、別体であってもよい。この場合、情報処理装置100は、信号線又はネットワークを通じて表示部110に画像を表示させる表示制御装置として機能する。さらに、動画取得部108及び再生制御部109は別体であってもよい。
(オブジェクトの表示に関する構成)
まず、メタデータ取得部101は、動画タイムラインメタデータを取得する。例えば、メタデータ取得部101は、信号線又はネットワークを介して接続された記憶装置、又はネットワークを介して接続されたメタデータ提供システムなどから動画タイムラインメタデータを取得する。記憶装置としては、例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどの記録媒体に書き込まれたデータを読み出し可能な装置、或いは、これら記録媒体にデータを書き込み及び読み出し可能な装置が該当する。なお、メタデータ取得部101は、事前に動画タイムラインメタデータを取得しておいてもよいし、再生対象の動画がユーザにより指定されたタイミングで動画タイムラインメタデータを取得してもよい。
動画タイムラインメタデータは、図2に示すように、領域メタデータ、区間メタデータ、オブジェクトメタデータにより構成される。領域メタデータは、動画フレーム内に登場する人物や物品などの位置及び範囲を示すメタデータである。図2の例では、動画フレーム内に登場する人物の顔領域を示す領域メタデータが例示されている。また、区間メタデータは、動画の中で、人物や物品などが登場する区間を示すメタデータである。そして、オブジェクトメタデータは、動画に登場する人物や物品などに関する関連情報を示すメタデータである。
なお、動画タイムラインメタデータは、動画に登場する人物毎及び物品毎に設定される。また、動画タイムラインメタデータは、動画1つ1つについて設定される。そのため、動画タイムラインメタデータのうち、区間メタデータを利用することにより、ある登場人物がどの動画のどの区間に登場するかを把握することが可能になる。また、領域メタデータを利用することにより、ユーザが指定した画面上の領域と、画面上に表示されている人物や物品などとの対応関係を把握することが可能になる。例えば、領域メタデータ及びオブジェクトメタデータを利用すると、ユーザが登場人物の顔領域を指定すると、その登場人物に関する関連情報が表示されるといったユーザインターフェースを実現することが可能になる。
再び図1を参照する。メタデータ取得部101により取得された動画タイムラインメタデータは、出演時間計算部102、関係性計算部103、関連情報表示部105、再生制御部109に入力される。例えば、出演時間計算部102、関係性計算部103、及び再生制御部109には、区間メタデータが入力される。また、関連情報表示部105には、領域メタデータ及びオブジェクトメタデータが入力される。なお、関係性計算部103及び再生制御部109に領域メタデータが入力されるように構成されていてもよい。
区間メタデータが入力されると、出演時間計算部102は、入力された区間メタデータを利用し、各動画における各登場人物の出演時間(以下、動画別出演時間)を計算する。区間メタデータには、人物が登場する各区間の出現開始時間及び出現終了時間が含まれている。そのため、1つの動画について各登場区間の長さを合計することにより、その動画における動画別出演時間を計算することができる。また、出演時間計算部102は、対象とする全ての動画を対象に動画別出演時間を合計して人物毎の総出演時間を算出する。
出演時間計算部102により算出された動画別出演時間の情報は、関係性計算部103に入力される。また、出演時間計算部102により算出された総出演時間の情報は、オブジェクト表示部104に入力される。区間メタデータ及び動画別出演時間の情報が入力されると、関係性計算部103は、入力された区間メタデータ及び動画別出演時間の情報を利用して人物間の関係性を示す関係性値を算出する。この関係性値は、関係性の有無及び関係性の強さを示すスコアである。なお、関係性値の算出方法については後述する。
関係性計算部103により算出された関係性値は、オブジェクト表示部104に入力される。総出演時間の情報及び関係性値が入力されると、オブジェクト表示部104は、人物を示すオブジェクトを表示部110に表示する。このとき、オブジェクト表示部104は、総出演時間の情報に基づいてオブジェクトのサイズを調整し、関係性値に基づいて各オブジェクトの配置を調整する。なお、総出演時間の情報及び関係性値に基づくオブジェクトの表示方法については後述する。また、オブジェクト表示部104は、オブジェクトの表示位置を変更する操作、オブジェクトを指定する操作、或いは、後述するシーン画像の切り替え操作などが行われた際にオブジェクトの表示を制御する。
(関連情報の表示に関する構成)
さて、関連情報表示部105には、領域メタデータ及びオブジェクトメタデータが入力される。領域メタデータ及びオブジェクトメタデータが入力されると、関連情報表示部105は、入力された領域メタデータ及びオブジェクトメタデータを利用して表示部110に関連情報を表示する。例えば、あるオブジェクトが選択された場合、関連情報表示部105は、選択されたオブジェクトに対応する人物又は物品の関連情報を表示する。また、動画の再生中に、ある画面上の領域が選択された場合、関連情報表示部105は、領域メタデータを利用して、選択された領域に対応する人物又は物品を検出する。そして、関連情報表示部105は、検出した人物又は物品に関する関連情報を表示する。なお、関連情報の具体的な表示方法については後述する。
(シーン画像の表示に関する構成)
シーン画像取得部106は、動画の1シーンを表現したシーン画像を取得する。例えば、シーン画像取得部106は、信号線又はネットワークを介して接続された記憶装置、又はネットワークを介して接続された動画配信システムなどから動画又はシーン画像を取得する。記憶装置としては、例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどの記録媒体に書き込まれたデータを読み出し可能な装置、或いは、これら記録媒体にデータを書き込み及び読み出し可能な装置が該当する。なお、シーン画像取得部106は、事前に動画又はシーン画像を取得しておいてもよいし、再生対象の動画がユーザにより指定されたタイミングで動画又はシーン画像を取得してもよい。
また、シーン画像取得部106は、動画から1枚の画像を抽出し、その画像をシーン画像として利用してもよいし、予め用意されたシーン画像を利用してもよい。或いは、シーン画像に動画像を再生して利用してもよい。例えば、シーン画像取得部106は、動画の先頭に位置する動画フレームの画像をシーン画像として利用したり、動画のパッケージ写真をシーン画像として利用したりする。なお、シーン画像取得部106は、1つの動画につき1枚又は複数枚のシーン画像を取得する。また、シーン画像取得部106により取得されたシーン画像は、シーン画像表示部107に入力される。
シーン画像が入力されると、シーン画像表示部107は、入力されたシーン画像を表示部110に表示する。このとき、シーン画像表示部107は、複数枚のシーン画像をタイル状に並べて表示する。また、シーン画像表示部107は、予め設定された配置ルールに基づいてシーン画像を配置する。例えば、シーン画像表示部107は、ランダムにシーン画像を配置したり、動画の種類や時間情報に基づいてシーン画像を配置したりする。さらに、シーン画像表示部107は、シーン画像の切り替え操作が行われた場合に、その切り替え操作に応じてシーン画像を切り替える。なお、シーン画像の表示方法については後述する。
(動画の再生制御に関する構成)
動画取得部108は、信号線又はネットワークを介して接続された記憶装置、又はネットワークを介して接続された動画配信システムなどから動画を取得する。記憶装置としては、例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどの記録媒体に書き込まれたデータを読み出し可能な装置、或いは、これら記録媒体にデータを書き込み及び読み出し可能な装置が該当する。なお、動画取得部108は、事前に動画を取得しておいてもよいし、再生対象の動画がユーザにより指定されたタイミングで動画を取得してもよい。動画取得部108により取得された動画は、再生制御部109に入力される。
動画が入力されると、再生制御部109は、入力された動画を再生し、映像を表示部110に表示させる。例えば、あるオブジェクトが選択された場合、再生制御部109は、メタデータ取得部101により入力された区間メタデータを利用し、選択されたオブジェクトに対応する人物が登場する区間を特定する。そして、再生制御部109は、特定した区間を選択的に再生する。また、動画の再生中に、ある人物が選択された場合、再生制御部109は、区間メタデータを利用し、選択された人物が登場する区間を選択的に再生する。さらに、再生制御部109は、区間メタデータを利用し、動画の再生中に登場する人物の登場シーンを表示したり、選択された登場シーンを再生したりする。
以上、本実施形態に係る情報処理装置100の構成について説明した。
[1−2:関係性値の算出方法]
次に、図3〜図9を参照しながら、本実施形態に係る関係性値の算出方法について説明する。なお、関係性値の計算は、主に関係性計算部103の機能により実現される。
(1−2−1:区間メタデータに基づく共演関係の評価方法)
まず、図3〜図5を参照しながら、区間メタデータに基づく共演関係の評価方法について説明する。ここでは、区間メタデータから得られる主な情報の種類と、人物間の関係性を評価する際の評価基準とについて説明する。図3〜図5は、区間メタデータに基づく共演関係の評価方法について説明するための説明図である。
まず、図3を参照する。先に述べたように、区間メタデータは、動画毎及び人物毎に用意されている。また、各区間メタデータは、人物が登場する動画中の区間を表す。図3には、動画M1について、人物Aの登場区間を表した区間メタデータと、人物Bの登場区間を表した区間メタデータと、人物Cの登場区間を表した区間メタデータとが例示されている。図3の例では、t〜tの区間、t〜t11の区間、t13〜t16の区間が人物Aの登場区間である。また、t〜tの区間、t〜tの区間、t10〜t12の区間が人物Bの登場区間である。さらに、t〜tの区間、t14〜t15の区間が人物Cの登場区間である。
図3に例示した3つの区間メタデータからは、動画Mにおける各登場人物の出演時間(動画別出演時間)、動画Mにおける共演者、動画Mにおける共演シーンの長さ(以下、共演シーン時間)が分かる。例えば、動画Mにおける人物Aの動画別出演時間Δtは、Δt1A=|t−t|+|t11−t|+|t16−t13|と算出される。人物Bの動画別出演時間Δt1B、人物Cの動画別出演時間Δt1Cについても同様である。また、動画Mにおいて人物A、B、Cの登場区間が存在することから、人物Aと人物Bとは共演者であり、人物Bと人物Cとは共演者であり、人物Cと人物Aとは共演者であることが分かる。
さらに、t〜tの区間及びt10〜t11の区間で人物Aと人物Bとが共に登場しているから、動画Mにおける人物Aと人物Bとの共演シーン時間Δt1ABは、Δt1AB=|t−t|+|t11−t10|と算出される。同様に、t〜tの区間で人物Bと人物Cとが共に登場しているから、動画Mにおける人物Bと人物Cとの共演シーン時間Δt1BCは、Δt1BC=|t−t|と算出される。また、t15〜t14の区間で人物Aと人物Cとが共に登場しているから、動画Mにおける人物Aと人物Cとの共演シーン時間Δt1CAは、Δt1CA=|t15−t14|と算出される。
このように、各動画の区間メタデータを分析することにより、各動画における各登場人物の動画別出演時間、各動画における共演者、各動画における共演シーン時間が得られる。また、複数の動画について得られた動画別出演時間、共演者、共演シーン時間などの情報を組み合わせると、図4に示すように、対象とする動画群(図4の例では動画M〜M)について各人物の総出演時間、各人物の組に関する共演作品数、各人物の組に関する総共演時間、各人物の組に関する総共演シーン時間といった情報が得られる。
例えば、対象とする動画群について同じ人物の動画別出演時間を合計すると、その人物に関する総出演時間が得られる。また、各動画における共演者が分かっているため、ある人物の組が共演者となっている動画の数を計算すれば、その人物の組に関する共演作品数が得られる。さらに、ある人物の組に注目し、その人物の組が共演する動画群について各人物の動画別出演時間を合計することで、その人物の組に関する共演時間が得られる。また、ある人物の組に注目し、その人物の組が共演する動画群について共演シーン時間を合計することで、その人物の組に関する共演シーン時間が得られる。
例えば、人物Dと人物Eとが動画M、Mで共演しているとしよう。この場合、人物Dと人物Eとの組に関する共演時間は、動画M及びMにおける人物Dの動画別出演時間(Δt2D及びΔt5D)の合計値と、動画M及びMにおける人物Eの動画別出演時間(Δt2E及びΔt5E)の合計値との和(Δt2D+Δt5D+Δt2E+Δt5E)となる。また、人物Dと人物との組に関する共演シーン時間は、動画Mにおける共演シーン時間Δt2DEと、動画Mにおける共演シーン時間Δt5DEとの和(Δt2DE+Δt5DE)となる。
共演作品数が多い人物の組、共演時間の長い人物の組、共演シーン時間の長い人物の組は、人物間の関係性が強い組であると考えられる。また、お互いに主役として共演している作品が多いほど、人物間の関係性が強いと考えることもできる。さらに、表示される面積なども考慮して人物間の関係性を評価する方が好ましいと考えられる。表示面積を考慮しないと、例えば、エキストラとして出演している人物と主演俳優との間の関係性が高く、主演俳優と主演女優との間の関係性が低くなるといったことも起こりうる。主役や脇役などの情報は、オブジェクトメタデータから得られる。また、表示面積などは、領域メタデータから得られる。
上記のように、区間メタデータを利用することで、人物間の関係性を評価するための様々な情報が得られる。また、その情報を利用することにより、人物間の関係性を評価することができる。さらに、オブジェクトメタデータや領域メタデータを併せて利用することにより、人物間の関係性をより適切に評価することが可能になる。例えば、人物間の関係性は、図5に示すように、マトリックスの形式で表現できる。なお、マトリックスの各枠には、その要素に対応する人物の組について関係性の強さを表す関係性値が入る。なお、このマトリックスのことを関係性マトリックスと呼ぶことにする。以下、関係性値の具体的な算出方法について説明する。
(1−2−2:共演作品数に基づく関係性値の算出方法)
まず、図6を参照しながら、共演作品数に基づく関係性値の算出方法について説明する。図6は、共演作品数に基づく関係性値の算出方法について説明するための説明図である。なお、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
既に述べたように、区間メタデータを利用すると、図6に示すように、人物A、人物B、人物Cの共演関係が得られる。図6の例において、動画Mの出演者は、人物A、人物B、人物Cである。また、動画Mの出演者は、人物A、人物Cである。さらに、動画Mの出演者は、人物Bだけである。そして、動画Mの出演者は、人物Aだけである。また、動画Mの出演者は、人物A、人物Bである。さらに、動画Mの出演者は、人物A、人物Bである。つまり、人物Aと人物Bとが共演する作品は、動画M、動画M、動画Mである。また、人物Aと人物Cとが共演する作品は、動画M、動画Mである。さらに、人物Bと人物Cとが共演する作品は、動画Mだけである。
人物Aと人物Bとが共演する作品数は3、人物Aと人物Cとが共演する作品数は2、人物Bと人物Cとが共演する作品数は1であるため、人物Aと人物Bとの関係性を表す関係性値は3、人物Aと人物Cとの関係性を表す関係性値は2、人物Bと人物Cとの関係性を表す関係性値は1となる。なお、同じ人物間の関係性値も形式的に算出することができる。例えば、人物Aと人物Aとが共演する作品は、人物Aが出演する作品と同義であり、動画M、M、M〜Mが該当する。つまり、人物Aと人物Aとの共演作品数は5となり、人物Aと人物Aとの関係性を表す関係性値は5となる。人物B、人物Cについても同様である。
同じ人物に関する関係性値も含め、上記の方法で算出された関係性値をまとめると、図6に示すような関係性マトリックスが得られる。但し、この関係性マトリックスの対角成分は、各枠に対応する人物の出演作品数を表す。また、出演数の多い人物はメジャー度が高いと考えられるため、関係性マトリックスの対角成分はメジャー度を表しているとも言える。なお、ここでは出演作品数をそのまま関係性値として利用しているが、所定の係数をかけたり、正規化したりするなど、加工した数値を関係性値としてもよい。
以上、共演作品数に基づく関係性の算出方法について説明した。
(1−2−3:共演作品数に基づく関係性値の算出方法(重み付き))
次に、図7を参照しながら、共演作品数に基づく関係性値の算出方法(重み付き)について説明する。図7は、共演作品数に基づく関係性値の算出方法(重み付き)について説明するための説明図である。ここでは、主役/脇役の区別を重みで表現し、その重み値と共演作品数とに基づいて関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
区間メタデータを利用すると、図7に示すように、人物A、人物B、人物Cの共演関係が得られる。図7の例において、動画Mの出演者は、人物A、人物B、人物Cである。また、動画Mの出演者は、人物A、人物Cである。さらに、動画Mの出演者は、人物Bだけである。そして、動画Mの出演者は、人物Aだけである。また、動画Mの出演者は、人物A、人物Bである。さらに、動画Mの出演者は、人物A、人物Bである。つまり、人物Aと人物Bとが共演する作品は、動画M、動画M、動画Mである。また、人物Aと人物Cとが共演する作品は、動画M、動画Mである。さらに、人物Bと人物Cとが共演する作品は、動画Mだけである。
また、オブジェクトメタデータを利用すると、動画Mにおいて人物A及び人物Bが主役、人物Cが脇役であることが分かる。同様に、動画Mにおいて人物Aが主役、人物Cが脇役であることが分かる。また、動画Mにおいて人物Bが主役であることが分かる。さらに、動画Mにおいて人物Aが脇役であることが分かる。そして、動画Mにおいて人物A、人物Bが脇役であることが分かる。また、動画Mにおいて人物Aが主役、人物Bが脇役であることが分かる。
ここで、重みについて考える。共演者が共に主役の場合、共演作品1つにつきスコア=4を与えるものとする。また、共演者の一方が主役、かつ、他方が脇役の場合、共演作品1つにつきスコア=2を与えるものとする。さらに、共演者が共に脇役の場合、共演作品1つにつきスコア=1を与えるものとする。
図7の例において、人物Aと人物Bとが共に主役を務める作品は、動画Mである。また、人物Aが主役を務め、かつ、人物Bが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Bが主役を務める作品は、動画Mである。そして、人物Aと人物Bとが共に脇役を務める作品は、動画Mである。これらの結果から、人物Aと人物Bとの組について、人物Aと人物Bとが共に主役を務める作品の数は1である。また、人物Aが主役を務め、かつ、人物Bが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Bが主役を務める作品の数は1である。そして、人物Aと人物Bとが共に脇役を務める作品の数は1である。従って、スコアの合計は、4×1+2×1+1×1=7となる。つまり、人物Aと人物Bとの関係性を表す関係性値は7となる。
同様に、人物Aと人物Cとが共に主役を務める作品は、動画Mである。また、人物Aが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Cが主役を務める作品は、動画Mである。そして、人物Aと人物Cとが共に脇役を務める作品は存在しない。これらの結果から、人物Aと人物Cとの組について、人物Aと人物Cとが共に主役を務める作品の数は1である。また、人物Aが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Cが主役を務める作品の数は1である。そして、人物Aと人物Cとが共に脇役を務める作品の数は0である。従って、スコアの合計は、4×1+2×1+1×0=6となる。つまり、人物Aと人物Cとの関係性を表す関係性値は6となる。
同様に、人物Bと人物Cとが共に主役を務める作品は存在しない。また、人物Bが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Bが脇役を務め、かつ、人物Cが主役を務める作品は、動画Mである。そして、人物Bと人物Cとが共に脇役を務める作品は存在しない。これらの結果から、人物Bと人物Cとの組について、人物Bと人物Cとが共に主役を務める作品の数は0である。また、人物Bが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Bが脇役を務め、かつ、人物Cが主役を務める作品の数は1である。そして、人物Bと人物Cとが共に脇役を務める作品の数は0である。従って、スコアの合計は、4×0+2×1+1×0=2となる。つまり、人物Bと人物Cとの関係性を表す関係性値は2となる。
同じ人物に関する関係性値も同様にして求め、これらの関係性値をまとめると、図7に示すような関係性マトリックスが得られる。但し、この関係性マトリックスの対角成分は、各枠に対応する人物のメジャー度を表している。なお、ここではスコアの合計値をそのまま関係性値としたが、合計値の平方根を関係性値としてもよい。また、上記の説明では、役柄の組み合わせに応じてスコア付けする方法を例示したが、例えば、次のように役柄重みRWを定義し、下記の式(1)に基づいて関係性値Relを算出してもよい。役柄重みRW(M,A)は、動画Mにおける人物Aの役柄が主役の場合に2、脇役の場合に1、出演していない場合に0をとる。また、Rel(A,B)は、人物Aと人物Bとの関係性を示す関係性値を表す。
Figure 2012256105
以上、共演作品数に基づく関係性の算出方法(重み付き)について説明した。
(1−2−4:出演時間に基づく関係性値の算出方法)
次に、図8を参照しながら、出演時間に基づく関係性値の算出方法について説明する。図8は、出演時間に基づく関係性値の算出方法について説明するための説明図である。ここでは、各動画における各人物の出演時間を利用して関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
区間メタデータを利用すると、図8に示すように、人物A、人物B、人物Cの共演関係が得られる。図8の例において、動画Mの出演者は、人物A、人物B、人物Cである。また、動画Mの出演者は、人物A、人物Cである。さらに、動画Mの出演者は、人物Bだけである。そして、動画Mの出演者は、人物Aだけである。また、動画Mの出演者は、人物A、人物Bである。さらに、動画Mの出演者は、人物A、人物Bである。つまり、人物Aと人物Bとが共演する作品は、動画M、動画M、動画Mである。また、人物Aと人物Cとが共演する作品は、動画M、動画Mである。さらに、人物Bと人物Cとが共演する作品は、動画Mだけである。
また、区間メタデータを利用すると、図8に示すように、動画Mにおける人物Aの出演時間は40、人物Bの出演時間は30、人物Cの出演時間は10であることが分かる。同様に、動画Mにおける人物Aの出演時間は30、人物Cの出演時間は40であることが分かる。また、動画Mにおける人物Bの出演時間は20であることが分かる。さらに、動画Mにおける人物Aの出演時間は10であることが分かる。そして、動画Mにおける人物Aの出演時間は5、人物Bの出演時間は10であることが分かる。また、動画Mにおける人物Aの出演時間は40、人物Bの出演時間は5であることが分かる。
出演時間が長い人物は、その動画の中で重要な役を担当していると言える。また、互いに重要な役で出演している人物間の関係性は強いと考えられる。逆に、互いに出演時間が短い人物間の関係性は低いと考えられる。例えば、ちょい役で登場する人物間の関係性は低く評価されるべきであろう。こうした考えから、出演時間PSLを定義し、下記の式(2)に基づいて関係性値Relを算出する方法を提案する。但し、出演時間PSL(M,A)は、動画Mにおける人物Aの出演時間を表し、人物Aが出演していない場合には0をとる。また、Rel(A,B)は、人物Aと人物Bとの関係性を示す関係性値を表す。なお、右辺の平方根を関係性値としてもよい。
Figure 2012256105
図8の例において、人物Aと人物Bとの関係性を示す関係性値は、40×30(動画M)+30×0(動画M)+0×20(動画M)+10×0(動画M)+5×10(動画M)+40×5(動画M)=1450となる。同様に計算すると、人物Aと人物Cとの関係性を示す関係性値は1600、人物Bと人物Cとの関係性を示す関係性値は300となる。これらの数値をまとめると、図8に示すような関係性マトリックスが得られる。なお、同じ人物についても同様に計算することが可能である。出演時間の長い人物は、メジャー度の高い人物であると言える。そのため、同じ人物に関する関係性値(関係性マトリックスの対角成分)は、各人物のメジャー度を表す。
以上、出演時間に基づく関係性マトリックスの計算方法について説明した。
(1−2−5:出演シーン時間に基づく関係性値の算出方法)
次に、図9を参照しながら、出演シーン時間に基づく関係性値の算出方法について説明する。図9は、出演シーン時間に基づく関係性値の算出方法について説明するための説明図である。ここでは、各動画における共演シーン時間を利用して関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
区間メタデータを利用すると、図9に示すように、各動画について各人物の組に関する共演シーン時間が得られる。なお、図9の中では、人物Xと人物Yとの組に関する共演シーン時間を[X,Y]と表現している。例えば、動画Mにおける人物Aと人物Bとの組に関する共演シーン時間は[A,B]=20である。同様に、動画Mに関しては、[A,A]=40、[B,B]=30,[C,C]=10、[A,C]=5、[B,C]=5という結果が得られている。なお、[A,A]とは、人物Aと人物Aとが共演する区間の長さを示すものであるが、同じ人物が対象であるから、人物Aの出演時間に一致する。[B,B]、[C,C]についても同様である。
同じ映像シーンに登場する人物間の関係性は強いと考えられる。例えば、会話を交わす関係にある人物は、当然のことながら同じ映像シーンに登場する。また、敵対していたり、或いは、味方の関係にある人物は、動画の中で同じ映像シーンに登場する頻度が高い。ヒーロー役の人物とヒロイン役の人物も同じ映像シーンに登場する頻度が高い。こうした考えから、共演シーン時間CSLを定義し、下記の式(3)に基づいて関係性値Relを算出する方法を提案する。但し、共演シーン時間CSL(M,A,B)は、動画Mにおいて人物Aと人物Bとが共演している区間の長さを表し、いずれかの人物が出演していない場合には0をとる。また、Rel(A,B)は、人物Aと人物Bとの関係性を示す関係性値を表す。なお、右辺の平方根を関係性値としてもよい。
Figure 2012256105
図9の例において、人物Aと人物Bとの関係性を示す関係性値は、20(動画M)+0(動画M)+0(動画M)+0(動画M)+5(動画M)+5(動画M)=30となる。同様に計算すると、人物Aと人物Cとの関係性を示す関係性値は25、人物Bと人物Cとの関係性を示す関係性値は5となる。これらの数値をまとめると、図9に示すような関係性マトリックスが得られる。なお、同じ人物についても同様に計算することが可能である。同じ人物に関する関係性値(関係性マトリックスの対角成分)は、各人物の総出演時間を表す。
以上、共演シーン時間に基づく関係性マトリックスの計算方法について説明した。
以上説明したように、区間メタデータを利用して得られる情報から、様々な観点で人物間の関係性を評価することが可能である。なお、ここで説明した関係性値の算出方法は一例であり、例えば、顔領域の面積により重み付けした出演時間や共演シーン時間などを利用して関係性値を算出することも可能である。また、主役/脇役の区別を考慮して重み付けした出演時間や共演シーン時間などを利用して関係性値を算出することも可能である。
(その他の方法1:共演シーン時間+役柄重み)
一例として、共演シーン時間CSL及び役柄重みRWを組み合わせて関係性値Relを算出する方法を紹介する。なお、CSL及びRWの定義は既に説明したものと同じである。この例において、関係性値Rel(A,B)は、下記の式(4)により算出される。なお、右辺の平方根は省略してもよい。この方法によると、各動画における各人物の重要度を示す役柄重みと、各動画における人物間の関係性の強さを示す共演シーン時間とを共に考慮した関係性値が算出される。
Figure 2012256105
(その他の方法2:共演シーン時間+出演時間)
別の例として、共演シーン時間CSL及び出演時間PSLを組み合わせて関係性値Relを算出する方法を紹介する。なお、CSL及びPSLの定義は既に説明したものと同じである。この例において、関係性値Rel(A,B)は、下記の式(5)により算出される。なお、右辺の平方根は省略してもよい。この方法によると、各動画における各人物の重要度を示す出演時間と、各動画における人物間の関係性の強さを示す共演シーン時間とを共に考慮した関係性値が算出される。
Figure 2012256105
[1−3:オブジェクトの表示方法]
次に、図10〜図24を参照しながら、上記の関係性値を利用したオブジェクトの表示方法について説明する。例えば、図10に示すように、動画の各登場人物をオブジェクトで表現し、関係性値の高いオブジェクト同士を近づけて表示する。このような表示方法を用いると、人物間の関係性を容易に視認することが可能になる。なお、オブジェクトの表示は、主にオブジェクト表示部104の機能により実現される。以下、オブジェクトの表示方法について、より詳細に説明する。
(1−3−1:オブジェクトのサイズについて)
まず、図11を参照する。オブジェクトの表現に利用できる情報として、各人物の出演時間に関する情報がある。区間メタデータを利用して得られる各人物の出演時間に関する情報としては、動画別出演時間の情報、及び総出演時間の情報がある。ここでは、総出演時間の情報を利用するオブジェクトの表現方法について考える。総出演時間は、人物のメジャー度、或いは、注目度を表す指標であると考えられる。例えば、主役として出演する動画の数が多い人物は、当然に総出演時間が長くなるであろう。従って、総出演時間の長い人物に対応するオブジェクトは目立つように表現される方が好ましい。
上記のような理由から、オブジェクト表示部104は、図11に示すように、総出演時間の長い人物を示すオブジェクトを大きく表示し、総出演時間の短い人物を示すオブジェクトを小さく表示する。このような表現を用いると、対象とする動画群に登場する人物の中で、メジャー度の高い人物を容易に識別することが可能になる。なお、オブジェクトの表示サイズは、総出演時間に応じて段階的に変化するようにしてもよいし、総出演時間に応じて連続的に変化するようにしてもよい。
例えば、オブジェクト表示部104は、第1閾値Th、第2閾値Th(Th<Th)を利用し、総出演時間TがT>Thの場合に表示サイズを大にし、Th<T≦Thの場合に表示サイズを中にし、T≦Thの場合に表示サイズを小にする。また、オブジェクト表示部104は、線形又は非線形の単調増加関数fを利用し、総出演時間Tに応じて表示サイズS=α*f(T)を算出してもよい。なお、ここでは総出演時間を利用する方法について紹介したが、例えば、動画別出演時間の平均値、中央値、或いは、最大値などを利用する方法も考えられる。また、総出演時間が所定の閾値を越えない人物のオブジェクトを表示しないようにしてもよい。このような表示にすると、ちょい役やエキストラなどのオブジェクトが表示されないようになり、注目すべき人物のオブジェクトを認識しやすくなる。
(1−3−2:オブジェクト間の距離について)
次に、図12を参照する。ここでは、人物間の関係性をオブジェクト間の距離で表現する方法について紹介する。人物間の関係性は、関係性値により表現される。図12に示すように、人物間の関係性値が大きい場合、その人物に対応するオブジェクト間の距離を小さくする。逆に、人物間の関係性値が小さい場合、その人物に対応するオブジェクト間の距離を大きくする。但し、図10に示したように複数のオブジェクトを表示した場合に、視認性が損なわれるのは好ましくない。そのため、オブジェクトが適度に散らばって配置されるようにすることが好ましい。また、オブジェクトが表示領域内に留まるように配慮することが望まれる。
そこで、下記の式(6)で定義されるエネルギー関数Eを導入する。このエネルギー関数E(A)は、人物Aのオブジェクトが表示領域内の座標(x,y)に位置する場合に生じるエネルギー(以下、ポテンシャルエネルギー)を表す。オブジェクト表示部104は、全ての人物に関するエネルギー関数Eの和TEが最小となるように、各人物に対応するオブジェクトの位置を決定する。下記の式(6)に示すように、エネルギー関数Eは、2つの項で構成される。第1項Eは、人物間の関係性に関するポテンシャルエネルギーを表す項である。一方、第2項Eは、表示領域内の位置に関するポテンシャルエネルギーを表す項である。以下、各項について詳細に説明する。
Figure 2012256105
まず、第1項Eについて説明する。例えば、人物Aに関する第1項E(A)は、下記の式(7)に示すように、人物Aと人物Q(Q=B,C,…)との間の関係性に関するエネルギー関数E11(A,Q)の和で表現される。また、エネルギー関数E11(A,Q)は、下記の式(8)に示すように、関係性値R(A,Q)及び距離D(A,Q)の関数として定義される。なお、R(A,Q)は、人物Aと人物Qとの組に関する関係性値(上記のRel(A,Q))を表す。また、D(A,Q)は、図14に示すように、人物Aのオブジェクトと人物Qのオブジェクトとの間の表示領域における距離を表す。なお、k11、k12、k13は、正規化係数である。
Figure 2012256105
人物Aと人物Qとの間に関係性がある場合、エネルギー関数E11(A,Q)は、図13に示すように、D(A,Q)=k12/R(A,Q)に最小値(安定点)を持ち、下に凸の曲線を描く関数である。既に述べたように、エネルギーが最小となるようにオブジェクトの配置が決められる。そのため、人物Aのオブジェクトと人物Qのオブジェクトとの間の距離は、安定点付近の値に決められる。安定点の位置は、関係性値R(A,Q)が大きくなるほど左側へとシフトする。つまり、人物Aと人物Qとの関係性が強いほど、人物Aのオブジェクトと人物Qのオブジェクトとの間の距離は近くなる。なお、ここではエネルギー関数E11(A,Q)を二次関数で表現したが、図13に示すような曲線を描く関数であれば二次関数でなくてもよい。
一方、人物Aと人物Qとの間に関係性がない場合、エネルギー関数E11(A,Q)は、図15に示すように、D(A,Q)の増加に伴って単調減少する関数である。つまり、人物Aのオブジェクトと人物Qのオブジェクトとが近づくとエネルギーが増加することになる。言い換えると、人物Aと人物Qとの間に関係性がない場合、人物Aのオブジェクトと人物Qのオブジェクトとは限りなく離れていくことになる。但し、オブジェクト同士が限りなく離れていくと、いずれか一方又は両方のオブジェクトが表示領域から外へと出てしまうことになる。そこで、表示領域内における各オブジェクトの位置に関するポテンシャルエネルギーを表す第2項E2を導入する。
第2項E2は、下記の式(9)に示すように、X方向に沿って測った画面中心からの距離D(図18を参照)、及びY方向に沿って測った画面中心からの距離D(図18を参照)の関数として定義される。但し、k21、k22は正規化係数である。また、nは、n≧2である。なお、第2項Eは、D=0、D=0のときに最小値をとり、D及びDの値が大きくなるにつれて増加する曲線を描く関数であれば、下記の式(9)に示す関数形に限定されない。例えば、図16及び図17のように、第2項Eは、表示領域の側端に漸近する曲線を描くような関数であってもよい。また、第2項Eは、画面中心からの距離に応じて段階的に値が増加する階段関数であってもよい。
Figure 2012256105
上記のように第2項Eを定義すると、オブジェクトが画面の側端に近づくにつれて、そのオブジェクトに関するエネルギーが増加する。そのため、第1項Eの影響によりオブジェクトが画面の側端に近づこうとしても、第2項Eの影響により、そのオブジェクトが画面の側端に近づき過ぎないように制御される。その結果、表示領域の外へとオブジェクトが出てしまうことを回避できるようになる。なお、第2項Eの定義次第ではオブジェクトが表示領域の外側へとはみ出してしまうことも考えられる。第2項Eを上記の式(9)のように定義した場合、どの程度はみ出しを許容するかは、指数nの設定に委ねられる。もちろん、オブジェクトが表示領域の外へ大きくはみ出すことを許容するような表現を採用してもよい。
繰り返しになるが、オブジェクト表示部104は、全ての人物U(U=A,B,C,…)に関するエネルギー関数Eの和TE(下記の式(10)を参照)が最小になるように、各人物に対応するオブジェクトの配置を決める。なお、TEが最小となるように各オブジェクトの位置を決める方法としては、例えば、最急降下法、焼きなまし法、遺伝的アルゴリズムなどの最適化手法を利用することができる。オブジェクト表示部104は、このような方法を利用して表示領域内における各オブジェクトの座標を決定し、図10に示すようにオブジェクト群を表示する。
図10に示すように、関係性の強い人物のオブジェクト同士は近くに表示される。また、関係性のない人物のオブジェクト同士は離れて表示される。その結果、関係性のある人物のオブジェクト同士でクラスタが形成される。例えば、図10に示すように、同じ動画で共演する人物のオブジェクト群がクラスタを形成する。また、互いに異なる動画に登場する人物のオブジェクト群同士であっても、ある人物を介してオブジェクト群同士の関係性が表出する。図10の例では、動画Mに登場する多くの人物は、動画Mに登場する人物と共演していない。しかし、動画Mと動画Mとの両方に出演している人物が存在しているため、その人物のオブジェクトを介して両方のオブジェクト群が近い位置に表示される。このように、本実施形態に係るオブジェクトの表示方法を適用すると、人物間の直接的な関係性だけでなく、間接的な関係性をも視覚的に表現することが可能になる。
Figure 2012256105
(1−3−3:奥行き表現について)
図10に示したオブジェクト群は、2次元平面に配置されているように見えるだろう。上記の方法を用いると、オブジェクト群を2次元平面に適切に配置することができる。但し、上記の方法は、オブジェクト群を3次元空間に配置する方法に拡張することも可能である。例えば、2次元配置を基本とし、図19に示すように、奥行き方向にオブジェクトをずらして3次元配置にすることが可能である。奥行き方向へのずらし方としては、ランダムにずらす方法や、オブジェクトのサイズに応じてずらす方法などが考えられる。具体的には、図19に示すように、サイズの大きなオブジェクトを少し奥行き方向にずらし、サイズの小さなオブジェクトを少し手前方向にずらして配置するのが好ましい。
また、オブジェクトの座標を3次元座標として扱い、3次元空間内の距離Dと関係性値Rとを用いてエネルギー関数Eを定義してもよい。このようにエネルギー関数Eを定義すると、関係性値に基づくオブジェクト群の配置表現により、3次元空間の中で人物間の関係性を表現することが可能になる。特に、3次元空間内を自由に移動できたり、拡大/縮小できたり、或いは、視点変更ができたりするようなユーザインターフェースの場合、3次元的な表現は有効である。
なお、第1項Eは、距離Dと関係性値Rとで規定される関数である。そのため、3次元配置に拡張しても第1項Eの関数形は変更する必要がない。また、奥行き方向にオブジェクトがどれだけ遠ざかってもよいとするならば(無限空間を仮定するならば)、第2項Eの関数形を変更する必要もない。但し、奥行き方向にオブジェクトが遠ざかり過ぎると見えなくなってしまう可能性があるため、奥行き方向に遠ざかるにつれてエネルギーが大きくなるように第2項Eの関数形を変更するのが好ましい。なお、3次元空間を制限する方法としては、例えば、立方体の空間に制限する方法や、四角錐の空間(視野に収まる範囲)に制限する方法などが考えられる。
このように、奥行き表現を加えることで、オブジェクト群を3次元空間に配置することが可能になる。
(1−3−4:関係性の表現について)
次に、関係性の表現方法に関する追加的なアイデアを紹介する。
(接続線の表示)
既に説明したように、上記の方法を適用すると、関係性の強い人物のオブジェクト同士が近くに配置され、関係性の弱い人物のオブジェクト同士が遠くに配置される。そのため、オブジェクト間の距離やオブジェクト群の位置関係などから人物間の関係性を推察することができる。しかし、関係性の有無を確実に知りたい場合もある。例えば、オブジェクトの数が多く、表示領域内におけるオブジェクトの密度が高い場合、オブジェクト間の距離だけでは関係性の有無を正確に把握できないことがある。
そこで、本件発明者は、図20に示すように、関係性の有無を示す接続線を表示する方法を考案した。例えば、ユーザが1つのオブジェクトを選択すると、選択されたオブジェクトと、そのオブジェクトに対応する人物と関係する人物のオブジェクトとが接続線で接続される。このように、接続線を表示すると、関係性の有無を一目で確実に認識することが可能になる。なお、図20の例では、ユーザがオブジェクトを選択した場合に接続線が表示されるようにしているが、常に接続線が表示されるようにしてもよい。但し、図10に示すように、表示領域内に多くのオブジェクトが表示されている場合、常に接続線が表示されていると表示が煩雑になるため、オブジェクトの選択に応じて接続線が表示されるようにする方が好ましい。
(オブジェクトの動き)
ところで、これまでは各オブジェクトの表示位置が固定されているかのように説明をしてきた。もちろん、各オブジェクトの表示位置が固定されていてもよいが、各オブジェクトを揺動させることにより、画面内に動きが生まれ、より親しみやすいユーザインターフェースが実現できる。また、人物間の関係性をオブジェクトの揺動により表現することもできる。例えば、図21に示すように、通常はオブジェクトをランダムに揺動させておき、あるオブジェクトが選択された場合に、そのオブジェクトに対応する人物と関係のある人物のオブジェクトを全て同位相で揺動させる方法などが考えられる。この方法を用いると、接続線の表示がなくとも、直感的に関係性の有無を認識することが可能になる。
また、オブジェクトメタデータに基づいて役柄などの情報が得られている場合、その情報に基づいてオブジェクトの動きを制御してもよい。例えば、人物Aがヒーローで人物Bがヒロインの場合、オブジェクト表示部104は、図22に示すように、人物Aのオブジェクトと人物Bのオブジェクトとを同位相で揺動させておき、徐々に両オブジェクトを近づけさせる。また、人物Aと人物Bとが対立関係にある場合、図23に示すように、オブジェクト表示部104は、人物Aのオブジェクトと人物Bのオブジェクトとを逆位相で揺動させておき、徐々に両オブジェクトを離れさせる。このような表現を用いることで、関係性の中身が一目で分かるようになる。
また、ドラッグ操作などによりオブジェクトの位置を変更できるようにする。例えば、図24に示すように、人物Aのオブジェクトを選択して所望の位置に移動できるようにする。但し、人物Aのオブジェクトだけが移動してしまうと、オブジェクト間の距離から人物間の関係性が把握できなくなってしまう。そのため、オブジェクト表示部104は、人物Aのオブジェクトが移動した場合、人物Aに関係する人物のオブジェクトも共に移動させる。また、オブジェクト表示部104は、移動後の位置においてオブジェクト間の距離が関係性値に基づく距離になるように各オブジェクトの位置を調整する。
さらに、人物Aのオブジェクトが移動したことにより、人物Aと関係のない人物Bのオブジェクトも影響を受ける。既に説明したように、全てのオブジェクトに関するエネルギーの和TEが最小となるように各オブジェクトの配置が決められる。そのため、人物Aのオブジェクト及び関連するオブジェクトが移動すると、全てのオブジェクトに関するエネルギーの和TEも変化してしまう。そこで、オブジェクト表示部104は、全てのオブジェクトに関するエネルギーの和TEが再び最小になるように、例えば、人物Bのオブジェクト及び関連するオブジェクトを移動させる。
但し、TEの再計算にかかる負荷が高い場合、オブジェクト表示部104は、図24に示すように、人物Aのオブジェクト及び関連するオブジェクトを避けるように、人物Bのオブジェクト及び関連するオブジェクトを移動させるようにしてもよい。関係性のない人物のオブジェクト同士が離れれば離れるほどエネルギーの和TEは下がるはずである。そこで、TEの再計算を省略し、関係性のないオブジェクト群が所定の距離以上遠ざかるように各オブジェクトの位置を調整するようにしてもよい。
以上、関係性値に基づくオブジェクトの表示方法について説明した。
[1−4:シーン画像の表示方法]
次に、図25〜図28を参照しながら、シーン画像の表示方法について説明する。
シーン画像とは、動画の1シーンを表現した画像、或いは、その動画を代表する画像である。例えば、最初の動画フレームを抽出してシーン画像として利用することができる。また、動画のパッケージ写真をシーン画像として利用することができる。さらに、出演時間が最も長い人物が登場する動画フレームを抽出してシーン画像として利用することができる。その他にも、動画からランダムに抽出された動画フレームをシーン画像として利用してもよいし、主役が登場する動画フレームをシーン画像として利用してもよい。或いは、シーン画像に動画像を再生して利用してもよい。このように、様々な画像をシーン画像として利用することができる。
また、対象となる動画に対応するシーン画像は、図25に示すように、オブジェクトと共に表示される。さらに、シーン画像は、タイル状に並べて配置される。例えば、あるオブジェクトが選択されると、そのオブジェクトに対応する人物が登場する動画のシーン画像がハイライト表示される。なお、選択されたオブジェクトに対応する人物が複数の動画に登場する場合や、複数の映像シーンに登場する場合、図25に示すように、複数のシーン画像がハイライト表示されることがある。このハイライト表示を参照すると、選択したオブジェクトに対応する人物がどのくらい多くの動画に出演しているかを一目で把握することができる。
また、シーン画像の配置に規則性を持たせることで、ハイライト表示されたシーン画像の分布から、選択したオブジェクトに対応する人物が出演している動画の種類や時期などの傾向を一目で把握することが可能になる。以下、シーン画像の配置方法に関するアイデアを紹介する。
(1−4−1:シーン画像の配置方法(ランダム配置))
シーン画像の配置方法としては、図26に示すように、ランダムにシーン画像を配置する方法が考えられる。シーン画像をランダムに配置すると、あるオブジェクトが選択された場合に、そのオブジェクトに対応する人物が登場する動画のシーン画像がハイライト表示される。また、所定のタイミングでシーン画像の再配置が行われるようにすると、ハイライト表示されるシーン画像の位置が頻繁に変わるため、飽きがこないユーザインターフェースが実現される。
また、ランダムな位置にあるシーン画像がハイライト表示されるため、賑やかな印象を持ったユーザインターフェースが実現される。なお、ランダムに表示されていても、ハイライト表示されるシーン画像が全体に占める割合は容易に認識できるため、選択したオブジェクトに対応する人物の出演頻度を直感的に知ることができる。
(1−4−2:シーン画像の配置方法(時系列配置))
また、シーン画像の配置方法としては、図27に示すように、時系列でシーン画像を配置する方法が考えられる。図27の例では、X軸に沿って動画のシリーズが時系列で並ぶようにし、Y軸に沿って動画中に登場する映像シーンのシーン画像が時系列に並ぶようにしている。このような配置にすると、ハイライト表示されたシーン画像の分布から、例えば、選択したオブジェクトに対応する人物が、シリーズの前半に登場するのか、後半から登場するのかを一目で把握することが可能になる。また、その人物が、動画中の前半に登場することが多いのか、中盤に登場することが多いのか、或いは、後半に登場することが多いのかが容易に把握できるようになる。
図27の例では、第5話の後半に対応するシーン画像、及び第6話及び第7話の全般に対応するシーン画像がハイライト表示されている。従って、選択されたオブジェクトに対応する人物が第5話の後半から第7話の終わりまで登場していることが一目で分かる。また、総集編においても、後半に位置するシーン画像がハイライト表示されていることから、選択されたオブジェクトに対応する人物は、このシリーズの後半に登場する人物であることが容易に把握できる。このように、シーン画像を時系列に配置することにより、人物の登場期間や登場する場面の傾向などを一目で把握することができるようになる。なお、ここでは動画のシリーズものを例に挙げたが、時間的な要素を含む動画群を対象にするならば、同様にして時系列でシーン画像を配置することが可能である。
(1−4−3:シーン画像の配置方法(ムードに応じた配置))
また、シーン画像の配置方法としては、図28に示すように、ムードに応じてシーン画像を配置する方法が考えられる。例えば、図28に示すように、アクション、ファニー、ハピネス、ラブリー、ホラー、アンハッピーなど、動画のムード毎に列を分けてシーン画像を配置する方法が考えられる。また、行の並びについては、時系列で配置してもよいし、ムードの度合いに応じて配置してもよい。例えば、アクションの列に関し、アクションシーンの比較的多い動画のシーン画像を手前に表示し、アクションシーンの比較的少ない動画のシーン画像を奥側に表示するなどの配置方法が考えられる。
このような配置にすると、ハイライト表示されたシーン画像の分布から、例えば、選択したオブジェクトに対応する人物がどのようなムードの動画に出演しているかを容易に把握することができるようになる。さらに、人物Aが登場する動画のうち、アクションシーンの多い動画を選択するといった選び方が可能になる。なお、ハイライト表示されたシーン画像の選択操作により、選択されたシーン画像に対応する動画が再生される仕組みにしてもよい。このような仕組みにすると、ユーザは、所望の動画を素早く再生することが可能になる。また、その動画の中で、ムードに適合した映像シーンが選択的に再生されるような仕組みにしてもよい。
以上、シーン画像の配置方法について説明した。
[1−5:シーン画像表示及びオブジェクト表示の切り替え]
次に、図29〜図32を参照しながら、シーン画像群の表示方法及びオブジェクト表示の切り替え方法について説明する。図25に示したように、タイル状に配置されるシーン画像群は、オブジェクトと共に表示される。また、シーン画像は、オブジェクトの選択に応じてハイライト表示される。さらに、シーン画像を選択することにより、そのシーン画像に対応する動画が再生される仕組みが設けられていてもよい。これらの構成については既に説明した通りである。ここでは、シーン画像群の切り替えに関するアイデアを紹介する。また、シーン画像群の切り替えに伴うオブジェクト表示の切り替えに関するアイテムについても紹介する。
(1−5−1:年代の切り替え)
例えば、図29に示すように、年代で分けたシーン画像群を用意しておき、シーン画像群を切り替えることにより、対象とする動画が属する年代を切り替えられるようにする仕組みについて考える。オブジェクトと共に表示されるシーン画像群は、1つの年代に対応するシーン画像群である。もちろん、シーン画像群と共に表示されるオブジェクトは、そのシーン画像群に対応する動画に登場する人物のオブジェクトである。そのため、シーン画像群を切り替えると、シーン画像群と共に表示されるオブジェクトも切り替わる。
例えば、1990年代の動画に関するシーン画像群が表示されているとき、そのシーン画像群と共に表示されるオブジェクトは、1990年代に活躍した俳優や女優を表す。また、シーン画像群を2000年代のシーン画像群に切り替えると、そのシーン画像群と共に表示されるオブジェクトは、2000年代に活躍した俳優や女優を表すものへと切り替わる。このように、年代で分けたシーン画像群を切り替えられるようなユーザインターフェースにすることで、各時代に活躍した俳優や女優を容易に把握できるようになる。
なお、シーン画像群の区別をより細かく設定してもよい。例えば、1990年代のテレビドラマ、2000年代のテレビドラマ、2010年代のテレビドラマ、1990年代の映画、2000年代の映画、2010年代の映画などという区分が考えられる。この区分を採用すると、例えば、シーン画像群を切り替えることで、テレビドラマで活躍した俳優や女優の移り変わりを把握することができる。また、シーン画像群を切り替えることで、同じ年代においてテレビドラマで活躍していた俳優や女優と、映画で活躍していた俳優や女優との違いを容易に把握することができるようになる。
このように、シーン画像群の構成を時間的要素に基づいて設定しておくことにより、シーン画像群の切り替えに応じて変化するオブジェクト群の構成変化から人物の出演傾向の時間的変化などを容易に把握することが可能になる。
(1−5−2:地域の切り替え)
図29の例は、シーン画像群を時間的要素に基づいて区分し、シーン画像群の切り替えに応じてオブジェクト表示を切り替える構成に関するものであった。ここでは、図30を参照しながら、地域に応じてシーン画像群及びオブジェクト群を切り替える構成について説明する。図30に示すように、画面上に地図を表示し、ユーザに地図上の地域を選択させるユーザインターフェースを提案する。このユーザインターフェースにおいて、ユーザがヨーロッパを選択すると、オブジェクト表示部104は、ヨーロッパの俳優が登場する動画のシーン画像群と、その俳優に対応するオブジェクト群とを表示する。また、ユーザがアメリカを選択すると、オブジェクト表示部104は、アメリカの俳優が登場する動画のシーン画像群と、その俳優に対応するオブジェクト群とを表示する。
なお、オブジェクト表示部104は、地図上にシーン画像群を表示してもよい。例えば、オブジェクト表示部104は、地図上でヨーロッパに対応する領域に、ヨーロッパの俳優が出演する動画のシーン画像群を表示してもよい。同様に、オブジェクト表示部104は、地図上で日本に対応する領域に日本の俳優が出演する動画のシーン画像群を表示したり、地図上でアメリカに対応する領域にアメリカの俳優が出演する動画のシーン画像群を表示したりしてもよい。また、地域毎に年代を切り替えられるようにしてもよい。例えば、ヨーロッパの俳優が出演する1990年代のシーン画像群をヨーロッパの俳優が出演する2000年代のシーン画像群に切り替えられるようにしてもよい。
このように、シーン画像群の構成を地理的要素に基づいて設定しておくことにより、地域単位で活躍している俳優を容易に把握することが可能になる。また、世界的に活躍している俳優などを容易に把握することができるようになる。
(1−5−3:切り替え時のオブジェクト表示)
シーン画像群を切り替えた際、図31に示すように、オブジェクトがシーン画像群から抜け出すように表示されるようにしてもよい。例えば、人物Aのオブジェクトは、人物Aが登場する動画の映像シーンを表すシーン画像から抜け出すように表示されるようにする。また、人物Aが複数の動画に登場する場合、人物Aの出演時間が最も長い動画に対応するシーン画像から抜け出すように表示されるようにする。このような表示にすることで、シーン画像と人物との対応関係が容易に把握できるようになる。
以上、シーン画像群の表示方法及びオブジェクト表示の切り替え方法について説明した。
[1−6:その他の表示方法]
これまで、シーン画像群及びオブジェクトの表示方法について、図10に示した表示構成を念頭において説明してきた。ここでは、シーン画像群の表示方法に関する変形例、関連情報の表示方法、動画再生画面の表示方法について説明する。
(1−6−1:3D表示)
図10の例では、オブジェクトの下側にシーン画像群が表示されていた。しかし、図32に示すように、オブジェクトの上下左右にシーン画像群を表示してもよい。このような表示にすると、より多くのシーン画像を表示することが可能になる。より多くのシーン画像を表示することができるようになると、例えば、1つの動画から比較的再生時間の長い映像シーンを複数抽出し、各映像シーンのシーン画像を表示することなども可能になる。また、シーン画像群を種類毎に分けて見やすく表示することなども可能になる。
例えば、一面にはランダムに配置されたシーン画像群を表示し、他面には時系列に配置されたシーン画像群やムードに応じて配置されたシーン画像群を表示するなどの表現が可能になる。また、面毎に異なる年代のシーン画像群を表示したり、面毎に異なる地域のシーン画像群を表示したりするなどの表現も可能になる。もちろん、このような表現にした場合でも、オブジェクトが選択された場合には、選択されたオブジェクトに対応する人物が登場するシーンのシーン画像がハイライト表示される。そのため、ハイライト表示されたシーン画像の分布に基づいて、その人物が活躍した年代、地域、或いは、活躍の度合いなど、様々な情報を視覚的に認識することが可能になる。
(1−6−2:関連情報の表示)
さて、これまでは主にオブジェクト及びシーン画像の表示方法について説明してきたが、オブジェクトメタデータを利用すると、図33に示すように、人物の関連情報を表示することが可能になる。例えば、ユーザによりオブジェクトが選択された場合、オブジェクトメタデータを利用して、そのオブジェクトに対応する人物に対応する関連情報を表示することができる。
また、区間メタデータを併せて利用することにより、選択されたオブジェクトに対応する人物が登場する登場シーンを検出し、図33に示すように、登場シーンの画像を並べて表示することも可能である。さらに、並べて表示した画像が選択された場合に、その画像に対応する映像シーンが再生されるようにすることも可能である。また、区間メタデータを利用すると、ユーザにより同時に選択された複数のオブジェクトに対応する人物が共演している映像シーンを検出することも可能である。さらに、検出された共演シーンの画像を並べて表示したり、その共演シーンに対応するシーン画像をハイライト表示したりすることもできる。また、共演作品の情報を関連情報として表示してもよい。
(1−6−3:動画再生画面の表示)
さて、上記の説明の中で、オブジェクトの選択、シーン画像の選択、或いは、映像シーンの画像の選択などに応じて動画全体又は一部の映像シーンが再生される仕組みについて言及してきた。ここでは、図34を参照しながら、動画再生画面の構成例について紹介する。例えば、図34に示すように、再生ウィンドウを表示し、その中に動画の再生画面を表示する方法が考えられる。また、再生画面に登場する人物の顔領域を表示したり、人物のサムネイル画像を表示したりしてもよい。さらに、サムネイル画像が選択された場合に、そのサムネイル画像に対応する人物が登場する区間を表示してもよい。
また、顔領域又はサムネイル画像の選択に応じて、選択された顔領域又はサムネイル画像に対応する人物が登場する区間の映像シーンだけが選択的に再生されるようにしてもよい。既に述べたように、区間メタデータには、各人物が動画中のどの区間に登場するかを示す情報が含まれている。そのため、区間メタデータを利用することにより、特定の人物に関し、その人物が登場する区間だけを選択的に再生することが可能になる。また、区間メタデータを利用すると、特定の人物群が共演する共演シーンを検出することも可能になる。そのため、区間メタデータを利用することで、複数の人物が選択された場合に、それら人物が共演する共演シーンだけを選択的に再生することも可能である。
以上、表示方法に関するアイデアについて紹介した。
以上説明したように、本実施形態に係る技術を用いると、人物間の関係性を一目で把握することができるようなユーザインターフェースが実現される。また、人物と映像シーンとの関係性や人物の活躍状況などを一目で把握できるようなユーザインターフェースが実現される。
ところで、上記の説明では、動画の種類や入力デバイスの種類について、あまり言及してこなかったが、例えば、次のような動画や入力デバイスが対象に含まれる。まず、動画の種類としては、録画した映像コンテンツ、記録メディアにて提供される映像コンテンツ、テレビジョン放送などの映像コンテンツ、ネットワークを介してストリーミング配信される映像コンテンツなどが考えられる。また、入力デバイスとしては、マウス、キーボード、リモコン、タッチパッド、タッチパネルなどが考えられる。
また、上記の説明では、対象とする動画群の選択方法について、あまり言及してこなかったが、例えば、次のような方法で対象とする動画群を選択することができる。例えば、お気に入りの人物名をユーザに入力してもらい、その人物名の人物に関連のある動画群を選択する方法が考えられる。人物に関連のある動画群としては、例えば、その人物が登場する動画と、その動画で共演している人物が登場する動画とを集めた動画群などが考えられる。また、ユーザの閲覧履歴などがある場合、その閲覧履歴を利用してユーザがお気に入りの人物を特定し、その人物に関連のある動画群を選択する方法が考えられる。
また、ユーザがお気に入りの人物に対応するオブジェクトと、その人物に関係性のある人物のオブジェクトだけを表示したり、そのオブジェクトを画面の中心付近に表示したりする表示方法も考えられる。但し、お気に入りの人物は、ユーザ入力に基づくものであってもよいし、ユーザの閲覧履歴を利用して特定されたものであってもよい。また、最初に表示させるオブジェクトをお気に入りの人物に対応するオブジェクトにしてもよい。また、シーン画像群を地域毎に表示する際、ユーザが居住する地域に最も近い地域に関するシーン画像群を画面に中心付近に表示したり、その地域の地図をクローズアップして表示したりしてもよい。このような変形例についても、本実施形態の技術的範囲に属する。
<2:ハードウェア構成例>
上記の情報処理装置100が有する各構成要素の機能は、例えば、図35に示すハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図35に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図35に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<3:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、テレビジョン受像機、録画再生装置、セットトップボックス、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。とりわけ、以下に記載する技術的思想は、こうした情報処理装置に含まれる表示装置としての機能に適用することができる。
下記(1)に記載の表示装置が有する構成のように区間メタデータを利用すると、動画中に登場する登場人物について、登場人物の共演関係を検出することができる。例えば、登場人物Aに関する区間メタデータと、登場人物Bに関する区間メタデータとを利用すると、共演の有無、共演作品の数、共演シーンの長さ、その他の共演関係に関する情報を検出することができる。そのため、これらの情報から、登場人物Aと登場人物Bとの間の関係性の強さを示す関係性スコアを算出することが可能になる。また、各登場人物に対応するオブジェクトを表示する際に、上記のようにして算出された関係性スコアの大きさに応じてオブジェクトの配置関係を制御することにより、ユーザに登場人物間の関係性を分かりやすく提示することが可能になる。つまり、ユーザは、動画中の共演関係に基づく登場人物間の関係性の強さを視覚的に認識することが可能になる。
(1)
各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出部と、
動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示部と、
を備え、
前記オブジェクト表示部は、前記関係性スコアが高い登場人物の組に対応するオブジェクトを互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
表示装置。
(2)
前記区間メタデータを利用し、各登場人物が動画中に登場する時間の合計値を表す出演時間を登場人物毎に算出する出演時間算出部をさらに備え、
前記オブジェクト表示部は、前記出演時間が長い登場人物に対応するオブジェクトを大きく表示し、前記出演時間が短い登場人物に対応するオブジェクトを小さく表示する、
前記(1)に記載の表示装置。
(3)
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について共演作品の数を算出し、当該共演作品の数を前記関係性スコアとして出力する、
前記(1)又は(2)に記載の表示装置。
(4)
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として出演した共演作品の数に第1の重み値をかけた値と、一方の登場人物が主役として出演し、かつ、他方の登場人物が脇役として出演した共演作品の数に第2の重み値をかけた値と、両登場人物が脇役として出演した共演作品の数に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力し、
前記第1の重み値は、前記第2の重み値よりも大きく、
前記第2の重み値は、前記第3の重み値よりも大きい、
前記(1)又は(2)に記載の表示装置。
(5)
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、各共演作品中における一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
前記(2)に記載の表示装置。
(6)
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が同じ動画フレームに登場する時間の合計値を算出し、当該合計値を前記関係性スコアとして出力する、
前記(1)又は(2)に記載の表示装置。
(7)
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として同じ動画フレームに登場する時間の合計値に第1の重み値をかけた値と、同じ動画フレームに一方の登場人物が主役として登場し、かつ、他方の登場人物が脇役として登場する時間の合計値に第2の重み値をかけた値と、両登場人物が脇役として同じ動画フレームに登場する時間の合計値に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力する、
前記(1)又は(2)に記載の表示装置。
(8)
前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、共演作品毎に、一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値と、両登場人物が同じ動画フレームに登場する時間の合計値と、をかけた値を算出し、算出した値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
前記(2)に記載の表示装置。
(9)
前記オブジェクト表示部は、表示領域内におけるオブジェクトの位置に関する第1の関数と、オブジェクト間の位置関係に関する第2の関数とで構成されるポテンシャル関数の値が最小となるように全てのオブジェクトを表示し、
前記第1の関数は、オブジェクトの位置が前記表示領域に近づくほど値が大きくなる関数であり、
前記第2の関数は、関係性のある登場人物の組に対応する2つのオブジェクトが当該登場人物の組に対応する関係性スコアに応じた距離に近づくと値が減少し、関係性のない登場人物の組に対応する2つのオブジェクトが近づくと値が増加する関数であり、
前記関係性スコアに応じた距離は、前記関係性スコアが大きくなるほど小さくなる、
前記(1)〜(8)のいずれか1項に記載の表示装置。
(10)
動画の1シーンを表す画像をタイル状に並べて表示するシーン表示部をさらに備え、
前記シーン表示部は、1つの前記オブジェクトがユーザにより選択された場合に、選択されたオブジェクトに対応する登場人物が登場する動画の1シーンを表す画像をハイライト表示する、
前記(1)に記載の表示装置。
(11)
前記シーン表示部は、動画からランダムにシーンを選択し、選択したシーンを表す画像をランダムな位置に並べて表示する、
前記(10)に記載の表示装置。
(12)
前記シーン表示部は、同じ列に同じ動画から抽出された画像が並ぶように表示し、
前記画像は、抽出元の動画が古い順に行方向に並んで表示され、かつ、各動画中における出現時刻が早い順に列方向に並んで表示される、
前記(10)に記載の表示装置。
(13)
前記シーン表示部は、同じムードを持つシーンが同じ列に並ぶように前記動画の1シーンを表す画像を表示する、
前記(10)に記載の表示装置。
(14)
前記オブジェクト表示部は、ユーザにより1つの前記画像が選択された場合に、当該画像に対応する動画に登場する登場人物に対応するオブジェクトだけを表示する、
前記(10)に記載の表示装置。
(15)
前記オブジェクト表示部は、関連性のある登場人物の組に対応する2つのオブジェクトを結ぶ線を表示する、
前記(1)に記載の表示装置。
(16)
ユーザにより1つの前記オブジェクトが選択された場合に、前記区間メタデータを利用して当該オブジェクトに対応する登場人物が登場する区間を抽出し、抽出した区間の動画フレームを再生する動画再生部をさらに備える、
前記(1)に記載の表示装置。
(17)
前記オブジェクト表示部は、ユーザにより1つの前記オブジェクトが選択された場合に、選択されたオブジェクトに対応する登場人物と関係性のある登場人物に対応する全てのオブジェクトを同位相で動かす、
前記(1)に記載の表示装置。
(18)
各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出するステップと、
動画に登場する各登場人物に対応するオブジェクトを表示するステップと、
を含み、
前記関係性スコアが高い登場人物の組に対応するオブジェクトの組は、互いに近い位置に表示され、
前記関係性スコアが低い登場人物の組に対応するオブジェクトの組は、互いに離れた位置に表示される、
オブジェクト表示方法。
(19)
各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出機能と、
動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示機能と、
をコンピュータに実現させるためのプログラムであり、
前記オブジェクト表示機能は、前記関係性スコアが高い登場人物の組に対応するオブジェクトの組を互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
プログラム。
(備考)
上記の情報処理装置100は、表示装置の一例である。上記の関係性計算部103は、関係性スコア算出部の一例である。上記の出演時間計算部102は、出演時間算出部の一例である。上記のシーン画像表示部107は、シーン表示部の一例である。上記の再生制御部109は、動画再生部の一例である。
以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。
例えば、本実施形態に関する説明の中で、主に人物間の関係性や人物に対応するオブジェクトなどの表示方法について説明した。しかし、本実施形態に係る技術の適用対象は人物に限定されない。例えば、動画に登場する物品と人物との関係性を同様にして評価することも可能であるし、その物品に対応するオブジェクトを表示することもできる。例えば、俳優Aが好んで身に付けているスーツSを上記の技術により発見したり、俳優AがスーツSをどのくらい好んで身に付けているかを視覚的に表現したりすることができる。
ここで視覚的に表現されていることは、動画を解析して得られる俳優AとスーツSとの関係性である。そのため、テレビジョン映像などを解析の対象にすると、上記のように、俳優Aが好んで着用しているスーツSという物品が抽出されるであろう。例えば、俳優Aに対する関心の高いユーザは、上記の技術を用いることで、俳優Aが頻繁に身に付けている物品を容易に知ることができるようになる。
また、同様にして物品間の関係性を抽出したり、その関係性を視覚的に表現したりすることもできる。例えば、俳優Aが頻繁に着用しているスーツSと関係性の高い(例えば、同じ映像シーンに登場する機会の多い)ドレスDを視覚的に表現することができる。つまり、上記の技術を利用すると、映画の1シーンに登場するようなセンスの良いスーツとドレスとの組み合わせを容易に知ることができるようになる。もちろん、服飾だけでなく、ある車種の車と合う服装や眼鏡の種類、或いは、ある色の車と合う場所(例えば、海、森など)を同様の方法で容易に知ることができるようになる。
上記のような応用例についても、当然に本実施形態の技術的範囲に属する。
100 情報処理装置
101 メタデータ取得部
102 出演時間計算部
103 関係性計算部
104 オブジェクト表示部
105 関連情報表示部
106 シーン画像取得部
107 シーン画像表示部
108 動画取得部
109 再生制御部
110 表示部

Claims (19)

  1. 各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出部と、
    動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示部と、
    を備え、
    前記オブジェクト表示部は、前記関係性スコアが高い登場人物の組に対応するオブジェクトを互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
    表示装置。
  2. 前記区間メタデータを利用し、各登場人物が動画中に登場する時間の合計値を表す出演時間を登場人物毎に算出する出演時間算出部をさらに備え、
    前記オブジェクト表示部は、前記出演時間が長い登場人物に対応するオブジェクトを大きく表示し、前記出演時間が短い登場人物に対応するオブジェクトを小さく表示する、
    請求項1に記載の表示装置。
  3. 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について共演作品の数を算出し、当該共演作品の数を前記関係性スコアとして出力する、
    請求項1に記載の表示装置。
  4. 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として出演した共演作品の数に第1の重み値をかけた値と、一方の登場人物が主役として出演し、かつ、他方の登場人物が脇役として出演した共演作品の数に第2の重み値をかけた値と、両登場人物が脇役として出演した共演作品の数に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力し、
    前記第1の重み値は、前記第2の重み値よりも大きく、
    前記第2の重み値は、前記第3の重み値よりも大きい、
    請求項1に記載の表示装置。
  5. 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、各共演作品中における一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
    請求項2に記載の表示装置。
  6. 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が同じ動画フレームに登場する時間の合計値を算出し、当該合計値を前記関係性スコアとして出力する、
    請求項1に記載の表示装置。
  7. 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、両登場人物が主役として同じ動画フレームに登場する時間の合計値に第1の重み値をかけた値と、同じ動画フレームに一方の登場人物が主役として登場し、かつ、他方の登場人物が脇役として登場する時間の合計値に第2の重み値をかけた値と、両登場人物が脇役として同じ動画フレームに登場する時間の合計値に第3の重み値をかけた値と、を合計した値を前記関係性スコアとして出力する、
    請求項1に記載の表示装置。
  8. 前記関係性スコア算出部は、前記区間メタデータを利用し、各登場人物の組について、共演作品毎に、一方の登場人物の出演時間と他方の登場人物の出演時間とをかけた値と、両登場人物が同じ動画フレームに登場する時間の合計値と、をかけた値を算出し、算出した値を全ての共演作品について合計し、合計した値を前記関係性スコアとして出力する、
    請求項2に記載の表示装置。
  9. 前記オブジェクト表示部は、表示領域内におけるオブジェクトの位置に関する第1の関数と、オブジェクト間の位置関係に関する第2の関数とで構成されるポテンシャル関数の値が最小となるように全てのオブジェクトを表示し、
    前記第1の関数は、オブジェクトの位置が前記表示領域に近づくほど値が大きくなる関数であり、
    前記第2の関数は、関係性のある登場人物の組に対応する2つのオブジェクトが当該登場人物の組に対応する関係性スコアに応じた距離に近づくと値が減少し、関係性のない登場人物の組に対応する2つのオブジェクトが近づくと値が増加する関数であり、
    前記関係性スコアに応じた距離は、前記関係性スコアが大きくなるほど小さくなる、
    請求項1に記載の表示装置。
  10. 動画の1シーンを表す画像をタイル状に並べて表示するシーン表示部をさらに備え、
    前記シーン表示部は、1つの前記オブジェクトがユーザにより選択された場合に、選択されたオブジェクトに対応する登場人物が登場する動画の1シーンを表す画像をハイライト表示する、
    請求項1に記載の表示装置。
  11. 前記シーン表示部は、動画からランダムにシーンを選択し、選択したシーンを表す画像をランダムな位置に並べて表示する、
    請求項10に記載の表示装置。
  12. 前記シーン表示部は、同じ列に同じ動画から抽出された画像が並ぶように表示し、
    前記画像は、抽出元の動画が古い順に行方向に並んで表示され、かつ、各動画中における出現時刻が早い順に列方向に並んで表示される、
    請求項10に記載の表示装置。
  13. 前記シーン表示部は、同じムードを持つシーンが同じ列に並ぶように前記動画の1シーンを表す画像を表示する、
    請求項10に記載の表示装置。
  14. 前記オブジェクト表示部は、ユーザにより1つの前記画像が選択された場合に、当該画像に対応する動画に登場する登場人物に対応するオブジェクトだけを表示する、
    請求項10に記載の表示装置。
  15. 前記オブジェクト表示部は、関連性のある登場人物の組に対応する2つのオブジェクトを結ぶ線を表示する、
    請求項1に記載の表示装置。
  16. ユーザにより1つの前記オブジェクトが選択された場合に、前記区間メタデータを利用して当該オブジェクトに対応する登場人物が登場する区間を抽出し、抽出した区間の動画フレームを再生する動画再生部をさらに備える、
    請求項1に記載の表示装置。
  17. 前記オブジェクト表示部は、ユーザにより1つの前記オブジェクトが選択された場合に、選択されたオブジェクトに対応する登場人物と関係性のある登場人物に対応する全てのオブジェクトを同位相で動かす、
    請求項1に記載の表示装置。
  18. 各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出するステップと、
    動画に登場する各登場人物に対応するオブジェクトを表示するステップと、
    を含み、
    前記関係性スコアが高い登場人物の組に対応するオブジェクトの組は、互いに近い位置に表示され、
    前記関係性スコアが低い登場人物の組に対応するオブジェクトの組は、互いに離れた位置に表示される、
    オブジェクト表示方法。
  19. 各登場人物が動画中に登場する区間を表した区間メタデータを利用し、共演関係に基づく登場人物間の関係性の強さを表す関係性スコアを算出する関係性スコア算出機能と、
    動画に登場する各登場人物に対応するオブジェクトを表示するオブジェクト表示機能と、
    をコンピュータに実現させるためのプログラムであり、
    前記オブジェクト表示機能は、前記関係性スコアが高い登場人物の組に対応するオブジェクトの組を互いに近い位置に表示し、前記関係性スコアが低い登場人物の組に対応するオブジェクトの組を互いに離れた位置に表示する、
    プログラム。
JP2011127390A 2011-06-07 2011-06-07 表示装置、オブジェクト表示方法、及びプログラム Ceased JP2012256105A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011127390A JP2012256105A (ja) 2011-06-07 2011-06-07 表示装置、オブジェクト表示方法、及びプログラム
CN2012101770669A CN102821261A (zh) 2011-06-07 2012-05-31 显示设备、对象显示方法和程序
US13/485,104 US8928697B2 (en) 2011-06-07 2012-05-31 Display apparatus, object display method, and program for displaying objects corresponding to characters
US14/582,476 US20150117838A1 (en) 2011-06-07 2014-12-24 Display apparatus, object display method, and program for displaying objects corresponding to characters

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011127390A JP2012256105A (ja) 2011-06-07 2011-06-07 表示装置、オブジェクト表示方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012256105A true JP2012256105A (ja) 2012-12-27
JP2012256105A5 JP2012256105A5 (ja) 2014-06-19

Family

ID=47292813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011127390A Ceased JP2012256105A (ja) 2011-06-07 2011-06-07 表示装置、オブジェクト表示方法、及びプログラム

Country Status (3)

Country Link
US (2) US8928697B2 (ja)
JP (1) JP2012256105A (ja)
CN (1) CN102821261A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238712A (ja) * 2013-06-07 2014-12-18 三菱電機株式会社 コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014060577A (ja) * 2012-09-18 2014-04-03 Sony Corp 通信端末、プログラムおよび情報処理装置
US9477879B2 (en) * 2013-06-28 2016-10-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium for obtaining a relationship between pieces of contents from use history information about the contents
JP6207260B2 (ja) * 2013-06-28 2017-10-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US10034038B2 (en) * 2014-09-10 2018-07-24 Cisco Technology, Inc. Video channel selection
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US10783679B2 (en) * 2017-01-30 2020-09-22 Disney Enterprises Inc. Circular visual representation of media content
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
CN107943935B (zh) * 2017-11-23 2021-02-02 北京天广汇通科技有限公司 数据的处理方法、装置和计算机可读存储介质
NO343032B1 (en) * 2017-12-22 2018-10-08 Pexip AS Visual control of a video conference

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946305A (ja) * 1995-07-31 1997-02-14 Sony Corp Isdb用送信装置およびその受信装置
JPH10207907A (ja) * 1997-01-27 1998-08-07 Mitsubishi Electric Corp 3次元空間を用いたオブジェクト配置・表示・操作方法および装置
JP2000299829A (ja) * 1999-04-13 2000-10-24 Canon Inc 画像処理装置及び方法
JP2008167082A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
US20080196064A1 (en) * 2007-02-14 2008-08-14 Kabushiki Kaisha Toshiba Apparatus and method of providing a recommended broadcast program
JP2008276340A (ja) * 2007-04-26 2008-11-13 Hitachi Ltd 検索装置
JP2009089065A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 電子機器および顔画像表示装置
JP2009100314A (ja) * 2007-10-17 2009-05-07 Sony Corp 電子機器、コンテンツ分類方法及びそのプログラム
JP2009201041A (ja) * 2008-02-25 2009-09-03 Oki Electric Ind Co Ltd コンテンツ検索装置およびその表示方法
JP2010062758A (ja) * 2008-09-02 2010-03-18 Sony Corp 電子機器、情報処理方法及びプログラム
JP2010213052A (ja) * 2009-03-11 2010-09-24 Casio Computer Co Ltd 撮像装置、撮像方法、及び撮像プログラム
JP2011023828A (ja) * 2009-07-13 2011-02-03 Toshiba Corp 電子機器および映像データ処理方法
JP2011035837A (ja) * 2009-08-05 2011-02-17 Toshiba Corp 電子機器および画像データの表示方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7986372B2 (en) * 2004-08-02 2011-07-26 Microsoft Corporation Systems and methods for smart media content thumbnail extraction
TW200806027A (en) * 2005-11-11 2008-01-16 Sony Corp Imaging/reproducing device
JP2007206919A (ja) * 2006-02-01 2007-08-16 Sony Corp 表示制御装置および方法、プログラム、並びに記録媒体
US8949895B2 (en) * 2006-08-18 2015-02-03 The Directv Group, Inc. Mosaic channel video stream with personalized interactive services
CN101334780A (zh) * 2007-06-25 2008-12-31 英特维数位科技股份有限公司 人物影像的搜寻方法、系统及存储影像元数据的记录媒体
JP4424389B2 (ja) * 2007-08-24 2010-03-03 ソニー株式会社 動画作成装置、動画作成方法、およびプログラム
JP4462334B2 (ja) * 2007-11-16 2010-05-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び情報共有システム
JP5223318B2 (ja) * 2007-12-07 2013-06-26 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2009151896A (ja) * 2007-12-21 2009-07-09 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JP4816717B2 (ja) * 2008-12-09 2011-11-16 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2010277661A (ja) 2009-05-29 2010-12-09 Toshiba Corp 番組再生装置及び番組再生方法
US20120006630A1 (en) * 2009-06-12 2012-01-12 Min Allan Wang Elevator governor device
JP5227911B2 (ja) * 2009-07-22 2013-07-03 株式会社日立国際電気 監視映像検索装置及び監視システム
JP5552767B2 (ja) * 2009-07-27 2014-07-16 ソニー株式会社 表示処理装置、表示処理方法および表示処理プログラム
JP5524653B2 (ja) * 2010-02-26 2014-06-18 キヤノン株式会社 表示制御装置及びその制御方法
EP2549390A4 (en) * 2010-03-18 2013-10-02 Panasonic Corp DATA PROCESSING DEVICE AND DATA PROCESSING METHOD

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946305A (ja) * 1995-07-31 1997-02-14 Sony Corp Isdb用送信装置およびその受信装置
JPH10207907A (ja) * 1997-01-27 1998-08-07 Mitsubishi Electric Corp 3次元空間を用いたオブジェクト配置・表示・操作方法および装置
JP2000299829A (ja) * 1999-04-13 2000-10-24 Canon Inc 画像処理装置及び方法
JP2008167082A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
US20080196064A1 (en) * 2007-02-14 2008-08-14 Kabushiki Kaisha Toshiba Apparatus and method of providing a recommended broadcast program
JP2008199406A (ja) * 2007-02-14 2008-08-28 Toshiba Corp 推薦番組情報提供装置、推薦番組情報提供方法及びプログラム
JP2008276340A (ja) * 2007-04-26 2008-11-13 Hitachi Ltd 検索装置
JP2009089065A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 電子機器および顔画像表示装置
JP2009100314A (ja) * 2007-10-17 2009-05-07 Sony Corp 電子機器、コンテンツ分類方法及びそのプログラム
JP2009201041A (ja) * 2008-02-25 2009-09-03 Oki Electric Ind Co Ltd コンテンツ検索装置およびその表示方法
JP2010062758A (ja) * 2008-09-02 2010-03-18 Sony Corp 電子機器、情報処理方法及びプログラム
JP2010213052A (ja) * 2009-03-11 2010-09-24 Casio Computer Co Ltd 撮像装置、撮像方法、及び撮像プログラム
JP2011023828A (ja) * 2009-07-13 2011-02-03 Toshiba Corp 電子機器および映像データ処理方法
JP2011035837A (ja) * 2009-08-05 2011-02-17 Toshiba Corp 電子機器および画像データの表示方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200600527002; 梶並 知記 外2名: '"キーワードマップを用いたWeb情報検索インタフェースのためのキーワード配置支援方法"' 計測自動制御学会論文集 第42巻,第4号, 20060430, p.319-326, 社団法人計測自動制御学会 *
JPN6014049385; 梶並 知記 外2名: '"キーワードマップを用いたWeb情報検索インタフェースのためのキーワード配置支援方法"' 計測自動制御学会論文集 第42巻,第4号, 20060430, p.319-326, 社団法人計測自動制御学会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238712A (ja) * 2013-06-07 2014-12-18 三菱電機株式会社 コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム

Also Published As

Publication number Publication date
US20120313971A1 (en) 2012-12-13
CN102821261A (zh) 2012-12-12
US8928697B2 (en) 2015-01-06
US20150117838A1 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP2012256105A (ja) 表示装置、オブジェクト表示方法、及びプログラム
JP5857450B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7118966B2 (ja) メディアアセットの着目オブジェクトの移動の経路を予測し、移動の経路におけるオーバーレイの設置を回避することによって、オーバーレイによるメディアアセットの妨害を最小化するためのシステムおよび方法
JP5819649B2 (ja) 自動でコンテンツを推薦するモバイルシステム、コンテンツ推薦システム、およびコンテンツ推薦方法
JP5654984B2 (ja) コンピューターおよびメディアプレーヤー上で消費されるコンテンツに複数の段階のコンテキストを提供すること
JP2012248070A (ja) 情報処理装置、メタデータ設定方法、及びプログラム
JP2013025748A (ja) 情報処理装置、動画要約方法、及びプログラム
JP2009100314A (ja) 電子機器、コンテンツ分類方法及びそのプログラム
US9558784B1 (en) Intelligent video navigation techniques
WO2013113985A1 (en) Method, apparatus and computer program product for generation of motion images
US9564177B1 (en) Intelligent video navigation techniques
US20150301693A1 (en) Methods, systems, and media for presenting related content
CN112118397B (zh) 一种视频合成的方法、相关装置、设备以及存储介质
WO2014174940A1 (ja) コンテンツ再生装置およびコンテンツ再生装置の広告表示方法
WO2015121436A1 (en) Sensed content delivery
CN109618229A (zh) 音视频的关联播放方法、装置、服务器及存储介质
US20230164369A1 (en) Event progress detection in media items
JP6031096B2 (ja) オブジェクトの位置を通じた映像ナビゲーション
JP2006139408A (ja) 特徴ベクトル生成装置、検索装置、特徴ベクトル生成方法、検索方法及びプログラム
KR101683809B1 (ko) 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치
KR101658189B1 (ko) 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치
JP5399211B2 (ja) 情報処理システム、サーバ装置、情報処理方法、およびプログラム
JP6344379B2 (ja) 情報処理装置、及び情報処理方法
CN112839251A (zh) 一种电视及其与用户的交互方法
US20120134644A1 (en) Playback apparatus, playback method, and computer program product thereof

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20150728