JP2009089032A - 電子機器およびシーン種類表示方法 - Google Patents

電子機器およびシーン種類表示方法 Download PDF

Info

Publication number
JP2009089032A
JP2009089032A JP2007256238A JP2007256238A JP2009089032A JP 2009089032 A JP2009089032 A JP 2009089032A JP 2007256238 A JP2007256238 A JP 2007256238A JP 2007256238 A JP2007256238 A JP 2007256238A JP 2009089032 A JP2009089032 A JP 2009089032A
Authority
JP
Japan
Prior art keywords
level
video content
content data
section
applause
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007256238A
Other languages
English (en)
Other versions
JP5057918B2 (ja
Inventor
Koetsu Wada
光悦 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007256238A priority Critical patent/JP5057918B2/ja
Priority to US12/233,438 priority patent/US20090089822A1/en
Publication of JP2009089032A publication Critical patent/JP2009089032A/ja
Priority to US13/343,653 priority patent/US8559683B2/en
Application granted granted Critical
Publication of JP5057918B2 publication Critical patent/JP5057918B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/27Arrangements for recording or accumulating broadcast information or broadcast-related information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】映像コンテンツデータに含まれる音声を解析し解析結果を表示することによって、映像コンテンツデータを再生することなく、シーンの種類を識別することが出来るような電子機器を提供すること。
【解決手段】顔画像一覧表示処理部301は、歓声レベルの時間変化を示す歓声グラフと、前記拍手レベル情報に応じて拍手レベルの時間変化を示す拍手グラフとの2種類のグラフを、2次元の表示エリア内のレベル表示エリアに表示する。
【選択図】 図3

Description

本発明は、映像コンテンツデータに含まれるシーンを識別するための情報を表示する顔画像を表示する電子機器およびシーン種類表示方法に関する。
一般に、ビデオレコーダ、パーソナルコンピュータといった電子機器は、テレビジョン放送番組データのような各種映像コンテンツデータを記録および再生することが可能である。
例えば記録された映像コンテンツがサッカーの場合、視聴する時間を短縮するために、例えばゴールシーンだけを見たいという要求がある。ゴールシーンでは歓声があがる。従って、歓声があった場所がゴールシーンであると推測することができる。
特許文献1には、画像音声データの特徴抽出処理で、所定のテロップ特徴データ、人物特徴データその他の画像特徴データ、話者音声特徴データ、「拍手歓声特徴データ」、その他の音声特徴データの各種特徴抽出処理を行う情報信号処理方法が開示されている。そして、それぞれの特徴の表示記号をユーザ設定し、時間軸上に表示記号を表示することによって区間を識別して表示することが開示されている。
特開2006−54622号公報
しかし、特許文献1のように、歓声と拍手とを合わせた拍手歓声特徴を抽出するのでは、不都合な場合がある。例えば、バラエティ番組の場合、歓声が上がるシーンと拍手が起こるシーンとは、両方とも盛り上がっているシーンであると考えることが出来る。しかし、二つのシーンは、盛り上がりの種類が異なる。例えば、歓声が上がっているシーンは、出演者が登場するシーンであったりする。また、例えば拍手が起こっているシーンは、出演者の話が面白く盛り上がっているシーンであったりする。
本発明の目的は、映像コンテンツデータに含まれる音声を解析し解析結果を表示することによって、映像コンテンツデータを再生することなく、シーンの種類を識別することが出来る電子機器およびシーン種類表示方法を提供することを目的とする。
本発明の一例に係わる電子機器は、映像コンテンツに含まれる歓声レベルの時間変化を示す歓声レベル情報と映像コンテンツデータに含まれる拍手レベルをの時間変化を示す拍手レベル情報とが格納される記憶装置と、前記歓声レベル情報に応じて前記歓声レベルの時間変化を示す歓声グラフと、前記拍手レベル情報に応じて前記拍手レベルの時間変化を示す拍手グラフとの2種類のグラフを、2次元の表示エリア内のレベル表示エリアに表示する映像コンテンツ情報表示手段であって、前記歓声グラフおよび拍手グラフの横軸は時間軸であり、縦軸は前記歓声レベルまたは前記拍手レベルであり、二つのグラフの時間軸は前記映像コンテンツの開始位置から終端位置を表す、前記映像コンテンツ情報表示手段とを具備することを特徴とする。
本発明によれば、映像コンテンツデータに含まれる音声を解析し解析結果を表示することによって、映像コンテンツデータを再生することなく、シーンの種類を識別することが出来る。
以下、図面を参照して、本発明の実施形態を説明する。
まず、図1および図2を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、情報処理装置として機能するノートブック型の携帯型パーソナルコンピュータ10から実現されている。
このパーソナルコンピュータ10は、放送番組データ、外部機器から入力されるビデオデータといった、映像コンテンツデータ(オーディオビジュアルコンテンツデータ)を記録および再生することができる。即ち、パーソナルコンピュータ10は、テレビジョン放送信号によって放送される放送番組データの視聴および録画を実行するためのテレビジョン(TV)機能を有している。このTV機能は、例えば、パーソナルコンピュータ10に予めインストールされているTVアプリケーションプログラムによって実現されている。また、TV機能は、外部のAV機器から入力されるビデオデータを記録する機能、および記録されたビデオデータおよび記録された放送番組データを再生する機能も有している。
さらに、パーソナルコンピュータ10は、パーソナルコンピュータ10に格納されたビデオデータ、放送番組データのような映像コンテンツデータに登場する人物の顔画像の一覧等を表示する顔画像一覧表示機能を有している。この顔画像一覧表示機能は、例えば、TV機能内にその一機能として実装されている。顔画像一覧表示機能は、映像コンテンツデータの概要等をユーザに提示するための映像インデキシング機能の一つである。この顔画像一覧表示機能は、映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに提示することができる。また、この顔画像一覧表示機能は、映像コンテンツデータ内に含まれる所定の属性区間に着目して人物の一覧を表示することもできる。
図1はコンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor Liquid Crystal Display)17から構成される表示装置が組み込まれている。
ディスプレイユニット12は、コンピュータ本体11に対し、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在に取り付けられている。コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10をパワーオン/パワーオフするためのパワーボタン14、入力操作パネル15、タッチパッド16、およびスピーカ18A,18Bなどが配置されている。
入力操作パネル15は、押されたボタンに対応するイベントを入力する入力装置であり、複数の機能をそれぞれ起動するための複数のボタンを備えている。これらボタン群には、TV機能(視聴、録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。また、コンピュータ本体11の正面には、本コンピュータ10のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、赤外線信号受信部などから構成されている。
コンピュータ本体11の例えば右側面には、TV放送用のアンテナ端子19が設けられている。また、コンピュータ本体11の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
次に、図2を参照して、本コンピュータ10のシステム構成について説明する。
本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM109、LANコントローラ110、ハードディスクドライブ(HDD)111、DVDドライブ112、ビデオプロセッサ113、メモリ113A、無線LANコントローラ114、IEEE 1394コントローラ115、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116、TVチューナ117、およびEEPROM118等を備えている。
CPU101は本コンピュータ10の動作を制御するプロセッサであり、ハードディスクドライブ(HDD)111から主メモリ103にロードされる、オペレーティングシステム(OS)201、およびTVアプリケーションプログラム202のような各種アプリケーションプログラムを実行する。TVアプリケーションプログラム202はTV機能を実行するためのソフトウェアである。このTVアプリケーションプログラム202は、TVチューナ117によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD111に記録する録画処理、およびHDD111に記録された放送番組データ/ビデオデータを再生する再生処理等を実行する。また、CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input Output System)も実行する。BIOSはハードウェア制御のためのプログラムである。
ノースブリッジ102はCPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
HDMI端子2は上述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号と、デジタルオーディオ信号とを一本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、LPC(Low Pin Count)バス上の各デバイス、およびPCI(Peripheral Component Interconnect)バス上の各デバイスを制御する。また、サウスブリッジ104は、ハードディスクドライブ(HDD)111およびDVDドライブ112を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
またさらに、サウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ113が接続されている。
ビデオプロセッサ113は、前述の映像インデキシングに関する各種処理を実行するプロセッサである。このビデオプロセッサ113は、映像インデキシング処理を実行するためのインデキシング処理部として機能する。すなわち、映像インデキシング処理においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データから複数の顔画像を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報、等を出力する。顔画像の抽出は、例えば、動画像データの各フレームから顔領域を検出する顔検出処理、検出された顔領域をフレームから切り出す切り出し処理等によって実行される。顔領域の検出は、例えば、各フレームの画像の特徴を解析して、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。
さらに、ビデオプロセッサ113は、例えば、映像コンテンツデータ内に含まれるコマーシャル(CM)区間を検出する処理、および音声インデキシング処理も実行する。通常、各CM区間の時間長は、予め決められた幾つかの時間長の内の1つに設定されている。また、CM区間の前後には一定時間長の無音期間が存在する。したがって、CM区間の検出処理においては、例えば、映像コンテンツデータ内に含まれるオーディオデータが分析され、一定時間長の無音区間が検出される。そして、検出された連続する2つの無音区間に挾まれ、且つ一定値以上の時間長を有する部分データを含む区間が、CM区間として検出される。
音声インデキシング処理は、映像コンテンツデータ内に含まれるオーディオデータを分析して、映像コンテンツデータ内に含まれる、音楽が流れている音楽区間、および人物によるトークが行われているトーク区間を検出するインデキシング処理である。音声インデキシング処理においては、例えば、オーディオデータの周波数スペクトルの特徴が分析され、その周波数スペクトルの特徴に応じて、音楽区間、およびトーク区間が検出される。音楽区間に対応する周波数スペクトルの特徴と、トーク区間に対応する周波数スペクトルの特徴とは互いに異なるので、周波数スペクトルの特徴を分析することによって、音楽区間およびトーク区間のそれぞれを検出することができる。
トーク区間の検出処理においては、例えば、話者セグメンテーション技術または話者クラスタリング技術等が用いられ、これによって話者の切り替わりも検出される。同一の話者(または同一の話者グループ)が連続してトークしている期間が、一つのトーク区間となる。
さらに、音声インデキシング処理は、映像コンテンツデータ内の各部分データ(一定時間長のデータ)毎に歓声レベルを検出する歓声レベル検出処理、および映像コンテンツデータ内の各部分データ毎に拍手レベルを検出する拍手レベル検出処理を実行する。
歓声レベルは、歓声の大きさを示す。歓声は、大勢の人の声が合わさった音である。大勢の人の声が合わさった音は、ある特定の周波数スペクトルの分布を有する。歓声レベル検出処理においては、映像コンテンツデータに含まれるオーディオデータの周波数スペクトルが分析され、そしてその周波数スペクトルの分析結果に従って、各部分データの歓声レベルが検出される。
拍手レベルは、比較的盛大な拍手の大きさを示す。拍手は、ある一定以上の音量レベルがある一定時間長以上連続的に発生する区間の音量レベルである。拍手レベル検出処理においては、映像コンテンツデータに含まれるオーディオデータの音量の分布が分析され、その分析結果に従って、拍手レベルが検出される。例えば、音の大きさと時間方向の分散により拍手を検出することができる。また、歓声の代わりに拍手や笑い声等から評価モデルを作成し、周波数領域等でマッチングすることにより検出しても良い。
メモリ113Aは、ビデオプロセッサ113の作業メモリとして用いられる。インデキシング処理(CM検出処理、映像インデキシング処理、および音声インデキシング処理)を実行するためには多くの演算量が必要とされる。本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ113がバックエンドプロセッサとして使用され、このビデオプロセッサ113によってインデキシング処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデキシング処理を実行することが出来る。なお、CM検出処理は上述したようにオーディオデータを解析することによって実行することができるので、以下では、CM検出処理を音声インデキシング処理内の1つの処理として扱うことにする。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。
無線LANコントローラ114は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。IEEE 1394コントローラ115は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。
エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、電力管理のためのエンベデッドコントローラと、キーボード(KB)13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このエンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10をパワーオン/パワーオフする機能を有している。さらに、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、リモコンユニットインタフェース20との通信を実行する機能を有している。
TVチューナ117はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子19に接続されている。このTVチューナ117は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ117は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
次に、図3を参照して、TVアプリケーションプログラム202によって実行される顔画像一覧表示機能について説明する。
放送番組データのような映像コンテンツデータに対するインデキシング処理(映像インデキシング処理、および音声インデキシング処理)は、上述したように、インデキシング処理部として機能するビデオプロセッサ113によって実行される。
ビデオプロセッサ113は、TVアプリケーションプログラム202の制御の下、例えば、ユーザによって指定された録画済みの放送番組データ等の映像コンテンツデータに対してインデキシング処理を実行する。また、ビデオプロセッサ113は、TVチューナ117によって受信された放送番組データをHDD111に格納する録画処理と並行して、当該放送番組データに対するインデキシング処理を実行することもできる。
映像インデキシング処理(顔画像インデキシング処理とも云う)においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データをフレーム単位で解析する。そして、ビデオプロセッサ113は、動画像データを構成する複数のフレームそれぞれから人物の顔画像を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報を出力する。各顔画像に対応するタイムスタンプ情報としては、映像コンテンツデータの開始から当該顔画像が登場するまでの経過時間、または当該顔画像が抽出されたフレーム番号、等を使用することが出来る。
さらに、ビデオプロセッサ113は、抽出された各顔画像のサイズ(解像度)も出力する。ビデオプロセッサ113から出力される顔検出結果データ(顔画像、タイムスタンプ情報TS、およびサイズ)は、データベース111Aに顔画像インデキシング情報として格納される。このデータベース111Aは、HDD111内に用意されたインデキシングデータ記憶用の記憶領域である。
さらに、映像インデキシング処理においては、ビデオプロセッサ113は、顔画像を抽出する処理と並行して、サムネイル画像取得処理も実行する。サムネイル画像は、映像コンテンツデータから例えば等時間間隔で抽出された複数のフレームの各々に対応する画像(縮小画像)である。すなわち、ビデオプロセッサ113は、顔画像を含むフレームであるか否かに関係なく、映像コンテンツデータから例えば所定の等時間間隔でフレームを順次抽出し、抽出した各フレームに対応する画像(サムネイル画像)と、そのサムネイル画像が出現する時点を示すタイムスタンプ情報TSとを出力する。ビデオプロセッサ113から出力されるサムネイル画像取得結果データ(サムネイル、タイムスタンプ情報TS)も、データベース111Aにサムネイルインデキシング情報として格納される。
また、音声インデキシング処理においては、ビデオプロセッサ113は、映像コンテンツに含まれるオーディオデータを分析して、映像コンテンツデータ内に含まれる複数種の属性区間(CM区間、音楽区間、およびトーク区間)を検出し、検出された各属性区間の開始時点および終了時点を示す区間属性情報を出力する。この区間属性情報は、属性検出結果情報としてデータベース111Aに格納される。さらに、音声インデキシング処理においては、ビデオプロセッサ113は、上述の歓声レベル検出処理および拍手レベル検出処理も実行する。これら歓声レベル検出処理の結果および拍手レベル検出処理の結果も、上述の属性検出結果情報の一部としてデータベース111Aに格納される。
属性検出結果情報(区間属性情報)は、図4に示されているように、例えば、CM区間テーブル、音楽区間テーブル、トーク区間テーブル、および歓声/拍手テーブルから構成されている。
CM区間テーブルは、検出されたCM区間の開始時点および終了時点を示すCM区間属性情報を格納する。映像コンテンツデータの開始位置から終端位置までのシーケンス内に複数のCM区間が存在する場合には、それら複数のCM区間それぞれに対応するCM区間属性情報がCM区間テーブルに格納される。CM区間テーブルにおいては、検出された各CM区間毎に当該CM区間の開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報が格納される。
音楽区間テーブルは、検出された音楽区間の開始時点および終了時点を示す音楽区間属性情報を格納する。映像コンテンツデータの開始位置から終端位置までのシーケンス内に複数の音楽区間が存在する場合には、それら複数の音楽区間それぞれに対応する音楽区間属性情報が音楽区間テーブルに格納される。音楽区間テーブルにおいては、検出された各音楽区間毎に当該音楽区間の開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報が格納される。
トーク区間テーブルは、検出されたトーク区間の開始時点および終了時点を示す音楽区間属性情報を格納する。映像コンテンツデータの開始位置から終端位置までのシーケンス内に複数のトーク区間が存在する場合には、それら複数のトーク区間それぞれに対応するトーク区間属性情報がトーク区間テーブルに格納される。トーク区間テーブルにおいては、検出された各トーク区間毎に当該トーク区間の開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報が格納される。
歓声/拍手テーブルは、映像コンテンツデータ内の一定時間長の部分データ(タイムセグメントT1,T2,T3,…)それぞれにおける歓声レベルおよび拍手レベルを格納する。
図3に示されているように、TVアプリケーションプログラム202は、顔画像一覧表示機能を実行するための顔画像一覧表示処理部301を含んでいる。この顔画像一覧表示処理部301は、例えば、インデキシングビューワプログラムとして実現されており、データベース111Aに格納されたインデキシング情報(顔画像インデキシング情報、サムネイルインデキシング情報、区間属性情報、等)を用いて、映像コンテンツデータの概要を俯瞰するためのインデキシングビュー画面を表示する。
具体的には、顔画像一覧表示処理部301は、データベース111Aから顔画像インデキシング情報(顔画像、タイムスタンプ情報TS、およびサイズ)を読み出し、そしてその顔画像インデキシング情報を用いて、映像コンテンツデータに登場する人物の顔画像の一覧を、インデキシングビュー画面上の2次元の表示エリア(以下、顔サムネイル表示エリアと称する)上に表示する。この場合、顔画像一覧表示処理部301は、映像コンテンツデータの総時間長を、例えば等間隔で、複数の時間帯に分割し、時間帯毎に、抽出された顔画像の内から当該時間帯に登場する顔画像を所定個選択する。そして、顔画像一覧表示処理部301は、時間帯毎に、選択した所定個の顔画像それぞれを並べて表示する。
すなわち、2次元の顔サムネイル表示エリアは、複数の行および複数の列を含むマトリクス状に配置された複数の顔画像表示エリアを含む。複数の列それぞれには、映像コンテンツデータの総時間長を構成する複数の時間帯が割り当てられている。具体的には、例えば、複数の列それぞれには、映像コンテンツデータの総時間長をこれら複数の列の数で等間隔に分割することによって得られる、互いに同一の時間長を有する複数の時間帯がそれぞれ割り当てられる。もちろん、各列に割り当てられる時間帯は必ずしも同一の時間長でなくてもよい。
顔画像一覧表示処理部301は、顔画像それぞれに対応するタイムスタンプ情報TSに基づき、各列内に属する行数分の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれを、例えば、それら顔画像の出現頻度順(顔画像の検出時間長順)のような順序で並べて表示する。この場合、例えば、当該各列に割り当てられた時間帯に属する顔画像の内から、出現頻度(登場頻度)の高い順に顔画像が行数分だけ選択され、選択された顔画像が登場頻度順に上から下に向かって並んで配置される。もちろん、出現頻度順ではなく、各列に割り当てられた時間帯に出現する顔画像それぞれを、その出現順に並べて表示してもよい。
この顔画像一覧表示機能により、映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに分かりやすく提示することができる。顔サムネイル表示エリアの具体的な構成例については、図6以降で後述する。
また、顔画像一覧表示処理部301は、データベース111Aからサムネイルインデキシング情報(サムネイル、タイムスタンプ情報TS)を読み出し、そしてサムネイルインデキシング情報を用いて、サムネイル画像それぞれを、顔サムネイル表示エリアの下方側または上方側の一方、または両方に配置されたサムネイル表示エリア(以下、じゃばらサムネイル表示エリアと称する)上に、それらサムネイル画像の出現時間順に一列に並べて表示する。
映像コンテンツデータによっては、顔画像が登場しない時間帯も存在する。したがって、インデキシングビュー画面上に顔サムネイル表示エリアのみならず、じゃばらサムネイル表示エリアも表示することにより、顔画像が登場しない時間帯においても、その時間帯の映像コンテンツデータの内容をユーザに提示することができる。
さらに、顔画像一覧表示処理部301は、データベース111Aから歓声レベル情報および拍手レベル情報を読み出し、それら歓声レベル情報および拍手レベル情報に従って、映像コンテンツデータの開始位置から終端位置までのシーケンス内における歓声レベルの変化および拍手レベルの変化をそれぞれ示すグラフを、インデキシングビュー画面上の顔サムネイル表示エリアの下方側または上方側の一方に配置されたレベル表示エリア上に表示する。なお、上述したように、じゃばらサムネイル表示エリアは、顔サムネイル表示エリアの下方側または上方側の一方、または両方に配置される。従って、じゃばらサムネイル表示エリアは、レベル表示エリアの下方側または上方側の一方、または両方に配置される。
このレベル表示エリアを見ることにより、ユーザに、映像コンテンツデータ内のどの辺りに大きな歓声が生じた区間が存在し、また映像コンテンツデータ内のどの辺りに拍手の大きな区間が存在するかを提示することができる。ユーザは、登場人物と、区間属性と、歓声レベルと、拍手レベルとを考慮して、映像コンテンツデータ全体の中から再生を開始すべきデータ位置を見つけることができる。
さらに、顔画像一覧表示処理部301は、データベース111Aから区間属性情報(CM区間属性情報、音楽区間属性情報、トーク区間属性情報)を読み出し、その区間属性情報に従って、映像コンテンツデータの開始位置から終端位置までのシーケンス内における各属性区間(CM区間、音楽区間、トーク区間)の位置(開始時点から終了時点までの区間)を示すバー領域を含む区間バーを、インデキシングビュー画面上の顔サムネイル表示エリアの下方側または上方側の一方に表示する。この区間バーは、例えば、3つのサブ区間バー、つまりCM区間の位置を示すCM区間バー、音楽区間の位置を示す音楽区間バー、トーク区間の位置を示すトーク区間バーを含んでいる。
シーケンス内に複数のCM区間が存在する場合、複数のCM区間それぞれの位置を示す複数のバー領域がCM区間バー内に表示される。同様に、シーケンス内に複数の音楽区間が存在する場合には複数の音楽区間それぞれの位置を示す複数のバー領域が音楽区間バー内に表示され、シーケンス内に複数のトーク区間が存在する場合には複数のトーク区間それぞれの位置を示す複数のバー領域がトーク区間バー内に表示される。以下では、シーケンス内に分散して存在する複数のCM区間の各々を部分CM区間と称し、シーケンス内に分散して存在する複数の音楽区間のそれぞれを部分音楽区間と称し、シーケンス内に分散して存在する複数のトーク区間のそれぞれを部分トーク区間と称する。
インデキシングビュー画面上に区間バーを表示することにより、顔サムネイル表示エリア内の各顔画像がどのような属性区間(CM区間、音楽区間、トーク区間)に登場する人物の顔画像であるかを、ユーザに提示することができる。したがって、ユーザは、登場人物と、区間属性とを考慮して、映像コンテンツデータ全体の中から再生を開始すべきデータ位置を見つけることができる。
顔画像一覧表示処理部301は、区間属性情報(CM区間属性情報、音楽区間属性情報、トーク区間属性情報)と複数の顔画像それぞれにタイムスタンプ情報とを用いることにより、顔インデキシング情報に含まれる複数の顔画像の内からある特定の属性区間(CM区間、音楽区間、またはトーク区間)に属する顔画像を検出することができる。
また、CM区間、音楽区間、トーク区間のみならず、例えば、ある一定値以上の歓声レベルを有する区間(歓声区間)、およびある一定値以上の拍手レベルを有する区間(拍手区間)などを属性区間として使用することもできる。この場合、ユーザは、CM区間、音楽区間、トーク区間、歓声区間、拍手区間それぞれに対応する属性を、着目すべき属性として選択的に指定することができる。
次に、図5を参照して、TVアプリケーションプログラム202の機能構成を説明する。
TVアプリケーションプログラム202は、上述の顔画像一覧表示処理部301に加え、記録処理部401、インデキシング制御部402、再生処理部403等を備えている。
記録処理部401は、TVチューナ117によって受信された放送番組データ、または外部機器から入力されるビデオデータをHDD111に記録する記録処理を実行する。また、記録処理部401は、ユーザによって予め設定された録画予約情報(チャンネル番号、日時)によって指定される放送番組データをTVチューナ117を用いて受信し、その放送番組データをHDD111に記録する予約録画処理も実行する。
インデキシング制御部402は、ビデオプロセッサ(インデキシング処理部)113を制御して、インデキシング処理(映像インデキシング処理、音声インデキシング処理)をビデオプロセッサ113に実行させる。ユーザは、録画対象の放送番組データ毎にインデキシング処理を実行するか否かを指定することができる。例えば、インデキシング処理の実行が指示された録画対象の放送番組データについては、その放送番組データがHDD111に記録された後に、インデキシング処理が自動的に開始される。また、ユーザは、既にHDD111に格納されている映像コンテンツデータの内から、インデキシング処理を実行すべき映像コンテンツデータを指定することもできる。
再生処理部403は、HDD111に格納されている各映像コンテンツデータを再生する処理を実行する。また、再生処理部403は、レベル表示エリアに現在位置バーが表示される。現在位置バーは現在じゃばらサムネイル表示エリアに表示中のじゃばらサムネイルがコンテンツ全体のどの辺りにあるかを示すバーである。レベル表示エリア上にポインタがある状態でユーザが左ボタンをクリックすると、現在位置バーがポインタの位置に移動する。そして、じゃばらサムネイル表示エリアに表示されるじゃばらサムネイルが現在位置バーの位置に対応する画像に変更される。
そして、ユーザが表示されているじゃばらサムネイル上にポインタを移動させて、左ボタンを操作すると、再生指示イベントが入力され、じゃばらサムネイルが表示されている時点もしくはその所定時間前の時点から映像コンテンツデータの再生を開始する機能を有している。
ユーザは、複数の属性区間を選択的に指定することにより、様々な属性に着目した顔画像一覧を見ながら、映像コンテンツデータの再生位置を決定することができる。
なお、インデキシング処理は、必ずしもビデオプロセッサ113によって実行する必要はなく、例えば、TVアプリケーションプログラム202にインデキシング処理を実行する機能を設けてもよい。この場合、インデキシング処理は、TVアプリケーションプログラム202の制御の下に、CPU101によって実行される。
次に、図6乃至図11を参照して、インデキシングビュー画面の具体的な構成について説明する。
図6には、顔画像一覧表示処理部301によってLCD17に表示されるインデキシングビュー画面の例が示されている。このインデキシングビュー画面は、ある映像コンテンツデータ(例えば放送番組データ)をインデキシング処理することによって得られた画面である。このインデキシングビュー画面には、顔画像の一覧を表示するための上述の顔サムネイル表示エリアと、上述のレベル表示エリアと、上述の区間バーと、サムネイル画像の一覧をじゃばら形式で表示するための上述のじゃばらサムネイル表示エリアとを含んでいる。
ここで、じゃばら形式とは、選択されているサムネイル画像をオリジナルのアスペクト比の通常サイズ(フルサイズ)で表示し、他の各サムネイル画像についてはその横方向サイズを縮小して表示する表示形式である。図6においては、選択されたサムネイル画像との距離が大きいサムネイル画像ほど、その横方向サイズが縮小されている。
レベル表示エリアにおいては、歓声レベルの時間変化を示すグラフ(図6中の濃い色で示されるグラフ)と、拍手レベルの時間変化を示すグラフ(図6中の薄い色で示されるグラフ)が表示される。
二つのグラフの横軸は、映像コンテンツの開始位置から終端位置を表す時間軸である。また、二つのグラフの縦軸は、レベル(大きさ)表している。そして、二つのグラフの縦軸のゼロレベルが同一になるように、歓声レベルのグラフに歓声レベルのグラフが重ねられている。横軸の時間軸は、映像コンテンツの開始位置から終端位置まで等間隔に時間が割り当てられている。
一般的に、歓声レベルより拍手レベルの方が大きいと考えられる。従って、歓声レベルのグラフに拍手レベルのグラフを重ねると、拍手レベルのグラフに隠れて歓声レベルのグラフが見えなくなってしまうことがある。本実施形態では、歓声レベルのグラフができるだけ見えるように、拍手レベルのグラフの上に歓声レベルのグラフを重ねている。
なお、拍手レベルより歓声レベルの方が大きいと考えられので有れば、逆に歓声レベルのグラフの上に拍手レベルのグラフを重ねてもよい。また、設定によってグラフを重ねる順番を変更するようにしても良い。
レベル表示エリアには、現在位置バーが表示される。現在位置バーは現在じゃばらサムネイル表示エリアに表示中のじゃばらサムネイルがコンテンツ全体のどの辺りにあるかを示すバーである。ユーザがタッチパッド16を操作することによって、レベル表示エリア内にポインタPを表示させた状態で左ボタンを操作すると、図7に示すように、じゃばらサムネイル表示エリアに表示される選択画像がポインタPの位置に応じて変化する。
そして、じゃばらサムネイル表示エリア内で画像が選択されている状態で、キーボードのエンターキーの打鍵、またはポインタが重ねられた状態で左ボタンの押圧操作が行われて再生を指示するイベントが入力された場合、選択画像から映像コンテンツの再生が行われる。映像コンテンツの再生は、所定時間前の時点、たとえば、2秒前の時点から行われる。
区間バーは、トーク区間バーと、音楽区間バーと、CM区間バーとを含んでいる。CM区間バーにおいては、各CM区間(各部分CM区間)の位置にバー領域(図6の黒色の帯状領域)が表示される。音楽区間バーにおいては、各音楽区間(各部分音楽区間)の位置にバー領域(図6のクロスハッチングされた帯状領域)が表示される。トーク区間バーにおいては、各トーク区間(各部分トーク区間)の位置にバー領域(図6のハッチングされた帯状領域)が表示される。
図8は、顔サムネイル表示エリアの構成例が示されている。
顔サムネイル表示エリアは、複数の行と複数の列とを含むマトリクス状に配置された複数個の顔画像表示エリアを含んでいる。図7においては、顔サムネイル表示エリアは6行×16列から構成されている。顔サムネイル表示エリアに含まれる顔画像表示エリアの数は、96個である。
列1〜列16のそれぞれには、例えば、映像コンテンツデータの総時間長を列数(=16)で等間隔で分割することによって得られる、互いに同一の時間長Tを有する複数の時間帯がそれぞれ割り当てられる。
例えば、映像コンテンツデータの総時間長が2時間であるならば、その2時間が16個の時間帯に等間隔で分割される。この場合、各時間帯の時間長Tは、7.5分である。例えば、列1には、先頭0:00:00から0:07:30までの時間帯が割り当てられ、列2には、0:07:30から0:15:00までの時間帯が割り当てられ、列3には、0:15:00から0:22:30までの時間帯が割り当てられる。映像コンテンツデータの総時間長に応じて、各時間帯の時間長Tは変化する。
もちろん、複数の列それぞれに割り当てられる時間帯の長さは、必ずしも同一である必要はない。
顔画像一覧表示処理部301は、ビデオプロセッサ113によって抽出された顔画像それぞれに対応するタイムスタンプ情報に基づき、各列内の6個の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれをたとえば上述の頻度順に並べて表示する。この場合、顔画像一覧表示処理部301は、表示処理対象の列に割り当てられた時間帯に属する顔画像の内から行数分(6個)の顔画像を選択し、選択した行数分の顔画像それぞれを並べて表示する。
このように、顔サムネイル表示エリアにおいては、左端位置(1,1)を基点とし、右端位置(6,16)を映像コンテンツデータの終端とする時間軸が用いられている。
顔サムネイル表示エリア内の各顔画像は、選択されていない“標準”状態、選択されている“フォーカス”状態の2つの状態のいずれかに設定される。“フォーカス”状態の顔画像のサイズは、“標準”状態の時のサイズよりも大きく設定される。図7においては、座標(1,12)の顔画像が“フォーカス”状態である場合を示している。
じゃばらサムネイル表示エリアに表示されるサムネイル画像の枚数は、ユーザ設定に従って、例えば240枚、144枚、96枚、48枚のいずれかに設定される。デフォルトは例えば240枚である。
次に、図9を参照して、顔サムネイル表示エリアとじゃばらサムネイル表示エリアとの関係について説明する。
同一列に属する顔画像表示エリア群の集合、つまり顔サムネイル表示エリア内の個々の列を“大区間”と称する。また、“大区間”をさらに分割したものを“小区間”と称する。1つの大区間に含まれる小区間の数は、じゃばらサムネイル表示エリアに表示されるサムネイル画像の数を顔サムネイル表示エリアの列数で割った商で与えられる。
じゃばらサムネイル表示エリア上のあるサムネイル画像が選択された時、顔画像一覧表示処理部301は、選択されたサムネイル画像のタイムスタンプ情報に基づき、顔サムネイル表示エリア内の複数の列(複数の大区間)の内で、選択されたサムネイル画像が属する時間帯が割り当てられた列(大区間)を選択する。選択される大区間は、選択されたサムネイル画像を小区間として含む大区間である。そして、顔画像一覧表示処理部301は、選択した大区間を強調表示する。
次に、図10のフローチャートを参照して、顔画像一覧表示処理部301によって実行される表示処理の手順を説明する。
まず、顔画像一覧表示処理部301は、データベース111Aに格納されている顔画像それぞれを、それら顔画像に対応するタイムスタンプ情報に基づいて、それら顔画像の登場時間順にソートする(ステップS101)。次いで、顔画像一覧表示処理部301は、ユーザによって指定された表示すべき顔画像サイズに応じて行及び列の数を決定すると共に、例えばインデキシング対象の映像コンテンツデータの総時間長を列数で均等に分割することによって、各列(大区間)に割り当てる時間帯を算出する。そして、顔画像一覧表示処理部301は、表示処理対象の列に割り当てられた時間帯内に属する顔画像の内から、行数分の顔画像を選択する(ステップS102)。表示処理対象の列に割り当てられた時間帯内に属する顔画像の数が行数よりも多い場合には、顔画像一覧表示処理部301は、例えば、出現頻度の高い顔画像を優先的に選択する処理を実行することもできる。
この場合、顔画像一覧表示処理部301は、表示処理対象の列に割り当てられた時間帯に属する顔画像の内から、当該時間帯において登場する頻度の高い顔画像を優先的に選択する。例えば、ビデオプロセッサ113は、抽出した顔画像それぞれの特徴データの相関に基づいて、同一人物の顔画像それぞれを同一カテゴリーに分類するクラスタリング処理を実行することができる。この場合、図14に示すように、顔画像それぞれは、人物毎(すなわちカテゴリー毎)に分類されてデータベース111Aに格納される。図11においては、カテゴリー1は、ある人物Aの顔画像の集合を示しており、カテゴリー2は、ある人物Bの顔画像の集合を示しており、またカテゴリー3は、ある人物Bの顔画像の集合を示している。顔画像一覧表示処理部301は、登場する頻度の高い人物の顔画像を優先的に選択する。なお、ある同一人物の顔画像のみが比較的長い時間出現され続けている時間帯においては、当該時間帯に対応する列上に同一人物の異なる複数の顔画像を表示してもよい。
また、表示処理対象の列に割り当てられた時間帯内に属する顔画像の数が行数よりも多い場合、顔画像一覧表示処理部301は、データベース11Aに格納された顔画像それぞれのサイズ情報に基づいて、表示処理対象の列に割り当てられた時間帯に属する顔画像の内から、サイズの大きい顔画像を優先的に選択する処理を実行することもできる。
クローズアップされた顔を映すフレームから抽出される顔画像のサイズは、比較的大きなものとなる。したがって、抽出された顔画像のサイズが大きいほど、重要度の高い人物である可能性が高い。よって、サイズの大きい顔画像を優先的に選択することにより、重要度の高い人物の顔画像を優先的に表示することが可能となる。
次いで、顔画像一覧表示処理部301は、表示処理対象の列内の複数の顔画像表示エリアに、選択した顔画像それぞれを例えば出現頻度順に並べて表示する(ステップS103)。出現頻度の高い顔画像ほど、上方の顔画像表示エリアに表示される。
ステップS102,S103の処理は、全ての列に対する処理が完了するまで、表示処理対象の列の番号を更新しながら繰り返し実行される(ステップS104,S105)。この結果、顔画像表示エリアには、複数の顔画像が表示される。
なお、表示処理対象の列に割り当てられた時間帯内に属する顔画像の数が行数よりも少ない場合には、対応する時間帯内に属するサムネイル画像を表示処理対象の列に表示することも出来る。
全ての列に対する処理が完了すると(ステップS104のNO)、顔画像一覧表示処理部301は、データベース11Aに格納されているサムネイル画像それぞれを、それらサムネイル画像それぞれのタイムスタンプ情報に基づいて、じゃばらサムネイル表示エリア上にそれらサムネイル画像が出現する時間順に一列に並べて表示する(ステップS106)。
次いで、顔画像一覧表示処理部301は、データベース111Aから歓声レベル情報および盛り上がりレベル情報を読み出し、それら歓声レベル情報および盛り上がりレベル情報に従って、レベル表示エリア上に、映像コンテンツデータの開始位置から終端位置までのシーケンス内における歓声レベルの変化を示すグラフと、シーケンス内における盛り上がりレベルの変化をそれぞれ示すグラフとを表示する(ステップS107)。
次に、顔画像一覧表示処理部301は、データベース111AからCM区間属性情報、音楽区間属性情報、およびトーク区間属性情報を読み出し、それらCM区間属性情報、音楽区間属性情報、およびトーク区間属性情報に基づいて、CM区間バー、音楽区間バー、トーク区間バーをそれぞれ表示する(ステップS108)。CM区間バーには、CM区間の位置を示すバー領域が表示される。同様に、音楽区間バーには音楽区間の位置を示すバー領域が表示され、トーク区間バーにはトーク区間の位置を示すトークバー領域が表示される。
次に、図12のフローチャートを参照して、再生処理部403によって実行される再生処理の手順を説明する。
ユーザ操作に応じて映像コンテンツデータの再生を指示するイベントが入力された時(ステップS301のYES)、再生処理部403は、位置バーの有る時刻を検出する(ステップS302)。そして、再生処理部403は、検出された時点よりも所定時間前の時点、たとえば、2秒前の時点から、映像コンテンツデータの再生を開始する(ステップS206)。
以上のように、本実施形態においては、映像コンテンツデータ全体を対象に顔画像の一覧を表示する第1の表示モードと、映像コンテンツデータ全体の中の特定の属性区間に着目して顔画像の一覧を表示する第2の表示モードとを選択的に使用することができる。よって、映像コンテンツデータを再生することなく、映像コンテンツデータ全体の中のどの辺りの時間帯にどの人物が登場するのかをユーザに提示できる。さらに、映像コンテンツデータ全体ではなく、映像コンテンツデータ内の特定の属性区間に着目して登場人物の一覧をユーザに提示することもできる。
よって、ユーザは、例えば、映像コンテンツデータ内のCM区間に着目して映像コンテンツデータを俯瞰でき、また他の属性区間(音楽、トーク、歓声、盛り上がり、本編、等)に着目して映像コンテンツデータを俯瞰することもできる。
なお、本実施形態では、インデキシング処理部として機能するビデオプロセッサ113によってインデキシング情報(顔画像インデキシング情報、区間属性情報、等)を生成したが、例えば、放送番組データ内に予め当該放送番組データに対応するインデキシング情報が含まれている場合には、インデキシング処理を行う必要はない。よって、本実施形態の顔画像一覧表示機能は、データベース111Aと顔画像一覧表示処理部301のみによっても実現することが出来る。
なお、図13に示すように、レベル表示エリアに表示されるグラフを棒グラフにしても良い。棒グラフの場合、有る時間から所定の時間内のレベルを代表して表示する。この場合、所定の時間内の最大値であっても良いし、平均値であっても良い。歓声のシーン、拍手のシーンを見分けるために、最大値で示すことが好ましい。
また、図13では、横軸の時間軸が等間隔であり、棒グラフに表示される棒の幅は一定であるが、じゃばらサムネイル表示エリアが表示するサムネイル画像の幅に応じて時間間隔と同じようになるようにしても良い。なお、棒の幅は小区間の幅と同じするようにすることが好ましい。
なお、図14に示すように、CM区間属性情報を参照することによって、CM区間内に表示されている画像から抽出された顔画像の隅にCMから抽出されたことを示すマークを表示しても良い。マークを付加することで、CM区間内に表示されている画像から抽出された顔画像であることが即座に分かる。
また、本実施形態の顔画像一覧表示処理の手順は全てソフトウェアによって実現することができるので、このソフトウェアをコンピュータ読み取り可能な記憶媒体を通じて通常のコンピュータに導入することにより、本実施形態と同様の効果を容易に実現することができる。
また、本実施形態の電子機器はコンピュータ10によって実現するのみならず、例えば、HDDレコーダ、DVDレコーダ、テレビジョン装置といった様々なコンシューマ電子機器によって実現することもできる。この場合、TVアプリケーションプログラム202の機能は、DSP、マイクロコンピュータのようなハードウェアによって実現することができる。
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
本発明の一実施形態に係る電子機器の概観の例を示す斜視図。 同実施形態の電子機器のシステム構成の例を示すブロック図。 同実施形態の電子機器の顔画像一覧表示機能を説明するためのブロック図。 同実施形態の電子機器で用いられる区間属性情報(属性検出結果情報)の例を示す図。 同実施形態の電子機器で用いられるプログラムの機能構成を示すブロック図。 同実施形態の電子機器によって表示装置に表示されるインデキシングビュー画面の例を示す図。 同実施形態の電子機器によって表示装置に表示されるインデキシングビュー画面の例を示す図。 図6のインデキシングビュー画面内に含まれる顔サムネイル表示エリアの構成例を示す図。 図6のインデキシングビュー画面内に含まれる、顔サムネイル表示エリアとじゃばらサムネイル表示エリアとの関係を説明するための図。 同実施形態の電子機器によって実行される顔画像一覧表示処理の手順の例を示すフローチャート。 同実施形態の電子機器によって顔画像それぞれがカテゴリ別に分類された様子を示す図。 同実施形態の電子機器によって実行される再生処理の手順の例を示すフローチャート。 同実施形態の電子機器によって表示装置に表示されるインデキシングビュー画面の変形例を示す図。 同実施形態の電子機器によって表示装置に表示されるインデキシングビュー画面の変形例を示す図。
符号の説明
10…電子機器(コンピュータ)、111A…データベース、113…ビデオプロセッサ、117…TVチューナ、301…顔画像一覧表示処理部、402…インデキシング制御部、403…再生処理部。

Claims (13)

  1. 映像コンテンツデータに含まれる歓声レベルの時間変化を示す歓声レベル情報と前記映像コンテンツデータに含まれる拍手レベルの時間変化を示す拍手レベル情報とが格納される記憶装置と、
    前記歓声レベル情報に応じて前記歓声レベルの時間変化を示す歓声グラフと、前記拍手レベル情報に応じて前記拍手レベルの時間変化を示す拍手グラフとの2種類のグラフを、2次元の表示エリア内のレベル表示エリアに表示する映像コンテンツ情報表示手段であって、前記歓声グラフおよび拍手グラフの横軸は時間軸であり、縦軸は前記歓声レベルまたは前記拍手レベルであり、前記2種類のグラフの時間軸は前記映像コンテンツデータの開始位置から終端位置を表す、前記映像コンテンツ情報表示手段とを具備することを特徴とする電子機器。
  2. 映像コンテンツデータに含まれるオーディオデータを解析し、前記映像コンテンツデータに含まれる歓声レベルと拍手レベルとを検出する手段を更に具備することを特徴とする請求項1記載の電子機器。
  3. 映像コンテンツ情報表示手段は、前記歓声レベルのゼロレベルと前記拍手レベルのゼロレベルとが同一になるように、前記歓声グラフおよび前記拍手グラフの一方を前記歓声グラフおよび前記拍手グラフの他方に重ねて表示することを特徴とする請求項1または2のいずれか1項に記載の電子機器。
  4. 前記レベル表示エリア内の前記時間軸上を移動するバーをユーザの入力操作に応じて移動させるための入力手段を更に具備し、
    前記2次元の表示エリアは、前記レベル表示エリアの下方側または上方側の一方または両方に表示されるサムネイル画像表示エリアを有し、
    前記映像コンテンツ情報表示手段は、前記バーが位置する前記時間軸上の位置に応じた前記映像コンテンツデータ内の代表画像を前記サムネイル画像表示エリアに表示することを特徴とする請求項1乃至請求項3のいずれか1項に記載の電子機器。
  5. 前記サムネイル画像表示エリアは、前記時間軸方向に沿って複数の画像を表示するエリアであり、前記代表画像はオリジナルのアスペクト比で表示し、他の画像は横方向を縮小して表示することを特徴とする請求項4記載の電子機器。
  6. 前記映像コンテンツデータの再生を指示するイベントが入力された場合、前記バーが位置する時間位置に対応する時点もしくはその所定時間前の時点から前記映像コンテンツデータの再生を開始する再生処理手段を更に具備することを特徴とする請求項4または請求項5のいずれか1項に記載の電子機器。
  7. 前記映像コンテンツデータに含まれるオーディオデータを分析し、前記映像コンテンツデータ内に含まれる、コマーシャル区間、音楽が流れている音楽区間、および人物によるトークが行われているトーク区間を含む複数の属性区間の内の少なくとも1つの所定属性区間の開始時点および終了時点を示す区間属性情報を生成する区間属性情報出力手段を更に具備し、
    前記映像コンテンツ情報表示手段は、前記区間属性情報に基づいて、前記映像コンテンツデータの開始位置から終端位置までのシーケンス内における前記所定属性区間の位置を示すバー領域を含む区間バーを前記2次元の表示エリアに表示することを特徴とする請求項1ないし請求項6のいずれか1項に記載の電子機器。
  8. 映像コンテンツデータに含まれるオーディオデータを解析し、前記映像コンテンツデータに含まれる歓声レベルの時間変化を示す歓声レベル情報、および前記映像コンテンツデータに含まれる拍手レベルの時間変化を示す拍手レベル情報を生成し、
    前記歓声レベル情報に応じて前記歓声レベルの時間変化を示す歓声グラフと、前記拍手レベル情報に応じて前記拍手レベルの時間変化を示す拍手グラフとの2種類のグラフを、2次元の表示エリア内のレベル表示エリアに表示するシーン種類表示方法であって、
    前記歓声グラフおよび拍手グラフの横軸は時間軸であり、縦軸は前記歓声レベルまたは前記拍手レベルであり、二つのグラフの時間軸は前記映像コンテンツデータの開始位置から終端位置を表すことを特徴とするシーン種類表示方法。
  9. レベル表示エリアには、前記歓声レベルのゼロレベルと前記拍手レベルのゼロレベルとが同一になるように、前記歓声グラフおよび前記拍手グラフの一方を前記歓声グラフおよび前記拍手グラフの他方に重ねて表示されていることを特徴とする請求項8記載のシーン種類表示方法。
  10. 前記レベル表示エリア内には、ユーザの入力操作に応じて前記時間軸上を移動するバーが表示され、
    前記バーが位置する前記時間軸上の位置に応じた前記映像コンテンツデータ内の代表画像を前記2次元の表示エリア内の前記サムネイル画像表示エリアに表示することを特徴とする請求項8記載のシーン種類表示方法。
  11. 前記サムネイル画像表示エリアを、前記レベル表示エリアの下方側または上方側の一方または両方に表示し、
    前記サムネイル画像表示エリアは、前記時間軸方向に沿って前記映像コンテンツデータに含まれる複数の画像を表示するエリアであり、前記代表画像はオリジナルのアスペクト比で表示し、他の画像は横方向を縮小して表示することを特徴とする請求項10記載のシーン種類表示方法。
  12. 前記バーが表示されている状態で、前記映像コンテンツデータの再生を指示するイベントが入力された場合、前記バーが位置する時間位置に対応する時点もしくはその所定時間前の時点から前記映像コンテンツデータの再生を開始することを特徴とする請求項10または請求項11のいずれか1項に記載のシーン種類表示方法。
  13. 前記映像コンテンツデータに含まれるオーディオデータを分析し、前記映像コンテンツデータ内に含まれる、コマーシャル区間、音楽が流れている音楽区間、および人物によるトークが行われているトーク区間を含む複数の属性区間の内の少なくとも1つの所定属性区間の開始時点および終了時点を示す区間属性情報を生成し、
    前記区間属性情報に基づいて、前記映像コンテンツデータの開始位置から終端位置までのシーケンス内における前記所定属性区間の位置を示すバー領域を含む区間バーを前記2次元の表示エリアに表示することを特徴とする請求項8ないし請求項12のいずれか1項に記載のシーン種類表示方法。
JP2007256238A 2007-09-28 2007-09-28 電子機器およびシーン種類表示方法 Active JP5057918B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007256238A JP5057918B2 (ja) 2007-09-28 2007-09-28 電子機器およびシーン種類表示方法
US12/233,438 US20090089822A1 (en) 2007-09-28 2008-09-18 Electronic apparatus and scene-type display method
US13/343,653 US8559683B2 (en) 2007-09-28 2012-01-04 Electronic apparatus and scene-type display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007256238A JP5057918B2 (ja) 2007-09-28 2007-09-28 電子機器およびシーン種類表示方法

Publications (2)

Publication Number Publication Date
JP2009089032A true JP2009089032A (ja) 2009-04-23
JP5057918B2 JP5057918B2 (ja) 2012-10-24

Family

ID=40509924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007256238A Active JP5057918B2 (ja) 2007-09-28 2007-09-28 電子機器およびシーン種類表示方法

Country Status (2)

Country Link
US (2) US20090089822A1 (ja)
JP (1) JP5057918B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014507699A (ja) * 2010-12-17 2014-03-27 オーディブル・インコーポレイテッド 参照対象とストーリーとの間の関連性の図式的表示
US9436741B2 (en) 2010-12-17 2016-09-06 Audible, Inc. Graphically representing associations between referents and stories

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
WO2005091218A2 (en) 2004-03-16 2005-09-29 Icontrol Networks, Inc Premises management system
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US12003387B2 (en) 2012-06-27 2024-06-04 Comcast Cable Communications, Llc Control system user interface
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
JP5057918B2 (ja) 2007-09-28 2012-10-24 株式会社東芝 電子機器およびシーン種類表示方法
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20170185277A1 (en) * 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US11792036B2 (en) 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
US10530839B2 (en) 2008-08-11 2020-01-07 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
JP2011145386A (ja) * 2010-01-13 2011-07-28 Fuji Xerox Co Ltd 表示制御装置、表示装置及びプログラム
JP2011199360A (ja) * 2010-03-17 2011-10-06 Toshiba Corp コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ再生プログラム、コンテンツ配信方法およびコンテンツ再生方法
US9813767B2 (en) * 2010-07-08 2017-11-07 Disney Enterprises, Inc. System and method for multiple rights based video
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
JP2012128662A (ja) * 2010-12-15 2012-07-05 Samsung Electronics Co Ltd 表示制御装置、プログラムおよび表示制御方法
JP2014183559A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 報知制御装置、報知制御方法及びプログラム
US9619473B1 (en) 2013-11-18 2017-04-11 EMC IP Holding Company LLC Backup configuration using snapshot map
US9690791B1 (en) * 2013-11-18 2017-06-27 EMC IP Holding Company LLC Snapshot history map
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
KR102209070B1 (ko) * 2014-06-09 2021-01-28 삼성전자주식회사 동영상의 썸네일 영상을 제공하는 장치 및 방법
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US10034038B2 (en) * 2014-09-10 2018-07-24 Cisco Technology, Inc. Video channel selection
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
KR102446872B1 (ko) 2015-04-24 2022-09-26 삼성디스플레이 주식회사 표시 패널
WO2017030212A1 (ko) * 2015-08-18 2017-02-23 엘지전자(주) 이동 단말기 및 그 제어 방법
KR102440848B1 (ko) * 2016-05-20 2022-09-06 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10567461B2 (en) * 2016-08-04 2020-02-18 Twitter, Inc. Low-latency HTTP live streaming
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
WO2019205170A1 (zh) * 2018-04-28 2019-10-31 华为技术有限公司 一种拍照方法和终端设备
JP2022148382A (ja) * 2021-03-24 2022-10-06 キヤノン株式会社 表示装置、表示制御システム、情報処理装置および表示装置の制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11317058A (ja) * 1998-04-30 1999-11-16 Sony Corp 再生装置及び記録再生装置
JP2003223176A (ja) * 2002-01-28 2003-08-08 Telecommunication Advancement Organization Of Japan スピーチ近似データによる字幕用データ作成・編集支援システム
JP2003339010A (ja) * 2002-05-20 2003-11-28 Sony Corp 信号記録再生装置及び方法、信号再生装置及び方法、並びにプログラム及び記録媒体
JP2005317165A (ja) * 2004-04-30 2005-11-10 Sony Corp 信号処理装置及び方法
JP2007049332A (ja) * 2005-08-09 2007-02-22 Sony Corp 記録再生装置および記録再生方法、並びに、記録装置および記録方法
JP2007241496A (ja) * 2006-03-07 2007-09-20 Sony Corp 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4269465B2 (ja) 2000-01-18 2009-05-27 ソニー株式会社 画像表示システム、及び画像表示方法
JP4432246B2 (ja) * 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
JP2006054622A (ja) 2004-08-10 2006-02-23 Sony Corp 情報信号処理方法、情報信号処理装置及びプログラム記録媒体
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP4797761B2 (ja) 2006-04-12 2011-10-19 オムロン株式会社 動画表示装置
JP5057918B2 (ja) 2007-09-28 2012-10-24 株式会社東芝 電子機器およびシーン種類表示方法
JP4322945B2 (ja) * 2007-12-27 2009-09-02 株式会社東芝 電子機器、及び画像表示制御方法
JP4331240B2 (ja) * 2008-01-23 2009-09-16 株式会社東芝 電子機器および画像表示方法
JP4496264B2 (ja) * 2008-10-24 2010-07-07 株式会社東芝 電子機器及び映像表示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11317058A (ja) * 1998-04-30 1999-11-16 Sony Corp 再生装置及び記録再生装置
JP2003223176A (ja) * 2002-01-28 2003-08-08 Telecommunication Advancement Organization Of Japan スピーチ近似データによる字幕用データ作成・編集支援システム
JP2003339010A (ja) * 2002-05-20 2003-11-28 Sony Corp 信号記録再生装置及び方法、信号再生装置及び方法、並びにプログラム及び記録媒体
JP2005317165A (ja) * 2004-04-30 2005-11-10 Sony Corp 信号処理装置及び方法
JP2007049332A (ja) * 2005-08-09 2007-02-22 Sony Corp 記録再生装置および記録再生方法、並びに、記録装置および記録方法
JP2007241496A (ja) * 2006-03-07 2007-09-20 Sony Corp 画像処理装置、画像処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014507699A (ja) * 2010-12-17 2014-03-27 オーディブル・インコーポレイテッド 参照対象とストーリーとの間の関連性の図式的表示
US9436741B2 (en) 2010-12-17 2016-09-06 Audible, Inc. Graphically representing associations between referents and stories

Also Published As

Publication number Publication date
US8559683B2 (en) 2013-10-15
US20090089822A1 (en) 2009-04-02
JP5057918B2 (ja) 2012-10-24
US20120106923A1 (en) 2012-05-03

Similar Documents

Publication Publication Date Title
JP5057918B2 (ja) 電子機器およびシーン種類表示方法
JP4834640B2 (ja) 電子機器および画像表示制御方法
JP4909856B2 (ja) 電子機器および表示方法
JP4496264B2 (ja) 電子機器及び映像表示方法
JP4322945B2 (ja) 電子機器、及び画像表示制御方法
JP4331240B2 (ja) 電子機器および画像表示方法
JP4909854B2 (ja) 電子機器および表示処理方法
JP4834639B2 (ja) 電子機器および画像表示制御方法
US8396332B2 (en) Electronic apparatus and face image display method
JP4856105B2 (ja) 電子機器および表示処理方法
JP2009038680A (ja) 電子機器および顔画像表示方法
JP2009089065A (ja) 電子機器および顔画像表示装置
JP2009081699A (ja) 電子機器および顔画像抽出制御方法
JP5330551B2 (ja) 電子機器および表示処理方法
JP5039020B2 (ja) 電子機器および映像コンテンツ情報表示方法
JP4709929B2 (ja) 電子機器および表示制御方法
JP5232291B2 (ja) 電子機器および顔画像表示方法
JP4987653B2 (ja) 電子機器および画像表示方法
JP5566984B2 (ja) 電子機器および画像表示方法
JP5349651B2 (ja) 電子機器、顔画像抽出制御方法およびプログラム
JP2009089031A (ja) 電子機器および画像表示方法
JP5318171B2 (ja) 電子機器および画像表示制御方法
JP5038836B2 (ja) 情報処理装置
JP5377624B2 (ja) 電子機器および顔画像表示装置
JP5284426B2 (ja) 電子機器および画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120731

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5057918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350