JP2010152744A - 再生装置 - Google Patents

再生装置 Download PDF

Info

Publication number
JP2010152744A
JP2010152744A JP2008331429A JP2008331429A JP2010152744A JP 2010152744 A JP2010152744 A JP 2010152744A JP 2008331429 A JP2008331429 A JP 2008331429A JP 2008331429 A JP2008331429 A JP 2008331429A JP 2010152744 A JP2010152744 A JP 2010152744A
Authority
JP
Japan
Prior art keywords
person
information
image
database
name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008331429A
Other languages
English (en)
Inventor
Yoshitada Hida
義賢 飛田
Masabumi Tamura
正文 田村
Yuichi Togashi
雄一 富樫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008331429A priority Critical patent/JP2010152744A/ja
Publication of JP2010152744A publication Critical patent/JP2010152744A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コンテンツデータが含む映像情報を構成するフレーム画像内の人物の人名などをユーザが知らなくても当該人物の関連情報を表示することができる再生装置を提供する。
【解決手段】映像情報を構成するフレーム画像とともに表示された顔画像の選択に応じて、選択された顔画像の人物に関する関連情報を表示することにより、人物の顔画像と当該人物の関連情報とをリンクさせて表示することができるので、番組などに出演した出演者の人名などをユーザが知らなくても、当該出演者が将来出演する番組のEPG情報などの関連情報を表示することができる。
【選択図】 図1

Description

本発明は、再生装置に関する。
従来から、チューナを用いて受信した番組のコンテンツデータの再生する再生装置において、当該番組のコンテンツデータに出演している出演者の人名などのキーワードの入力を受け付けた場合に、入力を受け付けた人名を用いて出演者が出演する番組の番組情報など、当該出演者に関する関連情報を検索し、その検索結果を表示する機能が提案されている。
例えば、特許文献1には、コンテンツデータの映像データおよび音声データからキーワードを抽出し、再生されている映像データに対応する映像とともに抽出したキーワードを表示部に表示するとともに、当該キーワードの選択に応じて、選択されたキーワードに関連する関連情報を表示部に表示する関連情報検索装置が提案されている。
特開2007−148976号公報
ところで、コンテンツデータの映像データを再生する再生装置においては、映像データの再生中にユーザが気になる出演者を発見した場合に、当該出演者の人名を知らなくても当該出演者に関する関連情報をユーザに提供することができる機能に対する要望がある。
しかしながら、上記特許文献1に記載の関連情報検索装置では、関連情報を検索するためには、関連情報を表示させたい出演者の人名などのキーワードを選択しなければならないので、映像データを再生中にユーザが気になる人物の顔を見つけても、ユーザが当該人物の人名などのキーワードを知らない場合、当該人物の関連情報を提供することができなかった。つまり、上記特許文献1に記載の関連情報検索装置では、ユーザが予め知っている人物の関連情報しか表示することができない、という課題がある。
本発明は、上記に鑑みてなされたものであって、コンテンツデータが含む映像情報を構成するフレーム画像内の人物の人名などをユーザが知らなくても当該人物の関連情報を表示することができる再生装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、コンテンツデータを含む映像情報を構成するフレーム画像から人物の顔画像を検出する検出手段と、検出した前記顔画像から当該人物の顔の特徴情報を抽出する抽出手段と、抽出した前記特徴情報を用いて、前記顔画像を検出した人物に関する関連情報を検索する検索手段と、前記映像情報を構成する前記フレーム画像および前記関連情報を検索した人物の顔画像を表示する第1表示手段と、前記第1表示手段により表示した前記顔画像の選択に応じて、選択された前記顔画像の人物の前記関連情報を表示する第2表示手段と、を備えたことを特徴とする。
また、本発明は、コンテンツデータを含む映像情報を構成するフレーム画像、および前記フレーム画像が含む人物の顔画像を表示する第1表示手段と、前記第1表示手段により表示した前記顔画像の選択に応じて、選択された前記顔画像の人物に関する関連情報を表示する第2表示手段と、を備えたことを特徴とする。
本発明によれば、コンテンツデータが含む映像情報を構成するフレーム画像内の人物の人名などをユーザが知らなくても当該人物の関連情報を表示することができる、という効果を奏する。
以下に添付図面を参照して、この発明にかかる再生装置、および再生装置の再生方法の最良な実施の形態を詳細に説明する。なお、本実施の形態では、この発明にかかる再生装置を、番組のコンテンツデータを再生させることができるHDD(Hard Disk Drive)レコーダやHDD+DVD(Digital Versatile Disc)レコーダなどの再生装置に適用した例について説明するが、コンテンツデータを再生することができるものであれば、これに限定するものではない。例えば、チューナを用いて番組のコンテンツデータを受信し、当該コンテンツデータをモニタに再生することができるテレビジョン受信装置などにも適用することができる。
(第1実施の形態)
図1は、第1実施の形態にかかる再生装置の構成を示すブロック図である。本実施の形態にかかる再生装置100は、地上デジタルチューナ101、OFDM(Orthogonal Frequency Division Multiplexing)復調部102、BS(Broadcasting Satellite)/110度CS(Communication Satellite)デジタルチューナ103、QPSK(Quadrature Phase Shift Keying)復調部104、DEMUX(De-Multiplexer)映像/音声/データ分離部105、データ処理部106、映像デコーダ107、音声デコーダ108、顔検出処理部109、顔認識処理部110、人物表示履歴データベース111、EPG(Electronic Program Guide)処理部112、画像変換部113、画像合成部114、バックエンド部115、ネットワークインタフェース116、人物データベース117、およびEPGデータベース118を備えて構成される。
また、本実施の形態にかかる再生装置100は、インターネット400などのネットワークを介して、人名および当該人名に対応する人物の顔の特徴情報を配信する人物サーバ200、および再生装置100が受信する番組のEPG情報(番組情報)を配信するEPGサーバ300と接続されている。
ここで、特徴情報は、人物の顔画像の特徴を示す情報であり、例えば、顔全体のサイズ、向き等、左右の目、まゆ、左右の耳、鼻、口、髪など、顔の各部分の顔全体に対する座標位置、サイズ(縦横)、色などである。また、EPG情報は、番組名、放送日時、各番組の内容説明、番組が映画やドラマの場合には出演者の人名を記録したリストなどの情報を含むものである。
なお、本実施の形態では、再生装置100は、インターネット400を介して接続されたEPGサーバ300からEPG情報を受信する例について説明するが、これに限定するものではない。例えば、再生装置100が受信する放送信号に含まれる番組のコンテンツデータを含む映像情報、音声情報、およびデータ情報に多重されているEPG情報を抽出しても良い。
ネットワークインタフェース116は、インターネット400を介して人物サーバ200およびEPGサーバ300の図示しないネットワークインタフェースと接続されており、人物サーバ200から配信された人名および当該人名に対応する人物の顔の特徴情報、およびEPGサーバ300から配信されたEPG情報を受信するものである。
図2は、人物データベースが記憶する情報の一例を示す図である。人物データベース117は、図2に示すように、ネットワークインタフェース116により人物サーバ200から受信した人名と、当該人名に対応する人物の顔の特徴情報と、を対応付けて記憶するものである。さらに、人物データベース117は、人物サーバ200から受信した人名および当該人名に対応する特徴情報を、当該人物データベース117から削除する有効期限を、当該人名と対応付けて記憶しても良い。ここで、有効期限は、例えば、人名および当該人名に対応する特徴情報の人物データベース117への記憶日から、予め設定された期間後の日時である。このように、人物データベース117に記憶される人名に有効期限を持たせることにより、経年により無効化した人名を再生装置100内から自動削除することができる。
EPGデータベース118は、ネットワークインタフェース116によりEPGサーバ300から受信したEPG情報を記憶するものである。
地上デジタルチューナ101は、アンテナで受信された地上デジタル放送の放送信号を受信し、受信した放送信号から特定の番組のコンテンツデータを抽出する機器である。OFDM復調部102は、地上デジタルチューナ101で抽出されたデジタルのコンテンツデータの復調処理を行い、DEMUX映像/音声/データ分離部105に出力するものである。
BS/110度CSデジタルチューナ103は、BSデジタル放送および110度CSデジタル放送の放送信号を受信し、受信した放送信号から特定の番組のコンテンツデータを抽出する機器である。QPSK復調部104は、BS/110度CSデジタルチューナ103により抽出されたデジタルのコンテンツデータの復調処理を行い、DEMUX映像/音声/データ分離部105に出力するものである。
DEMUX映像/音声/データ分離部105は、QFDM復調部102またはQPSK復調部104から入力されたコンテンツデータを、映像情報、音声情報、およびデータ情報に分離し、データ処理部106、映像デコーダ107、および音声デコーダ108に出力するものである。
データ処理部106は、DEMUX映像/音声/データ分離部105から入力されたデータ情報を復号し、画像変換部113に出力するものである。映像デコーダ107は、DEMUX映像/音声/データ分離部105から入力された映像情報を復号し、顔検出処理部109に出力するものである。音声デコーダ108は、DEMUX映像/音声/データ分離部105から入力された音声情報を復号し、バックエンド部に115に出力するものである。
顔検出処理部109は、映像デコーダ107から入力された映像情報を構成するフレーム画像から、番組に出演している出演者などの人物の顔画像を検出するものである。例えば、顔検出処理部109は、映像デコーダ107から入力された映像情報を構成するフレーム画像中の肌色の領域とそれを囲むエッジから顔の領域を推定し、推定した領域内の画像を顔画像として検出する。
顔認識処理部110(抽出手段)は、顔検出処理部109により検出された顔画像の画像分析を行い、当該顔画像から人物の顔の特徴情報を抽出するものである。さらに、顔認識処理部110(検索手段)は、抽出した特徴情報を用いて、顔検出処理部109により顔画像を検出した人物に関する関連情報を検索するものである。本実施の形態では、顔認識処理部110は、人物データベース117から、抽出した特徴情報と対応付けられた人名を検索し、検索した人名をEPG処理部112に送付するものである。
なお、本実施の形態では、顔認識処理部110は、再生装置100が人物データベース117を備えているため、当該人物データベース117から、抽出した特徴情報と対応付けられた人名を検索しているが、これに限定するものではない。例えば、顔認識処理部110は、ネットワーク400を介して接続された人物サーバ400が保持する人物データベースから、抽出した特徴情報と対応付けられた人名を検索しても良い。
また、顔認識処理部110は、現在時刻から予め設定された時間内に検索した人名の履歴情報を、後述する人物表示履歴データベース111に記憶させ、検索した人名が当該人物表示履歴データベース111に記憶されていない場合に、当該検索した人名をEPG処理部112に送付するものとする。ここで、履歴情報とは、人名を検索した履歴を示す情報であって、例えば、検索した人名および当該人名を検索した検索時刻を含む情報である。
本実施の形態では、顔認識処理部110は、人名を検索する度に、検索した人名および当該人名を検索した検索時刻などを含む履歴情報を人物表示履歴データベース111に記憶させる。そして、顔認識処理部110は、人物表示履歴データベース111が記憶する履歴情報が含む検索時刻を参照して、現在時刻から予め設定された時間内の検索時刻を含まない履歴情報を、人物表示履歴データベース111から削除するものとする。
図3は、人物表示履歴データベースに記憶される情報の一例を示す図である。人物表示履歴データベース111は、図3に示すように、現在時刻から予め設定された時間内に顔認識処理部110が検索した人名および検索時刻などを含む履歴情報を記憶するものである。
また、顔認識処理部110(記憶制御手段)は、人物サーバ200から配信された人名および当該人名に対応する人物の顔の特徴情報が人物データベース117に記憶される毎に、有効期限を、当該人物データベース117に記憶された人名に対応付けて人物データベース117に記憶させる。そして、顔認識処理部110は、人物データベース117に記憶されている人名および当該人名に対応付けられた特徴情報のうち、有効期限を過ぎた人名および当該人名に対応付けられた特徴情報を、人物データベース117から削除するものとする。
EPG処理部112(検索手段)は、顔認識処理部110から送付された人名を受け取り、受け取った人名を用いて、顔検出処理部109により顔画像を検出した人物に関する関連情報を検索するものである。本実施の形態では、EPG処理部112は、EPGデータベース118から、顔認識処理部110から受け取った人名を記録したリストを含むEPG情報を、当該人名に対応する人物に関する関連情報として検索し、検索したEPG情報および顔認識処理部110から送付された人名を関連情報として画像変換部113に出力するものである。
なお、本実施の形態では、EPG処理部112は、EPGデータベース118からEPG情報を検索しているが、顔認識処理部110から受け取った人名に対応する人物に関する関連情報を検索するものであれば、これに限定するものではない。例えば、EPG処理部112は、顔認識処理部110から受け取った人名に対応する人物に関する関連情報(例えば、顔画像、性別、生年月日、出身地、最新情報ニュース等の人物紹介情報など)を、インターネット400上のサーバまたは再生装置100が具備する辞書(図示しない)等のデータベースから検索しても良い。
画像変換部113は、データ処理部106から入力されたデータ情報を、画像情報に変換し、当該画像情報を画像合成部114に出力するものである。また、画像変換部113は、EPG処理部112から入力された関連情報(EPG情報、人物紹介情報等)を画像情報に変換し、当該画像情報を画像合成部114に出力するものである。
図4は、顔画像を合成した画像の表示例を示す図である。画像合成部114(第1表示手段)は、図4に示すように、映像デコーダ107から入力された映像情報を構成するフレーム画像401に、顔検出処理部109により検出した顔画像402を合成した合成画像403を、バックエンド部115に出力して当該画像403を図示しないモニタに表示する。本実施の形態では、フレーム画像401に顔画像402を合成した合成画像403を表示しているが、フレーム画像401および顔画像402を表示するものであれば、これに限定するものではない。例えば、フレーム画像401を図示しないモニタの真ん中に表示し、当該フレーム画像401に隣接して顔画像402をモニタの端に表示しても良い。
なお、画像合成部114は、合成画像403を表示中に、画像変換部113から新たな人物の関連情報(EPG情報、人物紹介情報等)の画像情報が入力された場合、表示中のフレーム画像401に、当該新たな人物の顔画像402を合成した合成画像403をバックエンド部115に出力するものとする。
図5は、関連情報の画像情報に対応する画像の表示例を示す図である。画像合成部114(第2表示手段)は、合成画像403の図示しないモニタへの表示中、図示しないリモコンの操作入力による顔画像402の選択に応じて、画像変換部113から入力された関連情報の画像情報に対応する画像501,502をバックエンド部115に出力して、当該画像501,502を図示しないモニタに表示する。ここで、画像501は、関連情報である人物紹介情報の画像情報に対応する画像であり、画像502は、関連情報であるEPG情報の画像情報に対応する画像である。
なお、本実施の形態では、画像合成部114は、映像情報を構成するフレーム画像に、顔検出処理部109により検出した顔画像を合成しているが、顔認識処理部110により検索した人名の人物の顔画像であれば、これに限定するものではない。例えば、画像合成部114は、EPG処理部112が顔認識処理部110から受け取った人名の人物の顔画像を含む人物紹介情報を検索した場合、人物紹介情報に含まれる顔画像を、映像情報を構成するフレーム画像に合成しても良い。
また、本実施の形態では、画像変換部113が検索した関連情報を画像情報に変換し、画像合成部114が当該画像情報に対応する画像を関連情報として表示しているが、関連情報を表示するものであれば、これに限定するものではない。例えば、画像合成部114は、画像情報に変換されていない文字データである関連情報を受け取り、受け取った関連情報を表示しても良い。
バックエンド部115は、画像合成部114から出力された画像を図示しないモニタに出力するものである。
次に、図6を用いて、顔認識処理部110による関連情報である人名の検索処理の手順について説明する。図6は、人名の検索処理の手順を示すフローチャートである。顔認識処理部110は、本実施の形態にかかる再生装置100の電源がONされて地上デジタルチューナ101およびBS/110度CSデジタルチューナ103によるコンテンツデータの受信が開始されると、まず、顔検出処理部109により検出された顔画像を受信する(ステップS601)。
次に、顔認識処理部110は、顔検出処理部109から受信した顔画像の画像分析を行い、当該顔画像から人物の顔の特徴情報を抽出し(ステップS602)、さらに抽出した特徴情報を用いて、当該特徴情報と同一の特徴情報が人物データベース117に記憶されているか否かを判断する(ステップS603)。ここで、人物データベース117に抽出した特徴情報と同一の特徴情報が記憶されていなかった場合(ステップS603:No)、顔認識処理部110は、関連情報の検索処理を中止し、新たな顔画像の受信を待つ。
一方、人物データベース117に抽出した特徴情報と同一の特徴情報が記憶されていた場合(ステップS603:Yes)、顔認識処理部110は、当該特徴情報と対応付けて記憶される人名を検索するとともに、検索した人名を、現在時刻から予め設定された時間内に検索したことを示す履歴情報が、人物表示履歴データベース111に記憶されているか否かを判断する(ステップS604)。ここで、検索した人名の履歴情報の人物表示履歴データベース111に記憶されていた場合(ステップS604:Yes)、顔認識処理部110は、関連情報の検索処理を中止し、新たな顔画像の受信を待つ。これにより、人物表示履歴データベース111に履歴情報が記憶されている人名がEPG処理部112に送付されなくなるので、予め設定された時間内に繰り返し同じ人物の顔画像が表示されることを防止することができる。
一方、検索した人名の履歴情報が人物表示履歴データベース111に記憶されていなかった場合(ステップS604:No)、顔認識処理部110は、当該検索した人名をEPG処理部112に送付する(ステップS605)。
次に、図7を用いて、EPG処理部112による関連情報であるEPG情報の検索処理の手順について説明する。図7は、EPG情報の検索処理の手順を示すフローチャートである。
EPG処理部112は、顔認識処理部110から送付された人名を受信すると(ステップS701)、EPGデータベース118に記憶されたEPG情報の中から、受信した人名が出演者として記録されたリストを含むEPG情報を検索する(ステップS702)。ここで、受信した人名が記録されたリストを含むEPG情報がなかった場合(ステップS702:No)、EPG処理部112は、新たな人名の受信を待つ。
一方、受信した人名が記録されたリストを含むEPG情報があった場合(ステップS702:Yes)、EPG処理部112は、当該EPG情報および当該受信した人名を関連情報として画像変換部113に出力する(ステップS703)。
このように、本実施の形態にかかる再生装置100によれば、映像情報を構成するフレーム画像とともに表示された顔画像の選択に応じて、選択された顔画像の人物に関する関連情報を表示することにより、人物の顔画像と当該人物の関連情報とをリンクさせて表示することができるので、番組などに出演した出演者の人名などをユーザが知らなくても、当該出演者が将来出演する番組のEPG情報などの関連情報を表示することができる。
(第2実施の形態)
第2実施の形態は、録画した番組のEPG情報である録画済番組情報を関連情報として検索し、検索した録画済番組情報を人物の顔画像とリンクさせて表示する例である。なお、第1実施の形態と同様の構成については説明を省略し、第1実施の形態と異なる構成のみを説明する。
図8は、第2実施の形態にかかる再生装置の構成を示すブロック図である。本実施の形態にかかる再生装置800は、EPGデータベース118およびEPG処理部112を備えない点、顔認識処理部802、人物表示履歴データベース803、画像変換部805、および画像合成部806の処理が異なる点、および録画コンテンツ格納装置801およびコンテンツ紹介処理部804が追加された点において、第1実施の形態にかかる再生装置100と異なる。
録画コンテンツ格納装置801は、地上デジタルチューナ101またはBS/110度CSデジタルチューナ103により抽出されたコンテンツデータのうち、図示しないリモコンの操作入力に応じて録画する番組のコンテンツデータと、当該番組に出演した出演者の人名を記録したリストを含むEPG情報(以下、録画済番組情報とする)と、を対応付けて格納する装置である。
顔認識処理部802は、検索した人名をコンテンツ紹介処理部804に送付するものとする。
図9は、人物表示履歴データベースに記憶される情報の一例を示す図である。人物表示履歴データベース803は、図9に示すように、現在時刻から予め設定された時間内に顔認識処理部802が検索した人名および検索時刻などを含む履歴情報を記憶するものである。
コンテンツ紹介処理部804(検索手段)は、顔認識処理部802から送付された人名を受け取り、録画コンテンツ格納装置801から、顔認識処理部802から受け取った人名を記録したリスト含む録画済番組情報を、当該人名の出演者に関する関連情報として検索し、検索した録画済番組情報を画像変換部113に出力するものである。
なお、本実施の形態では、コンテンツ紹介処理部804は、録画コンテンツ格納装置801からの録画済番組情報のみを検索を行っているが、第1実施の形態にかかるEPG処理部112と同様にして、顔認識処理部802から受け取った人名の出演者が出演する予定の番組のEPG情報や当該出演者の人物紹介情報などを、インターネット400上のサーバまたは再生装置100が具備する辞書(図示しない)等のデータベースから検索しても良い。
画像変換部805は、コンテンツ紹介処理部804から入力された関連情報(録画済番組情報、EPG情報、人物紹介情報等)を画像情報に変換し、当該画像情報を画像合成部114に出力するものである。
図10は、関連情報の画像情報に対応する画像の表示例を示す図である。画像合成部806(表示手段)は、合成画像403(図4に示す)を図示しないモニタへの表示中、図示しないリモコンの操作入力による顔画像402(図4に示す)の選択に応じて、画像変換部805から入力された、関連情報の画像情報に対応する画像501,502,1001をバックエンド部115に出力して、当該画像501,502,1001を図示しないモニタに表示する。ここで、画像501は、検索した人物紹介情報の画像情報に対応する画像であり、画像502は、検索したEPG情報の画像情報に対応する画像であり、画像1001は、検索した録画済番組情報の画像情報に対応する画像である。
次に、図11を用いて、顔認識処理部802による関連情報である人名の検索処理の手順について説明する。図11は、人名の検索処理の手順を示すフローチャートである。なお、ステップS1101〜ステップS1103に示す処理は、図6に示す人名の検索処理と同じであるため、ここでは説明を省略する。
人物データベース117に抽出した特徴情報と同一の特徴情報が記憶されていた場合(ステップS1103:Yes)、顔認識処理部802は、当該特徴情報と対応付けて記憶される人名を検索するとともに、検索した人名を、現在時刻から予め設定された時間内に検索したことを示す履歴情報が、人物表示履歴データベース803に記憶されているか否かを判断する(ステップS1104)。ここで、検索した人名の履歴情報の人物表示履歴データベース803に記憶されていた場合(ステップS1104:Yes)、顔認識処理部802は、関連情報の検索処理を中止し、新たな顔画像の受信を待つ。これにより、人物表示履歴データベース803に履歴情報が記憶されている人名がコンテンツ紹介処理部804に送付されなくなるので、予め設定された時間内に繰り返し同じ人物の顔画像が表示されることを防止することができる。
一方、検索した人名の履歴情報が人物表示履歴データベース803に記憶されていなかった場合(ステップS1104:No)、顔認識処理部802は、当該検索した人名をコンテンツ紹介処理部804に送付する(ステップS1105)。
次に、図12を用いて、コンテンツ紹介処理部804による関連情報である録画済番組情報の検索処理の手順について説明する。図12は、録画済番組情報の検索処理の手順を示すフローチャートである。
コンテンツ紹介処理部804は、顔認識処理部802から送付された人名を受信すると(ステップS1201)、録画コンテンツ格納装置801に格納された録画済番組情報の中から、受信した人名が出演者として記録されたリストを含む録画済番組情報を検索する(ステップS1202)。ここで、受信した人名が記録されたリストを含む録画済番組情報がなかった場合(ステップS1202:No)、コンテンツ紹介処理部804は、新たな人名の受信を待つ。
一方、受信した人名が記録されたリストを含む録画済番組情報があった場合(ステップS1202:Yes)、コンテンツ紹介処理部804は、当該録画済番組情報および当該受信した人名を関連情報として画像変換部805に出力する(ステップS1203)。
このように、本実施の形態にかかる再生装置800によれば、映像情報を構成するフレーム画像とともに表示された顔画像の選択に応じて、選択された顔画像の人物に関する録画済番組報を表示することにより、人物の顔画像と当該人物の録画済番組情報とをリンクさせて表示することができるので、番組などに出演した出演者の人名などをユーザが知らなくても、当該出演者が過去に出演した番組の録画済番組情報などの関連情報を表示することができる。
(第3実施の形態)
第3実施の形態は、自装置で人物データベースを更新する例である。なお、第2実施の形態と同様の構成については説明を省略し、第2実施の形態と異なる構成のみを説明する。
図13は、第3実施の形態にかかる再生装置の構成を示すブロック図である。本実施の形態にかかる再生装置1300は、顔認識処理部1301の処理が異なる点において、第2実施の形態にかかる再生装置800と異なる。また、本実施の形態では、人物データベース117は、インターネットなどのネットワークを介して人物サーバと接続されていないものとする。
図14を用いて、顔認識処理部1301による人物データベース117の更新処理の手順について説明する。図14は、人物データベースの更新処理の手順を示すフローチャートである。なお、ステップS1401〜1404に示す処理は、図11に示すステップS1101〜ステップS1103およびステップS1105に示す処理と同様であるため、ここでは説明を省略する。
顔認識処理部1301(算出手段)は、人物データベース117から、抽出した特徴情報と対応付けられた人名が検索できなかった場合(ステップS1403:No)、録画コンテンツ格納装置801に格納されたコンテンツデータが含む映像情報のうち、顔検出処理部109から受信した顔画像を含むフレーム画像から構成される映像情報の個数を算出し、算出した映像情報の個数が予め設定された閾値を超えているか否かを判断する(ステップS1405)。ここで、算出した映像情報の個数が予め設定された閾値を超えていなかった場合(ステップS1405:No)、顔認識処理部1301は、人物データベース117の更新処理を行わず、新たな人名の受信を待つ。
一方、算出した映像情報の個数が予め設定された閾値を超えた場合(ステップS1405:Yes)、顔認識処理部1301(判定手段)は、録画コンテンツ格納装置801において、顔検出処理部109により検出した顔画像を含むフレーム画像から構成される映像情報と対応付けて格納された録画済番組情報が含むリストに最も多く記録された人名を、当該受信した顔画像の出演者の人名と仮定し(ステップS1406)、仮定した人名が人物データベース117に記憶されているか否かを判定する(ステップS1407)。ここで、仮定した人名が人物データベース117に記憶されていた場合(ステップS1407:Yes)、顔認識処理部1301は、人物データベース117の更新処理を行わず、新たな人名の受信を待つ。
一方、仮定した人名が人物データベース117に記憶されていない場合(ステップS1407:No)、顔認識処理部1301(記憶制御手段)は、当該仮定した人名と、抽出した特徴情報と、を対応付けて人物データベース117に記憶させる(ステップS1408)。その後、顔認識処理部1301は、当該仮定した人名を、検索した人名として、コンテンツ紹介処理部804に送付しても良い(ステップS1404)。
このように、本実施の形態にかかる再生装置1300によれば、人物データベース117が、インターネットなどのネットワークを介して人物サーバに接続されていない場合であっても、自装置が保持する情報を利用して、自装置内で人物データベース117に記憶されている情報を更新することができる。
なお、第1〜3実施の形態の再生装置100,800,1300で実行される図6および図11に示す人名の検索処理、図7および図12に示すEPG情報および録画済番組情報の検索処理、図14に示す人物データベースの更新処理にかかるプログラムは、ROM等に予め組み込まれて提供される。
また、第1〜3実施の形態の再生装置100,800,1300で実行される上述のプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、第1〜3実施の形態の再生装置100,800,1300で実行される上述のプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1〜3実施の形態の再生装置100,800,1300で実行される上述のプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
なお、第1〜3実施の形態の再生装置100,800,1300で実行される上述のプログラムは、上述した各部(顔認識処理部、EPG処理部、コンテンツ紹介処理部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから上述のプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、顔認識処理部、EPG処理部、コンテンツ紹介処理部が主記憶装置上に生成されるようになっている。
第1実施の形態にかかる再生装置の構成を示すブロック図である。 人物データベースが記憶する情報の一例を示す図である。 人物表示履歴データベースに記憶される情報の一例を示す図である。 顔画像を合成した画像の表示例を示す図である。 関連情報の画像情報に対応する画像の表示例を示す図である。 人名の検索処理の手順を示すフローチャートである。 EPG情報の検索処理の手順を示すフローチャートである。 第2実施の形態にかかる再生装置の構成を示すブロック図である。 人物表示履歴データベースに記憶される情報の一例を示す図である。 関連情報の画像情報に対応する画像の表示例を示す図である。 人名の検索処理の手順を示すフローチャートである。 録画済番組情報の検索処理の手順を示すフローチャートである。 第3実施の形態にかかる再生装置の構成を示すブロック図である。 人物データベースの更新処理の手順を示すフローチャートである。
符号の説明
100,800,1300 再生装置
109 顔検出処理部
110,802,1301 顔認識処理部
111,803 人物表示履歴データベース
112 EPG処理部
113,805 画像変換部
114,806 画像合成部
117 人物データベース
801 録画コンテンツ格納装置
804 コンテンツ紹介処理部

Claims (8)

  1. コンテンツデータを含む映像情報を構成するフレーム画像から人物の顔画像を検出する検出手段と、
    検出した前記顔画像から当該人物の顔の特徴情報を抽出する抽出手段と、
    抽出した前記特徴情報を用いて、前記顔画像を検出した人物に関する関連情報を検索する検索手段と、
    前記映像情報を構成する前記フレーム画像および前記関連情報を検索した人物の顔画像を表示する第1表示手段と、
    前記第1表示手段により表示した前記顔画像の選択に応じて、選択された前記顔画像の人物の前記関連情報を表示する第2表示手段と、
    を備えたことを特徴とする再生装置。
  2. 前記検索手段は、人名と当該人名に対応する人物の顔の前記特徴情報とを対応付けて記憶する人物データベースから、抽出した前記特徴情報と対応付けられた人名を前記関連情報として検索することを特徴とする請求項1に記載の再生装置。
  3. 前記検索手段は、番組に出演予定の人物の人名を記録したリストを含む番組情報を記憶する番組情報データベースから、前記関連情報として検索した人名を記録したリストを含む前記番組情報を前記関連情報として検索することを特徴とする請求項2に記載の再生装置。
  4. 録画する番組の前記コンテンツデータと、当該番組に出演した人物の人名を記録したリストを含む録画済番組情報と、を対応付けて格納する格納手段と、
    前記検索手段は、前記格納手段から、前記関連情報として検索した人名を記録したリストを含む前記録画済番組情報を前記関連情報として検索することを特徴とする請求項2または3に記載の再生装置。
  5. 現在時刻から予め設定された時間前に検索した人名の履歴情報を記憶する履歴データベースをさらに備え、
    前記検索手段は、検索した人名が前記履歴データベースに記憶されていない場合に、当該検索した人名の人物のその他の前記関連情報を検索することを特徴とする請求項1から4のいずれか一に記載の再生装置。
  6. 前記人物データベースから、抽出した前記特徴情報と対応付けられた人名が検索できなかった場合、前記格納手段に格納された前記コンテンツデータが含む前記映像情報のうち、検出した前記顔画像を含むフレーム画像から構成される前記映像情報の個数を算出する算出手段と、
    算出した前記映像情報の個数が予め設定された閾値を超えた場合、検出した前記顔画像を含む前記映像情報と対応付けて格納された前記録画済番組情報が含むリストに最も多く記録された人名が前記人物データベースに記憶されているか否かを判定する判定手段と、
    当該最も多く記録された人名が前記人物データベースに記憶されていない場合、当該最も多く記録された人名と、当該抽出した特徴情報と、を対応付けて前記人物データベースに記憶させる記憶制御手段と、
    をさらに備えたことを特徴とする請求項4に記載の再生装置。
  7. 前記記憶制御手段は、前記人物データベースから、人名および当該人名と対応付けて記憶される前記特徴情報を削除する有効期限を、当該人名と対応付けて記憶させるとともに、前記有効期限を過ぎた人名および当該人名と対応付けて記憶される前記特徴情報を前記人物データベースから削除することを特徴とする請求項6に記載の再生装置。
  8. コンテンツデータを含む映像情報を構成するフレーム画像、および前記フレーム画像が含む人物の顔画像を表示する第1表示手段と、
    前記第1表示手段により表示した前記顔画像の選択に応じて、選択された前記顔画像の人物に関する関連情報を表示する第2表示手段と、
    を備えたことを特徴とする再生装置。
JP2008331429A 2008-12-25 2008-12-25 再生装置 Pending JP2010152744A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008331429A JP2010152744A (ja) 2008-12-25 2008-12-25 再生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008331429A JP2010152744A (ja) 2008-12-25 2008-12-25 再生装置

Publications (1)

Publication Number Publication Date
JP2010152744A true JP2010152744A (ja) 2010-07-08

Family

ID=42571740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008331429A Pending JP2010152744A (ja) 2008-12-25 2008-12-25 再生装置

Country Status (1)

Country Link
JP (1) JP2010152744A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012913A (ja) * 2011-06-29 2013-01-17 Mitsubishi Electric Corp デジタル放送受信装置及びデジタル放送受信方法
JP2013535733A (ja) * 2010-07-26 2013-09-12 コーニンクレッカ フィリップス エヌ ヴェ 検索のためのキーワードの取得
JP2014057246A (ja) * 2012-09-13 2014-03-27 Sony Corp 表示制御装置、記録制御装置および表示制御方法
JP2014086926A (ja) * 2012-10-24 2014-05-12 Nec Personal Computers Ltd 情報機器、及びプログラム
JP2016054504A (ja) * 2015-11-04 2016-04-14 三菱電機株式会社 デジタル放送受信装置及びデジタル放送受信方法
JP2019091290A (ja) * 2017-11-15 2019-06-13 富士ゼロックス株式会社 情報処理システム、情報処理装置およびプログラム
JP2021516501A (ja) * 2018-10-18 2021-07-01 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 映像に基づく情報取得方法及び装置
CN115905602A (zh) * 2022-11-03 2023-04-04 暨南大学 一种新闻人物识别方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054888A (ja) * 2002-05-31 2004-02-19 Omron Corp 顔照合装置
JP2004310287A (ja) * 2003-04-03 2004-11-04 Toshiba Corp 人物認識装置および通行制御装置
JP2005522112A (ja) * 2002-04-02 2005-07-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 映像番組用の補足情報を提供するための方法及びシステム
JP2005522122A (ja) * 2002-03-28 2005-07-21 ノキア コーポレイション Ipマルチメディアコアネットワークシステム(ims)における再認証方法及びシステム
JP2008066925A (ja) * 2006-09-06 2008-03-21 Seiko Epson Corp 情報提供装置、表示制御装置、表示装置および情報提供方法
JP2008257460A (ja) * 2007-04-04 2008-10-23 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005522122A (ja) * 2002-03-28 2005-07-21 ノキア コーポレイション Ipマルチメディアコアネットワークシステム(ims)における再認証方法及びシステム
JP2005522112A (ja) * 2002-04-02 2005-07-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 映像番組用の補足情報を提供するための方法及びシステム
JP2004054888A (ja) * 2002-05-31 2004-02-19 Omron Corp 顔照合装置
JP2004310287A (ja) * 2003-04-03 2004-11-04 Toshiba Corp 人物認識装置および通行制御装置
JP2008066925A (ja) * 2006-09-06 2008-03-21 Seiko Epson Corp 情報提供装置、表示制御装置、表示装置および情報提供方法
JP2008257460A (ja) * 2007-04-04 2008-10-23 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535733A (ja) * 2010-07-26 2013-09-12 コーニンクレッカ フィリップス エヌ ヴェ 検索のためのキーワードの取得
JP2013012913A (ja) * 2011-06-29 2013-01-17 Mitsubishi Electric Corp デジタル放送受信装置及びデジタル放送受信方法
JP2014057246A (ja) * 2012-09-13 2014-03-27 Sony Corp 表示制御装置、記録制御装置および表示制御方法
US9451228B2 (en) 2012-09-13 2016-09-20 Sony Corporation Display control device, recording control device, and display control method
US10129515B2 (en) 2012-09-13 2018-11-13 Saturn Licensing Llc Display control device, recording control device, and display control method
JP2014086926A (ja) * 2012-10-24 2014-05-12 Nec Personal Computers Ltd 情報機器、及びプログラム
JP2016054504A (ja) * 2015-11-04 2016-04-14 三菱電機株式会社 デジタル放送受信装置及びデジタル放送受信方法
JP2019091290A (ja) * 2017-11-15 2019-06-13 富士ゼロックス株式会社 情報処理システム、情報処理装置およびプログラム
JP7077585B2 (ja) 2017-11-15 2022-05-31 富士フイルムビジネスイノベーション株式会社 情報処理システム、情報処理装置およびプログラム
JP2021516501A (ja) * 2018-10-18 2021-07-01 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 映像に基づく情報取得方法及び装置
JP7231638B2 (ja) 2018-10-18 2023-03-01 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 映像に基づく情報取得方法及び装置
CN115905602A (zh) * 2022-11-03 2023-04-04 暨南大学 一种新闻人物识别方法及装置

Similar Documents

Publication Publication Date Title
JP2010152744A (ja) 再生装置
JP4482829B2 (ja) 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム
JP4935818B2 (ja) デジタル放送受信装置およびデジタル放送受信方法
TWI527442B (zh) 資訊萃取方法及設備以及其電腦可讀取的媒體
JP2006324809A (ja) 情報処理装置,情報処理方法,およびコンピュータプログラム
JP2007150724A (ja) 映像視聴支援システムおよび方法
JP4814849B2 (ja) フレームの特定方法
KR20080101075A (ko) 영상 및 영상 정보 검색 장치 및 방법, 그리고 그 시스템
JP2003061000A (ja) 制御装置、およびプログラム
JP2009239729A (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
JP2010239507A (ja) 動画処理装置
KR101396362B1 (ko) 녹화 기기의 상세 정보 제공 방법 및 장치
JP2009027428A (ja) 録画再生装置及び録画再生方法
KR100988255B1 (ko) 정보 처리 장치 및 방법, 및 프로그램이 기록된 컴퓨터로 판독가능한 매체
JP2010124319A (ja) イベントカレンダー表示装置、イベントカレンダー表示方法、イベントカレンダー表示プログラム及びイベント情報抽出装置
JP2016536834A (ja) ビデオプログラムの同時の表示及び監視のための方法及び装置
JP2006186426A (ja) 情報検索表示装置、情報検索表示方法および情報検索表示プログラム
JPWO2008078717A1 (ja) 番組データ管理サーバ、識別子割当装置、番組データ管理方法及びプログラム
JP2011239247A (ja) デジタル放送受信装置および関連情報提示プログラム
JP4723901B2 (ja) テレビジョン表示装置
JP2013228941A (ja) 情報処理装置、放送受信装置及び情報処理方法
JP5458163B2 (ja) 画像処理装置、及び画像処理装置の制御方法
KR101000924B1 (ko) 캡션 표시 방법 및 장치
JP5703321B2 (ja) 情報処理装置及び情報処理方法
JP2007274164A (ja) 受信装置及び番組通知方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100629