JP2008257460A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2008257460A
JP2008257460A JP2007098567A JP2007098567A JP2008257460A JP 2008257460 A JP2008257460 A JP 2008257460A JP 2007098567 A JP2007098567 A JP 2007098567A JP 2007098567 A JP2007098567 A JP 2007098567A JP 2008257460 A JP2008257460 A JP 2008257460A
Authority
JP
Japan
Prior art keywords
person
model
video content
feature amount
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007098567A
Other languages
English (en)
Other versions
JP4337064B2 (ja
Inventor
Toshihiro Tsunoda
智弘 角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007098567A priority Critical patent/JP4337064B2/ja
Priority to US12/046,322 priority patent/US8107689B2/en
Priority to CN2008100911220A priority patent/CN101281540B/zh
Publication of JP2008257460A publication Critical patent/JP2008257460A/ja
Application granted granted Critical
Publication of JP4337064B2 publication Critical patent/JP4337064B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】映像コンテンツに基づいて、人物と顔の特徴量モデルの対応関係を示すデータベースを自動的に構築する。
【解決手段】人物−特徴量モデルDB生成装置20は、映像コンテンツから顔画像を検出する顔画像検出部24、検出される顔画像の特徴を示す特徴量モデルを生成する特徴量モデル抽出部25、生成される無数の特徴量モデルをその類似度に応じて分類する特徴量モデル分類部26、特徴量モデルが蓄積される特徴量モデルDB27、映像コンテンツのメタデータに基づいて映像コンテンツに登場する人物の一覧を示す登場人物リスト31を生成する登場人物リスト生成部28、および、登場人物リスト31に含まれる人物に特徴量モデルを対応付けるマッピング部29から構成される。本発明は、例えば顔写真を入力として人物を特定し、特定した人物に関連する情報を出力するシステムに適用できる。
【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、テレビジョン番組に代表される映像コンテンツに基づいて、人物とその顔の画像の対応関係を示すデータベースを生成するようにした情報処理装置、情報処理方法、およびプログラムに関する。
従来、動画像や静止画像から人物の顔を検出し、検出した顔が誰の顔であるのかを特定する技術が存在する(例えば、特許文献1参照)。
当該従来技術においては、予め人物とその人物の顔の特徴を示す特徴量モデルが対応付けて記録されているデータベース(以下、DBと記述する)を参照し、検出した顔画像の特徴量モデルと比較して、その相関度が最も高い人物を、検出した顔画像の人物であると特定している。
特開2002−189724号公報
ところで、上述した従来技術で用いられている人物とその顔の特徴量モデルが対応付けて記録されているDBは、通常、人が手作業で人物と特徴量モデルを対応付けて構築しているものである。よって、このDBをコンピュータなどによって自動的に構築することができれば、DBに蓄積されているデータ数(人物と顔の特徴量モデルの数)を人力で構築していたときに比較して速やかに増加させることができるので、より多くの人物を認識することができるようになると期待できる。
また当然ながら、従来のDBでは、人物の加齢に伴う顔の変化、化粧や扮装による顔の特徴変化に対応することができず、このような変化に対しても、人が手作業でDBを更新する必要がある。
本発明はこのような状況に鑑みてなされたものであり、映像コンテンツに基づいて、人物と顔の特徴量モデルの対応関係を示すデータベースを自動的に構築するようにするものである。
本発明の一側面である情報処理装置は、人物と顔画像との対応関係を示すデータベースを生成する情報処理装置において、映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成手段と、映像コンテンツから人の顔画像を検出する検出手段と、検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成手段と、前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピング手段とを含む。
本発明の一側面である情報処理装置は、前記映像コンテンツに基づいて生成された複数の前記特徴量モデルを類似度に応じて特徴量モデル群に分類し、特徴量モデル群毎に分類した複数の前記特徴量モデルを代表する代表モデルを生成する分類手段をさらに含むことができ、前記マッピング手段は、前記登場人物リストに含まれる人物に生成された前記代表モデルを対応付けるようにすることができる。
前記マッピング手段は、注目人物を決定する決定手段と、前記登場人物リストに基づいて前記注目人物が登場する映像コンテンツを検索し、検索した映像コンテンツに基づいて生成された前記特徴量モデルを取得する取得手段と、取得された前記特徴量モデルの中から互いに相関度の高い複数の前記特徴量モデルを判定する判定手段と、他外の相関度が高いと判定された複数の前記特徴量モデルの中心となる中心モデルを生成して前記注目人物に対応付ける対応付け生成手段とを含むようにすることができる。
前記リスト生成手段は、映像コンテンツのメタデータに基づいて、複数の人物から構成されるグループを含めて、前記登場人物リストを生成するようにすることができる。
前記検出手段は、映像コンテンツから人の顔画像をその角度に拘わらず検出し、前記マッピング手段は、同一人物に対して異なる角度から検出された顔画像に基づいて生成された複数の前記特徴量モデルを対応付けるようにすることができる。
本発明の一側面である情報処理方法は、人物と顔画像との対応関係を示すデータベースを生成する情報処理装置の情報処理方法において、映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成ステップと、映像コンテンツから人の顔画像を検出する検出ステップと、検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成ステップと、前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピングステップとを含む。
本発明の一側面であるプログラムは、人物と顔画像との対応関係を示すデータベースを生成するコンピュータの制御用のプログラムであって、映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成ステップと、映像コンテンツから人の顔画像を検出する検出ステップと、検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成ステップと、前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピングステップとを含む処理をコンピュータに実行させる。
本発明の一側面においては、映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストが生成され、映像コンテンツから人の顔画像が検出され、検出された前記顔画像の特徴を示す特徴量モデルが生成され、前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルが対応付けられる。
本発明の一側面によれば、映像コンテンツに基づいて、人物と顔の特徴量モデルの対応関係を示すデータベースを自動的に構築することができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面である情報処理装置(例えば、図2の人物−特徴量モデルDB生成装置20)は、映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成手段(例えば、図2の登場人物リスト生成部28)と、映像コンテンツから人の顔画像を検出する検出手段(例えば、図2の顔画像検出部24)と、検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成手段(例えば、図2の特徴量モデル抽出部25)と、前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピング手段(例えば、図2のマッピング部29)とを含む。
本発明の一側面である情報処理装置は、前記映像コンテンツに基づいて生成された複数の前記特徴量モデルを類似度に応じて特徴量モデル群に分類し、特徴量モデル群毎に分類した複数の前記特徴量モデルを代表する代表モデルを生成する分類手段(例えば、図2の特徴量モデル分類部26)をさらに含む。
前記マッピング手段は、注目人物を決定する決定手段(例えば、図7の注目人物決定部41)と、前記登場人物リストに基づいて前記注目人物が登場する映像コンテンツを検索し、検索した映像コンテンツに基づいて生成された前記特徴量モデルを取得する取得手段(例えば、図7の注目人物検索部42および代表モデル群取得部43)と、取得された前記特徴量モデルの中から互いに相関度の高い複数の前記特徴量モデルを判定する判定手段(例えば、図7の相関判定部44)と、他外の相関度が高いと判定された複数の前記特徴量モデルの中心となる中心モデルを生成して前記注目人物に対応付ける対応付け生成手段(例えば、図7の中心モデル生成部45)とを含むようにすることができる。
本発明の一側面である情報処理方法およびプログラムは、映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成ステップ(例えば、図8のステップS5)と、映像コンテンツから人の顔画像を検出する検出ステップ(例えば、図8のステップS2)と、検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成ステップ(例えば、図8のステップS3)と、前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピングステップ(例えば、図9のステップS16)とを含む。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
初めに、本発明の一実施の形態である人物−特徴量モデルDB生成装置により構築される人物−特徴量モデルDBが用いられる情報提供システムについて、図1を参照して説明する。
この情報提供システム10は、顔写真や似顔絵イラストを入力として、入力された顔写真などに対応する人物に関連する情報を操作者に対して提供する情報提供装置11、映像コンテンツに登場し得る芸能人、文化人、スポーツ選手、政治家などの人物とその人物に関連する情報である人物関連情報が対応付けて記録されている人物関連情報DB23、および、人物とその顔の特徴を示す特徴量モデルが対応付けて記録されている人物−特徴量モデルDB30から構成される。
情報提供装置11は、操作者から入力される顔写真や似顔絵イラストの特徴を示す特徴量モデルを生成し、人物−特徴量モデルDB30を参照することにより、生成した特徴量モデルと最も相関度が高い特徴量モデルを検索し、検索結果に対応する人物を特定する。そして、特定した人物に対応する人物関連情報を人物関連情報DB13から取得して操作者に提供する。
人物関連情報DB23は、予め用意すべきものである(詳細後述)。人物−特徴量モデルDB30は、図2に示す人物−特徴量モデルDB生成装置によって構築されるものである。
図2は、人物−特徴量モデルDB30を構築するために、本発明の一実施の形態である人物−特徴量モデルDB生成装置の構成例を示している。
この人物−特徴量モデルDB生成装置20は、映像コンテンツが蓄積されているコンテンツDB21、コンテンツDB21の映像コンテンツに対応するメタデータが蓄積されているメタデータDB22、人物関連情報が蓄積されている人物関連情報DB23、映像コンテンツから顔画像を検出する顔画像検出部24、検出される顔画像の特徴を示す特徴量モデルを生成する特徴量モデル抽出部25、生成される無数の特徴量モデルをその類似度に応じて分類する特徴量モデル分類部26、特徴量モデルが蓄積される特徴量モデルDB27、映像コンテンツのメタデータに基づいて映像コンテンツに登場する人物の一覧を示す登場人物リスト31を生成する登場人物リスト生成部28、および、登場人物リスト31に含まれる人物に特徴量モデルを対応付けるマッピング部29から構成される。
コンテンツDB21は、図3に示すように、テレビジョン番組などの動画像、報道写真、グラビア写真などの静止画像からなる映像コンテンツの固有識別情報であるコンテンツIDに、その映像コンテンツの実データ(動画データ、静止画データなど)が実際に記録されている場所を示す所在情報を対応付けて記憶しており、記憶している所在情報から映像コンテンツの実データを取得して顔画像検出部24およびマッピング部29に出力する。なお、コンテンツDB21に映像コンテンツの実データを保持するようにしてもよい。
メタデータDB22は、コンテンツDB21の映像コンテンツに対応するメタデータを、コンテンツIDに対応付けて記憶している。ここで、メタデータとは、映像コンテンツがテレビジョン番組である場合には、そのEPGデータ(番組名、放送日時、チャンネル、出演者、番組内容などからなる)などを指す。その他の場合、映像コンテンツに登場する人物名を含む一般的な属性情報を指す。また、メタデータDB22は、登場人物リスト生成部28によって生成される登場人物リスト31を、コンテンツIDに対応付けて記憶する。
人物関連情報DB23には、映像コンテンツに登場し得る芸能人、文化人、スポーツ選手、政治家などの人物とその人物に関連する情報である人物関連情報が対応付けて記録されている。
図4は、人物関連情報DB23に記録されている人物関連情報の項目を示している。人物関連情報は、各人物IDに対応付けて、名称、名称のヨミガナ、名称の英文字表示、出身地、誕生日、デビュー時期、関連人物ID、当該人物の公式ホームページなどのURL(Uniform Resource Locator)、その他の情報が記録される。
なお、複数の人物から構成されるグループに対しても人物IDを付与するようにする。当該グループの構成員がそれぞれ個別に映像コンテンツに登場し得るのであれば、各構成員に対してもそれぞれ個別の人物IDを付与するようにする。例えば、グループの人物IDに対応付けた関連人物IDには、当該グループ構成員の人物IDなどが記録される。また例えば、グループ構成員の人物IDに対応付けた関連人物IDには、当該グループの人物IDや同じグループに属する他の構成員の人物IDなどが記録される。このように、グループ構成員にグループを対応付けて記録するとともに、グループにその構成員を対応付けて記録することにより、例えば、登場人物リストにグループ名だけが記載されているような場合でも構成員個人の顔を個別に対応付けすることができる。
人物関連情報DB23には、上述した項目の他、出演している映像コンテンツのコンテンツID、当該映像コンテンツに登場する時刻情報などを記録するようにしてもよい。
図2に戻る。顔画像検出部24は、コンテンツDB21から映像コンテンツを取得し、取得した映像コンテンツの映像上の人の顔を検出する。この人の顔の検出は、顔が正面を向いている状態だけでなく、例えば、右10度の状態、左45度の状態など、左右の様々な方向を向いた状態(正対している被写体を左右の様々な方向から撮影した状態も同じ意味とする)でも行い、検出結果を特徴量モデル抽出部25に出力する。なお、映像コンテンツが動画像であるならば、仮に出演者が一人だけであっても複数の顔画像が検出されることになるが、連続しているシーンでそれぞれ検出される顔はその角度が違っても同一人物であることが多いので、後段の特徴量モデル分類部26で同一人物と認識されるように、連続して検出されたことを示す情報を保持するようにする。
特徴量モデル抽出部25は、検出された人の顔の特徴を示す特徴量モデルを生成する。また、検出した顔の角度を検出して、特徴量モデルとその顔角度を特徴量モデル分類部26および特徴量モデルDB27に出力する。なお、上述したように、検出した顔の顔角度毎に特徴量モデルを生成してもよいが、例えば検出された正面の顔画像に対して特徴量モデルを生成し、生成した正面の特徴量モデルに基づいて他の角顔度の特徴量モデルを生成するようにしてもよい。
なお、顔画像検出部24および特徴量モデル抽出部25の処理については、例えば特開2002−189724号公報に開示されている技術を適用することができる。
特徴量モデル分類部26は、1つの映像コンテンツに基づいて生成された同じ顔角度の複数の特徴量モデルの類似度を演算し、類似した特徴量モデルが特徴量モデル群を構成するように分類する。同一の特徴量モデル群に分類された複数の特徴量モデルは、同一の人物に対応するものであると考えられる。さらに、特徴量モデル分類部26は、各特徴量モデル群の平均的なモデル(以下、代表モデルと称する)を生成して特徴量モデルDB27に出力する。通常、1つの映像コンテンツからは、その出演者たちの顔が類似していなければ、その出演者の数と同じ数以上の代表モデルが生成される。なお、様々な顔角度の特徴量モデルが生成されているならば、同一人物に対して様々な顔角度の代表モデルが生成されることになる。
以下、1つの映像コンテンツから生成される複数の代表モデルを代表モデル群32と称する。つまり、代表モデル群32には、1つの映像コンテンツに出演している各出演者の顔の特徴を示す代表モデルが含まれていることになる。なお、代表モデルを生成せず、特徴量モデルの分類結果である特徴量モデル群を特徴量モデルDB27に出力するようにしてもよいが、代表モデルを生成した方が後段における演算量を削減できる。
特徴量モデルDB27は、特徴量モデル抽出部25によって生成された特徴量モデルと、特徴量モデル分類部26によって生成された代表モデルを記憶する。あるいは、特徴量モデル分類部26によって分類された特徴量モデル群を記憶する。
登場人物リスト生成部28は、映像コンテンツのメタデータに基づき、映像コンテンツに関わる人物の一覧を示す登場人物リスト31を生成し、生成した登場人物リスト31をメタデータDB22に出力する。登場人物リスト31には、図5に示すように、コンテンツIDに対応付けて、メタデータに記載されている人物の人物ID(人物関連情報DB23から取得する)、その役割(男優、女優、演出家、脚本家など)、メタデータ(特にEPGデータ)における表示順序が記録される。メタデータにおける表示順序は、人物の出演時間の長さや重要度に関連する情報として、後段のマッピング部29で利用される。
マッピング部29は、特徴量モデルを対応付けたい人物(以下、注目人物と称する)を決定し、注目人物が出演している複数の映像コンテンツを特定し、特定した各映像コンテンツにそれぞれ対応する登場人物リスト31と代表モデル群32を比較することによりマッピングを行い、当該人物に対応付する特徴量モデル(中心モデル)を生成し、人物−特徴量モデルDB30に出力して記録させる。なお、複数の映像コンテンツを特定する場合、同一シリーズの映像コンテンツは単一の映像コンテンツとして扱うようにしてもよい。また、1つの映像コンテンツに対応する代表モデル群32だけに基づいて、人物と特徴量モデル群32のマッピングを行うようにしてもよい。
人物−特徴量モデルDB30は、マッピング部29の出力に従い、人物IDに特徴量モデルを対応付けて記録する。図6は、人物−特徴量モデルDB30のデータ構造を示している。各人物IDには、映像コンテンツにおける顔の向きを示す顔角度(正面、右45度など)、映像コンテンツが撮影された時期を示す撮影時期(年単位など)、特殊メークや扮装の有無を示すタイプ(通常、メーク1、メーク2など)、対応付けられた特徴量モデルの識別情報である特徴量モデルID、人物と特徴量モデルの対応付けの正確さを示す確率、当該項目が手動によって訂正や更新された場合の履歴を示す手動更新履歴が対応付けて記録される。なお、撮影時期が異なっても特徴量モデルの変化が小さい場合、これらを統合してもよい。これにより、人物−特徴量モデルDB30のデータサイズの肥大化を抑制することができる。
なお、人物−特徴量モデルDB30においては、一人の人物に対して複数の特徴量モデルを対応付けて記録することができる。すなわち、人物IDは共通であるが、その他の項目が異なる情報を記録することができる。これにより、映像コンテンツの出演者の顔が年代によって変化したり、化粧を変更したり、扮装したりしても、それぞれの状態における各特徴量モデルには同一の人物IDが対応付けられているので、同一人物として認識することが可能となる。
確率の項目については、通常、同一人物が多くの映像コンテンツに登場し、その顔が多く検出されるほど徐々に上昇するが、例えば人物A,Bの二人組みグループが常に同時に映像コンテンツに登場するような場合、人物A,Bのそれぞれに特徴量モデルa,bが対応付けられ、人物A−特徴量モデルa、人物A−特徴量モデルb、人物B−特徴量モデルa、人物B−特徴量モデルbの対応それぞれの確率はいずれも50%となる。
次に、図7は、マッピング部29の構成例を示している。
マッピング部29は、注目人物を決定する注目人物決定部41、メタデータDB22の登場人物リスト31に基づいて注目人物が出演している複数の映像コンテンツを特定する注目人物検索部42、特定された複数の映像コンテンツにそれぞれ対応する代表モデル群32を特徴量モデルDB27から取得する代表モデル群取得部43、取得された複数の代表モデル群32に含まれる代表モデルの相関度に基づいて注目人物に対応する複数の代表モデルを選抜する相関判定部44、選抜された複数の代表モデルから中心モデルを生成する中心モデル生成部45、および、生成された中心モデルを注目人物に対応付けて人物−特徴量モデルDB30に記録させる記録部46から構成される。
注目人物決定部41は、例えばコンテンツDB21に新たな映像コンテンツが追加され、前段階の処理(後述)が終了した後、当該映像コンテンツの登場人物を順に選択するなどして、注目人物に決定する。注目人物検索部42は、注目人物以外の人物も共通して登場する映像コンテンツは除外して、注目人物が出演している複数の映像コンテンツを特定する。
相関判定部44は、取得した複数の代表モデル群32の間で代表モデルの相関度を演算し、各代表モデル群の間で相関度が最も高い代表モデルの組み合わせを選抜する。なお、最も相関度が高い代表モデルを選抜する代わりに、相関度が所定の閾値を越えた代表モデルを選抜するようにしてもよい。また、各代表モデル群の全代表モデルの相関度を演算するとその演算量が膨大となるので、登場人物リスト31の表記順序に基づき、表記順序の上位側数名に限定して相関度を演算するようにしてもよい。このようにすれば、選抜すべき代表モデルを速やかに検出できることが期待でき、相関度の演算量の削減も期待できる。
中心モデル生成部45は、選抜された複数の代表モデルのいずれとも相関度が同等の特徴量モデルを中心モデルとして生成する。
次に、人物−特徴量モデルDB30を生成するための準備である前段階の処理について、図8のフローチャートを参照して説明する。
この前段階の処理は、各映像コンテンツに対して登場人物リスト31と代表モデル群32を生成する処理であり、例えば、コンテンツDB21に新たな映像コンテンツが追加されたとき、追加された映像コンテンツを処理対象として実行される。
ステップS1において、顔画像検出部24は、コンテンツDB21から処理対象の映像コンテンツを取得し、取得した映像コンテンツの映像上の人の顔を検出して特徴量モデル抽出部25に出力する。ステップS2において、特徴量モデル抽出部25は、検出された人の顔の特徴を示す特徴量モデルを生成する。また、検出した顔の角度を検出して、特徴量モデルとその顔角度を特徴量モデル分類部26および特徴量モデルDB27に出力する。
処理対象として映像コンテンツの全体から顔の検出が終了し、検出した顔にそれぞれ対応する特徴量モデルが生成されて特徴量モデルDB27に記録された後、処理はステップS3に進められる。
ステップS3において、特徴量モデル分類部26は、処理対象の映像コンテンツに基づいて生成された同じ顔角度の複数の特徴量モデルの類似度を演算し、類似した特徴量モデルが同一の特徴量モデル群に属するように分類する。ステップS4において、特徴量モデル分類部26は、各特徴量モデル群をそれぞれ代表する代表モデルを生成し、ここで生成した複数の代表モデルからなる代表モデル群32を特徴量モデルDB27に出力する。特徴量モデルDB27は、入力された代表モデル群32にコンテンツIDを対応付けて記録する。
ステップS5において、登場人物リスト生成部28は、メタデータDB22から処理対象の映像コンテンツのメタデータを取得し、取得したメタデータに基づいて処理対象の映像コンテンツに関わる人物の一覧を示す登場人物リスト31を生成し、生成した登場人物リスト31をメタデータDB22に出力する。メタデータDB22は、入力された登場人物リスト31にコンテンツIDを対応付けて記録する。
なお、ステップS1乃至S4による代表モデル群32を生成する処理を、ステップS5における登場人物リスト31を生成する処理は、その実行順序を逆にしてもよいし、あるいは同時に実行するようにしてもよい。
以上で、処理対象とした映像コンテンツに対する前段階の処理の説明を終了する。
次に、人物−特徴量モデルDB30を生成する人物−特徴量モデル生成処理について、図9のフローチャートを参照して説明する。
この人物−特徴量モデル生成処理は、上述した前段階の処理によって登場人物リスト31と代表モデル群32が生成済みの映像コンテンツの数がある程度確保された後に実行される。より具体的には、特徴量モデルを対応付けたい人物(注目人物)が共通して登場しており、注目人物以外に共通して登場する出演者がいない映像コンテンツの数が少なくとも2つ確保されている必要がある。
ステップS11において、注目人物決定部41は、例えばコンテンツDB21に新たな映像コンテンツCAが追加された登場人物リスト31をメタデータDB22から取得し、登場人物リスト31に記載されている人物を順に選択するなどして注目人物αを決定する。
ステップS12において、注目人物検索部42は、メタデータDB22の登場人物リスト31を参照することにより、注目人物αが登場する映像コンテンツであって、注目人物α以外に共通して登場する出演者がいない映像コンテンツを特定し、特定した映像コンテンツに対応する登場人物リスト31をメタデータDB22から取得する。
以下、映像コンテンツCAの他に映像コンテンツCB,CCが特定されたと仮定する。特定された映像コンテンツCA,CB,CCにそれぞれ対応する代表モデル群32には、それぞれ注目人物αの顔の特徴を示す代表モデルが含まれており、それらは相関度が高いはずであるとの考えに基づいて以下の処理が行われる。
ステップS13において、代表モデル群取得部43は、特定された映像コンテンツCA,CB,CCにそれぞれ対応する代表モデル群32を特徴量モデルDB27から取得して相関判定部44に出力する。
ステップS14において、相関判定部44は、取得した複数の代表モデル群32の間で代表モデルの相関度を演算し、各代表モデル群の間で相関度が最も高い代表モデルの組み合わせを選抜し、選抜した代表モデルの組み合わせを中心モデル生成部45に主力する。ここで、映像コンテンツCAの代表モデル群から選抜されたものを代表モデルAα、映像コンテンツCBの代表モデル群から選抜されたものを代表モデルBα、映像コンテンツCCの代表モデル群から選抜されたものを代表モデルCαとする。
ステップS15において、中心モデル生成部45は、選抜された代表モデルAα,Bα,Cαのいずれとも相関度が同等の中心モデルMαを生成して記録部46に出力する。ステップS16において、記録部46は、入力された中心モデルMαに特徴量モデルIDを付与して人物−特徴量モデルDB30に記録する。さらに、記録部46は、人物−特徴量モデルDB30に、注目人物αの人物IDに中心モデルの特徴量モデルIDを対応付けて記録させる。なお、中心モデルMαの特徴量モデルID以外の情報、顔角度、撮影時期、タイプ、確率などもこのときに記録させる。
以上で、人物−特徴量モデル生成処理は終了される。そして、この人物−特徴量モデル生成処理が繰り返し実行されることにより、人物−特徴量モデルDB30において、同一の人物に対応する特徴量モデルの精度を上げ、特徴量モデルの数を増やすことができる。
なお、このようにして生成した人物−特徴量モデルDB30は、人力によって情報を訂正、更新、追加したりできるようにしてかまわない。例えば、インタネット上に公開して訂正などの指摘を受け付け、同様の指摘が所定数以上あったときに実際に人物−特徴量モデルDB30を訂正などするようにしてもよい。
生成された人物−特徴量モデルDB30が適用される図1の情報提供システム10では、操作者からの顔画像や似顔絵イラストの入力に対し、対応する人物の人物関連情報を出力したする他、対応する人物の商品(CD,DVD,本など)や対応する人物が宣伝している商品を購入できるWEBページを表示したりするようにしてもよい。また、一般人の顔画像などを入力として、似ている芸能人を探したり、その芸能人の化粧の仕方を伝授したりするサービスに適用してもよい。さらに、映像コンテンツと人物を入力として、当該人物が映像コンテンツにおいて出演しているシーンを出力したり、ある映像シーンを入力として、対応する映像コンテンツのコンテンツIDとその映像シーンの時刻情報(タイムスタンプ)を出力したりするサービスへの適用も想定される。
ところで、上述した一連の処理は、図2に示されたように構成されるハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどの記憶媒体111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、プログラムは、1台のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明が適用される情報提供システムの構成例を示すブロック図である。 人物−特徴量モデルDB生成装置の構成例を示すブロック図である。 図2のコンテンツDBの例を示す図である。 図2の人物関連情報DBの例を示す図である。 図2の登場人物リストの例を示す図である。 図2の人物−特徴量モデルDBの例を示す図である。 図2のマッピング部の構成例を示すブロック図である。 前段階の処理を説明するフローチャートである。 人物−特徴量モデルDB生成処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
符号の説明
10 情報提供システム, 11 情報提供装置, 20 人物−特徴量モデルDB生成装置, 21 コンテンツDB, 22 メタデータDB, 23 人物関連情報DB, 24 顔画像検出部, 25 特徴量モデル抽出部, 26 特徴量モデル分類部, 27 特徴量モデルDB, 28 登場人物リスト生成部, 29 マッピング部, 30 人物−特徴量モデルDB, 31 登場人物リスト, 32 代表モデル群, 100 コンピュータ, 101 CPU, 111 記録媒体

Claims (7)

  1. 人物と顔画像との対応関係を示すデータベースを生成する情報処理装置において、
    映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成手段と、
    映像コンテンツから人の顔画像を検出する検出手段と、
    検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成手段と、
    前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピング手段と
    を含む情報処理装置。
  2. 前記映像コンテンツに基づいて生成された複数の前記特徴量モデルを類似度に応じて特徴量モデル群に分類し、特徴量モデル群毎に分類した複数の前記特徴量モデルを代表する代表モデルを生成する分類手段をさらに含み、
    前記マッピング手段は、前記登場人物リストに含まれる人物に生成された前記代表モデルを対応付ける
    請求項1に記載の情報処理装置。
  3. 前記マッピング手段は、
    注目人物を決定する決定手段と、
    前記登場人物リストに基づいて前記注目人物が登場する映像コンテンツを検索し、検索した映像コンテンツに基づいて生成された前記特徴量モデルを取得する取得手段と、
    取得された前記特徴量モデルの中から互いに相関度の高い複数の前記特徴量モデルを判定する判定手段と、
    他外の相関度が高いと判定された複数の前記特徴量モデルの中心となる中心モデルを生成して前記注目人物に対応付ける対応付け生成手段と
    を含む
    請求項1に記載の情報処理装置。
  4. 前記リスト生成手段は、映像コンテンツのメタデータに基づいて、複数の人物から構成されるグループを含めて、前記登場人物リストを生成する
    請求項1に記載の情報処理装置。
  5. 前記検出手段は、映像コンテンツから人の顔画像をその角度に拘わらず検出し、
    前記マッピング手段は、同一人物に対して異なる角度から検出された顔画像に基づいて生成された複数の前記特徴量モデルを対応付ける
    請求項1に記載の情報処理装置。
  6. 人物と顔画像との対応関係を示すデータベースを生成する情報処理装置の情報処理方法において、
    映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成ステップと、
    映像コンテンツから人の顔画像を検出する検出ステップと、
    検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成ステップと、
    前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピングステップと
    を含む情報処理方法。
  7. 人物と顔画像との対応関係を示すデータベースを生成するコンピュータの制御用のプログラムであって、
    映像コンテンツのメタデータに基づいて前記映像コンテンツの登場人物の一覧を示す登場人物リストを生成するリスト生成ステップと、
    映像コンテンツから人の顔画像を検出する検出ステップと、
    検出された前記顔画像の特徴を示す特徴量モデルを生成するモデル生成ステップと、
    前記登場人物リストに含まれる人物に、前記映像コンテンツに基づいて生成された前記特徴量モデルを対応付けるマッピングステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2007098567A 2007-04-04 2007-04-04 情報処理装置、情報処理方法、およびプログラム Expired - Fee Related JP4337064B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007098567A JP4337064B2 (ja) 2007-04-04 2007-04-04 情報処理装置、情報処理方法、およびプログラム
US12/046,322 US8107689B2 (en) 2007-04-04 2008-03-11 Apparatus, method and computer program for processing information
CN2008100911220A CN101281540B (zh) 2007-04-04 2008-04-07 用于处理信息的设备、方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007098567A JP4337064B2 (ja) 2007-04-04 2007-04-04 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2008257460A true JP2008257460A (ja) 2008-10-23
JP4337064B2 JP4337064B2 (ja) 2009-09-30

Family

ID=39826936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007098567A Expired - Fee Related JP4337064B2 (ja) 2007-04-04 2007-04-04 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US8107689B2 (ja)
JP (1) JP4337064B2 (ja)
CN (1) CN101281540B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010053195A1 (ja) * 2008-11-10 2010-05-14 日本電気株式会社 電子広告装置、電子広告方法及び記録媒体
JP2010152744A (ja) * 2008-12-25 2010-07-08 Toshiba Corp 再生装置
JP6159491B1 (ja) * 2016-07-19 2017-07-05 株式会社オプティム 人物画特定システム、人物画特定方法及びプログラム
JP6161224B1 (ja) * 2016-12-28 2017-07-12 アンバス株式会社 人物情報表示装置、人物情報表示方法及び人物情報表示プログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4337064B2 (ja) * 2007-04-04 2009-09-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5075924B2 (ja) * 2010-01-13 2012-11-21 株式会社日立製作所 識別器学習画像生成プログラム、方法、及びシステム
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US8320644B2 (en) 2010-06-15 2012-11-27 Apple Inc. Object detection metadata
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
US9304992B2 (en) * 2012-07-11 2016-04-05 Cellco Partnership Story element indexing and uses thereof
CN103258012A (zh) * 2013-04-16 2013-08-21 广东欧珀移动通信有限公司 一种获取图片信息的方法及装置
CN103984931B (zh) * 2014-05-27 2017-11-07 联想(北京)有限公司 一种信息处理方法及第一电子设备
US20160006921A1 (en) * 2014-07-03 2016-01-07 Adience Ser Ltd. System and method of predicting whether a person in an image is an operator of an imager capturing the image
CN105426829B (zh) * 2015-11-10 2018-11-16 深圳Tcl新技术有限公司 基于人脸图像的视频分类方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10326278A (ja) * 1997-03-27 1998-12-08 Minolta Co Ltd 情報処理装置及び方法並びに情報処理プログラムを記録した記録媒体
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
JP2006033659A (ja) * 2004-07-21 2006-02-02 Sony Corp コンテンツ記録再生装置、コンテンツ記録再生方法及びそのプログラム
WO2006025272A1 (ja) * 2004-09-01 2006-03-09 Nec Corporation 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
JP2006080803A (ja) * 2004-09-08 2006-03-23 Toshiba Corp 番組記録装置および出演者リスト作成方法
JP2006202301A (ja) * 2006-01-31 2006-08-03 Sharp Corp 記憶装置およびコンピュータ読取り可能な記録媒体
JP2006343791A (ja) * 2005-06-07 2006-12-21 Hitachi Ltd 顔画像データベース作成方法
JP2007065766A (ja) * 2005-08-29 2007-03-15 Sony Corp 画像処理装置および方法、並びにプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6661906B1 (en) * 1996-12-19 2003-12-09 Omron Corporation Image creating apparatus
JP3575679B2 (ja) * 2000-03-31 2004-10-13 日本電気株式会社 顔照合方法と該照合方法を格納した記録媒体と顔照合装置
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
JP2002189724A (ja) 2000-12-20 2002-07-05 Victor Co Of Japan Ltd 画像データ検索装置
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
CN1137662C (zh) * 2001-10-19 2004-02-11 清华大学 基于部件主分量分析的多模式人脸识别方法
WO2004081855A1 (en) * 2003-03-06 2004-09-23 Animetrics, Inc. Generation of image databases for multifeatured objects
CN1313962C (zh) * 2004-07-05 2007-05-02 南京大学 基于选择性多本征空间集成的数字人脸图像识别方法
US7580952B2 (en) * 2005-02-28 2009-08-25 Microsoft Corporation Automatic digital image grouping using criteria based on image metadata and spatial information
US20070080967A1 (en) * 2005-10-11 2007-04-12 Animetrics Inc. Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
JP4696857B2 (ja) * 2005-11-02 2011-06-08 オムロン株式会社 顔照合装置
JP4337064B2 (ja) * 2007-04-04 2009-09-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10326278A (ja) * 1997-03-27 1998-12-08 Minolta Co Ltd 情報処理装置及び方法並びに情報処理プログラムを記録した記録媒体
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
JP2006033659A (ja) * 2004-07-21 2006-02-02 Sony Corp コンテンツ記録再生装置、コンテンツ記録再生方法及びそのプログラム
WO2006025272A1 (ja) * 2004-09-01 2006-03-09 Nec Corporation 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
JP2006080803A (ja) * 2004-09-08 2006-03-23 Toshiba Corp 番組記録装置および出演者リスト作成方法
JP2006343791A (ja) * 2005-06-07 2006-12-21 Hitachi Ltd 顔画像データベース作成方法
JP2007065766A (ja) * 2005-08-29 2007-03-15 Sony Corp 画像処理装置および方法、並びにプログラム
JP2006202301A (ja) * 2006-01-31 2006-08-03 Sharp Corp 記憶装置およびコンピュータ読取り可能な記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
奥村 真澄: "番組の出演者一覧生成のための顔画像クラスタリング手法", FIT2006 第5回情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラ, JPN6008062780, 21 August 2006 (2006-08-21), JP, pages 29 - 30, ISSN: 0001201493 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010053195A1 (ja) * 2008-11-10 2010-05-14 日本電気株式会社 電子広告装置、電子広告方法及び記録媒体
JP2010113313A (ja) * 2008-11-10 2010-05-20 Nec Corp 電子広告装置、電子広告方法及びプログラム
JP2010152744A (ja) * 2008-12-25 2010-07-08 Toshiba Corp 再生装置
JP6159491B1 (ja) * 2016-07-19 2017-07-05 株式会社オプティム 人物画特定システム、人物画特定方法及びプログラム
WO2018015988A1 (ja) * 2016-07-19 2018-01-25 株式会社オプティム 人物画特定システム、人物画特定方法及びプログラム
US9922239B2 (en) 2016-07-19 2018-03-20 Optim Corporation System, method, and program for identifying person in portrait
JP6161224B1 (ja) * 2016-12-28 2017-07-12 アンバス株式会社 人物情報表示装置、人物情報表示方法及び人物情報表示プログラム
JP2018106631A (ja) * 2016-12-28 2018-07-05 アンバス株式会社 人物情報表示装置、人物情報表示方法及び人物情報表示プログラム
US10657417B2 (en) 2016-12-28 2020-05-19 Ambass Inc. Person information display apparatus, a person information display method, and a person information display program

Also Published As

Publication number Publication date
CN101281540A (zh) 2008-10-08
US20080247610A1 (en) 2008-10-09
US8107689B2 (en) 2012-01-31
CN101281540B (zh) 2011-05-18
JP4337064B2 (ja) 2009-09-30

Similar Documents

Publication Publication Date Title
JP4337064B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US9244923B2 (en) Hypervideo browsing using links generated based on user-specified content features
JP5537557B2 (ja) 事象毎に意味論的に分類する方法
US8750681B2 (en) Electronic apparatus, content recommendation method, and program therefor
US20120082378A1 (en) method and apparatus for selecting a representative image
JP2008533580A (ja) オーディオ及び/又はビジュアルデータの要約
US20110029510A1 (en) Method and apparatus for searching a plurality of stored digital images
CN111062871A (zh) 一种图像处理方法、装置、计算机设备及可读存储介质
US20110243452A1 (en) Electronic apparatus, image processing method, and program
CN109271542A (zh) 封面确定方法、装置、设备及可读存储介质
KR20090010855A (ko) 인물 별로 디지털 컨텐츠를 분류하여 저장하는 시스템 및방법
KR101777238B1 (ko) 영상 트렌드 검출 및 큐레이션을 위한 방법 및 시스템
JPWO2007091587A1 (ja) 代表画像又は代表画像群の表示システム、その方法、およびそのプログラム並びに、代表画像又は代表画像群の選択システム、その方法およびそのプログラム
US10210257B2 (en) Apparatus and method for determining user attention using a deep-content-classification (DCC) system
JP6389296B1 (ja) 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
US20110044530A1 (en) Image classification using range information
CN111078915A (zh) 一种点读模式下的点读内容获取方法及电子设备
JP2006217046A (ja) 映像インデックス画像生成装置及び映像のインデックス画像を生成するプログラム
JP4270118B2 (ja) 映像シーンに対する意味ラベル付与方法及び装置及びプログラム
JP6794740B2 (ja) プレゼンテーション資料生成装置、プレゼンテーション資料生成システム、コンピュータプログラム及びプレゼンテーション資料生成方法
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP2011100240A (ja) 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム
JP2008146490A (ja) 情報提供装置、情報提供方法、及びコンピュータプログラム
JP2018170001A (ja) 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
JP6034702B2 (ja) 画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090604

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090617

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130710

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees