JP2009123020A - 情報処理装置、情報処理方法、プログラム及び記憶媒体 - Google Patents

情報処理装置、情報処理方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
JP2009123020A
JP2009123020A JP2007297197A JP2007297197A JP2009123020A JP 2009123020 A JP2009123020 A JP 2009123020A JP 2007297197 A JP2007297197 A JP 2007297197A JP 2007297197 A JP2007297197 A JP 2007297197A JP 2009123020 A JP2009123020 A JP 2009123020A
Authority
JP
Japan
Prior art keywords
image
person
information processing
representative image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007297197A
Other languages
English (en)
Inventor
Kenichi Abe
健一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007297197A priority Critical patent/JP2009123020A/ja
Publication of JP2009123020A publication Critical patent/JP2009123020A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 メタデータから得られる情報を利用し、画像の集合の中から適切な代表画像の選定を行なうこと。
【解決手段】 情報処理方法は、メモリに格納されている複数の画像のそれぞれに設定されているメタデータに基づいて、複数の画像を分類するためのカテゴリを取得し、複数の画像をカテゴリに従った画像の集合に分類する。画像の集合を構成するそれぞれの画像について、画像中に含まれる人物を示す人物領域を抽出し、画像に占める人物領域の割合に基づき、代表画像としての適合度を示す代表画像スコアをカテゴリに応じて算出し、算出結果に基づいてカテゴリに対応した代表画像を選定する。
【選択図】 図7

Description

本発明は、メタデータから得られる情報を利用し、画像の集合の中から適切な代表画像の選定を行なう情報処理技術に関する。
近年、デジタルカメラやデジタルビデオ、画像を格納するに十分な容量の記憶媒体の普及により、一般のユーザが簡単に画像を収集し編集することができるようになっている。このような状況においては、膨大な数の画像から参照した画像を効率よく探すための手段が不可欠である。このために、画像の集合の中からその画像集合を最も良く表す画像を代表画像としてユーザに提示する機能が広く使用されている。
特許文献1は、動画像から代表画像を選定する処理を実行する構成を開示している。特許文献1では、画像に写っている人物の顔の向きを判定し、正面を向いている度合いの大きいものを高評価として代表画像を決定する。
特開2004−361989号公報
通常、メタデータは、撮影した日付・時刻・場所等の情報、撮影時のイベント名・被写体となっている人物名、印刷指示情報等があり、撮影機器が自動で付与或いはユーザによって任意の情報を撮影後に付与される。また、画像に付与されるメタデータとは別に様々なメタデータを画像に関連付けて記憶し、関連づけられたメタデータを基に画像を分類する、あるいは画像を検索することで大量の画像をより効率よく扱うことが可能である。
しかしながら、特許文献1の手法では、画像にメタデータが付与されていた場合の利点を生かすことができない。
そこで、本発明は、メタデータから得られる情報を利用し、画像の集合の中から適切な代表画像の選定を可能にする情報処理技術の提供を目的とする。
本発明に係る情報処理装置は、記憶手段に格納されている複数の画像のそれぞれに設定されているメタデータに基づいて、前記複数の画像を分類するためのカテゴリを取得する取得手段と、
前記複数の画像を前記カテゴリに従った画像の集合に分類する分類手段と、
前記画像の集合を構成するそれぞれの画像について、当該画像に含まれる人物を示す人物領域を抽出する抽出手段と、
前記画像に占める前記人物領域の割合に基づき、代表画像としての適合度を示す代表画像スコアを前記カテゴリに応じて算出する算出手段と、
前記算出手段による算出結果に基づいて、前記カテゴリに対応した代表画像を選定する選定手段と、を備えることを特徴とする。
本発明によれば、メタデータから得られる情報を利用し、画像の集合の中から適切な代表画像の選定を行なうことが可能になる。
以下、図面を参照して、本発明の好適な実施形態を例示的に詳しく説明する。ただし、この実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。
図1は、本発明の実施形態にかかる情報処理装置の構成を示すブロック図である。図1において、マイクロプロセッサ(CPU)11は、代表画像を選定するための演算、論理判断等を行なう。また、マイクロプロセッサ(CPU)11は、アドレスバスAB、コントロールバスCB、データバスDBを介して、それらのバスに接続された各構成要素を制御する。
アドレスバスABは、CPU11が制御の対象とする構成要素を指定するためのアドレス信号を転送する。コントロールバスCBは、CPU11が制御の対象とする各構成要素に対してCPU11から印加されるコントロール信号を転送する。データバスDBは、各構成要素相互間のデータ転送を行なう。
読出し専用の固定メモリROM12は、本実施形態で実行される処理プログラム等の制御プログラムコードを記憶する。書き込み可能なランダムアクセスメモリRAM13は、各構成要素から送られた各種データの一時記憶に用いられる。外部メモリ(DISK)14には、文書要約処理を実行するプログラムコード等、各種アプリケーションプログラムが格納される。
キーボード(KB)15は、アルファベットキー、ひらがなキー、カタカナキー、句読点等の文字記号入力キー、カーソル移動を支持するカーソル移動キー等の各種の機能キーを備えている。表示用ビデオメモリ(VRAM)16は、表示すべきデータの表示パターンを蓄える。CRTコントローラ(CRTC)17は、表示用ビデオメモリ(VRAM)16に蓄えられた内容を後述の表示装置(CRT)18に表示する役割を担う。陰極線管、液晶パネル等の表示装置(CRT)18には、ドット構成の表示パターン及びカーソルが、CRTコントローラ(CRTC)17による制御によって表示される。
ネットワークコントローラ(NIC)19は、情報処理装置をEthernet(登録商標)などのネットワークに接続する役割を担う。
かかる各構成要素からなる情報処理装置は、キーボード(KB)15からの各種の入力及びネットワークコントローラ(NIC)19から供給されるネットワーク経由の各種の入力に応じて作動する。キーボード(KB)15からの入力またはネットワークコントローラ(NIC)19からの入力が供給されると、まず、インタラプト信号がマイクロプロセッサ(CPU)11に送られる。マイクロプロセッサ(CPU)11は、外部メモリ(DISK)14内に記憶してある各種の制御信号を読み出し、それらの制御信号に従って各種の制御が行われる。
図2は、画像表示例を示す図である。この画像表示例は、ユーザがフォルダ等の管理単位を指定し、同フォルダ内で管理されている複数の画像データの一覧表示を指示することで実行される。
図示された一覧表示では、9枚の代表画像を3つの列に分けて表示している。それぞれの行は、他の行とは異なった観点で画像が選定され、それぞれソートされた結果を表示している。各観点に含まれる画像は他の観点にも含まれる可能性があり、観点の分類は各画像に付与されているメタデータにより行われる。
200は、CRT18上に表示される画像の一覧表示画面である。
201は、その行に格納されている画像がどの観点により分類ソートされているかを表示する表示領域である。この行の観点は「人物」であり、画像が人物名によってソートされ、同じ名前の人物が写っている画像の中から1枚の代表画像が選ばれ表示される。
202は、代表画像203に写っている人物名を表示する。202は「○○太郎」という名前の人物が写っている画像集合であることを示す。202にはリンクが張ってあり、リンク先には、図3のように「○○太郎」が被写体となっている全ての画像が格納されている。203は、「○○太郎」が被写体となっている画像集合の中から最も良く人物を判定しやすい画像として選定された代表画像である。204は、同様に、「△△次郎」という人物を示す代表画像である。
205は、この行に表示されている画像が「イベント」という観点に基づいて分類、ソートされていることを表示する表示領域である。206は、「誕生会」を示す画像集合の代表画像である。
同様に、207は、この行に表示されている画像が「場所」という観点に基づき分類、ソートされていることを示す表示領域である。
「人物」を示す観点に格納される代表画像は人物がはっきりと視認できる画像を選定する必要があり、「イベント」を示す観点に格納される代表画像はイベントの全体像が把握できる画像であることが望ましい。
図3は、図2における「○○太郎」202が被写体となっている全ての画像を表示する表示部の例である。「○○太郎」202に設定されているリンクをマウスポインタでクリックする、或いは代表画像203をダブルクリックすると、図3に示す一覧表示画面に到達する。
301は、人物が被写体となっている全ての画像がCRT18上に表示される一覧表示画面である。302は、人物名を示す表示領域であり、一覧表示されている画像のメタデータには「○○太郎」という人物の情報が付与されていることを示す。303は、「○○太郎」が非常に小さく写っている画像の一例である。304は、「○○太郎」が大きく写っている画像の一例である。
図2の代表画像203は、人物を観点として選定されているため、一覧表示画面301に含まれている全ての画像の中から最も「○○太郎」という人物が見やすい画像を選ぶ必要がある。例えば、画像303と画像304を比較した場合、画像303では人物領域が小さく人物の判定がしづらい。画像304は人物領域が大きく人物の確認がしやすい。本実施形態にかかる情報処理装置は、図2の203に表示される代表画像として画像303ではなく画像304のような人物を視認しやすい画像を選定する。
本実施形態では、人物の観点で表示される代表画像の選定基準に人物領域の大きさを使用しているが、本発明の趣旨はこれに限定されるものではない。例えば、人物の表示領域の輝度が低いもの、顔領域に影のあるもの、焦点距離が遠いものなどは代表画像として選定しないなどの観点から、人物を視認しやすい画像を選定することも可能である。
図4は、図2の「イベント」の観点により分類された「誕生会」をイベント情報として含む全ての画像の一覧表示画面である。
図2の「誕生会」に設定されているリンクをマウスポインタでクリックする、或いは「誕生会」の代表画像206をダブルクリックすると、図4の一覧表示画面に到達する。
401は、メタデータに402にイベント情報を有する全ての画像がCRT18上に表示される一覧表示画面である。402は、イベント名を示す表示領域であり、一覧表示されている画像のメタデータには「誕生会」というイベントの情報が付与されていることを示す。403は、「誕生会」において人物が非常に大きく写っている画像の一例である。404は、「誕生会」において人物とケーキが写っている画像の一例である。
図2の代表画像206は、「イベント」を観点として選定されているため、一覧表示画面401に含まれている全ての画像の中から最も何のイベントであるかわかりやすい画像を選ぶ必要がある。例えば、画像403と画像404を比較した場合、画像403では人物領域が大部分を占めておりイベントの判定がしづらい。画像404は遠景になっておりイベントの確認がしやすい。本実施形態にかかる情報処理装置は、図2の206に表示される代表画像として画像403ではなく画像404のようなイベントの内容を確認しやすい画像を選定する。
図5は、図2で示した画像データに関連付けられて記憶されているメタデータ情報を例示的に示す図である。
メタデータには、<撮影日>、<撮影時間>、<撮影場所>、<被写体>、<イベント>などの情報が格納されており、これらの情報を用いて観点の分類を行なうことが可能である。
501は、画像に付与されているメタデータの例であり、図3の画像304に付与されているメタデータを例示的に示すものである。これらのデータにより、「人物」の観点では「○○太郎」に、「イベント」の観点では「国内旅行」に、「撮影場所」の観点では「富士裾野」に分類される。
502は、図4の画像404に付与されているメタデータを例示的に示すものである。これらのデータにより、この画像は「人物」の観点では「△△次郎」に、「イベント」の観点では「誕生会」に、「撮影場所」の観点では「自宅」に分類される。
図6は、代表画像の選定方法の処理の流れを説明するフローチャートであり、本処理は、CPU11の全体的な制御の下に実行される。代表画像の選定方法において、図2乃至図4で説明したように観点によって適切な代表画像を選定するために、分類するべき観点に応じて異なる代表画像選定ルールを適用することが可能である。
ステップS601において、代表画像を選定し、表示するために、CPU11は、画像集合を分類するカテゴリ(観点)を取得する。CPU11は、RAM13または外部メモリ(DISK)14に格納されている複数の画像(画像集合)の中から、各画像に設定されているメタデータに基づき、複数の画像を分類するカテゴリを取得する。ここで、カテゴリ(観点)の例として、被写体として特定される「人物」、被写体に関連した「イベント」、被写体の「撮影場所」の3つとして、以下、代表画像の選定処理を説明する。
ステップS602において、CPU11は、S601で取得されたカテゴリ(観点)が「人物」を示すカテゴリ(観点)であるか判定する。「人物」を示すカテゴリ(観点)であればステップS603に進み、「人物」を示すカテゴリ(観点)でなければステップS604に処理を進める。
ステップS603において、CPU11は、画像集合を分類するカテゴリ(観点)が「人物」の場合の代表画像選定処理を実行する。本ステップの詳細は後述する。
ステップS604において、CPU11は、S601で取得された画像集合を分類するカテゴリ(観点)が「イベント」であるか判定する。カテゴリ(観点)が「イベント」であればステップS605に進み、「イベント」を示すカテゴリ(観点)でなければステップS606に処理を進める。
ステップS605において、CPU11は、画像集合を分類するカテゴリ(観点)が「イベント」の場合の代表画像選定処理を実行する。本ステップの詳細は後述する。
ステップS606において、CPU11は、画像集合を分類するカテゴリ(観点)が「撮影場所」の場合の代表画像選定処理を実行する。本ステップの詳細は後述する。
(カテゴリ(観点)が「人物」の場合の代表画像選定処理1)
図7は、カテゴリ(観点)が「人物」の場合の代表画像選定処理1(図6のS603)の流れを説明するフローチャートである。本処理は、CPU11の全体的な制御に下に実行される。ここでは、全ての画像に対して被写体となっている人物毎に分類を行い、それぞれの人物の代表画像を選定する処理を説明する。
ステップS701において、CPU11は、全ての画像に対して被写体となっている人物を特定する。被写体となる人物は、例えば、図5のメタデータ内の<被写体>タグから得られる。また、たとえ<被写体>タグに記載されていない人物であっても、例えば<メモ>等のメタデータに対して言語的な解析を行い、CPU11は、被写体となる人物を抽出することもできる。
ステップS702において、CPU11は、ステップS701で特定された人物ごとに画像を分類する。CPU11は、分類された人物ごとに代表画像を選定する。
ステップS703において、CPU11は、ステップS702で分類された人物ごとの画像集合から先頭の画像を入力(セット)する。
ステップS704において、CPU11は、セットされた画像から人物領域を抽出する。
ステップS705において、CPU11は、ステップS704で人物領域が検出されたか否かを判定する。人物領域が検出されなかった場合、カテゴリ(観点)を「人物」とする代表画像としてふさわしくないので、その画像は、代表画像の候補から除外される。そして、ステップS708に処理を進め、次の画像のについて人物領域が含まれているか否かの判定を行なう。S705の判定で人物領域が検出された場合、S706に処理を進める。
ステップS706において、CPU11は、人物領域が検出された画像に対して、代表画像としての適合度を示す代表画像スコアを算出する。画像中に占める人物領域の割合が大きくなるのに応じて、大きい値の代表画像スコアが算出される。本実施形態では、人物の観点で表示される代表画像スコアの基準に人物領域の比率を使用しているが、本発明の趣旨はこの例に限定されるものでないことはいうまでもない。例えば、人物領域の輝度が低いもの、人物領域(顔領域)に影のあるもの、焦点距離が遠いものなどは、代表画像スコアを小さくするなどの方法により人物が視認しやすい画像を選定することも可能である。また、人物領域の輝度が高いもの、焦点距離が近いものなどは、輝度や焦点距離に応じて代表画像スコアを大きくすることも可能である。
ステップS707において、CPU11は、先のS706の処理により代表画像スコアが計算された画像を代表画像候補に追加する。
ステップS708において、CPU11は、全ての画像が検査し終わったかどうかを判定する。全ての画像が調査済みならばステップS709へ進み、そうでなければステップS710へ進み次の画像をセットして、S704以降の処理を同様に実行する。ステップS704からS710を繰り返すことによって、それぞれの人物に分類される全ての画像から代表画像スコアを持つ代表画像候補が選定される。
ステップS709において、CPU11は、代表画像スコアの算出結果に基づき、代表画像候補の中から最も代表候補スコアの高いものを該当する人物の代表画像として選定する。
ステップS711において、CPU11は、ステップS702で分類された全ての人物に対して代表画像の選定が終了したか否か判定する。全ての人物に対して代表画像の選定が終了していない場合は、S703に処理を戻し、次の人物に対する画像集合から代表画像を選定する処理を実行する。S711の判定で、全ての人物に対して、代表画像の選定が終了した場合は、処理を終了する。このようにして選定された人物の代表画像は、図2の代表画像203や代表画像204に示すように人物領域が大きく人物の確認に適した画像となる。
(カテゴリが「イベント」、「撮影場所」の場合の代表画像選定処理2、3)
図8は、カテゴリ(観点)が「イベント」、「撮影場所」の場合の代表画像選定処理2、3(S605、S606)の流れを説明するフローチャートである。本処理は、CPU11の全体的な制御に下に実行される。
ステップS801において、CPU11は、画像集合から先頭の画像を入力(セット)する。
ステップS802において、CPU11は、セットされた画像から人物領域を抽出する。
ステップS803において、CPU11は、代表画像としての適合度を示す代表画像スコアを計算する。ステップS802で抽出された人物領域が画像全体に占める割合が大きくなるのに応じて、小さい値の代表画像スコアが算出される。画像中に占める人物領域の割合が予め定められた閾値を超える場合、画像を代表画像の候補から除外される。
代表画像選定処理2、3(S605、S606)は、基本的には、図8のフローチャートに従った同様の処理の流れとなる。閾値の設定や人物領域の占有面積が画像全体に占める割合等に応じて、代表画像スコアを代表画像選定処理2と、代表画像選定処理3と、で異なるように算出する。例えば、人物領域が全く含まれない画像に関しては、代表画像選定処理3における代表画像スコアを代表画像選定処理2における代表画像スコアよりも高くすることで、撮影場所を表示するのにより適した代表画像を選定することが可能になる。
また、代表画像スコアの算出において、人物領域が画像全体に対してA%以下の場合、代表画像選定処理2における代表画像スコアをa2、代表画像選定処理3における代表画像スコアをa3とする。また、人物領域が画像全体に対してA%より大きい場合、代表画像選定処理2における代表画像スコアをb2、代表画像選定処理3における代表画像スコアをb3とするなど、代表画像スコアの算出処理を切り替えることも可能である。
ステップS804において、CPU11は、全ての画像に対して、人物領域の抽出と、代表画像スコアの計算処理とが終了したか判定し、処理が終了していない場合は、ステップS806に処理を進め、次の画像をセットする。そして、CPU11は、処理をステップS802に進め、セットされた画像に対して、S802以降の処理を同様に実行する。
S804の判定で、全ての画像の処理が終了している場合には、ステップS805において、CPU11は、代表画像候補の中から最も代表候補スコアの高いものを代表画像として選定する。このようにして選定された代表画像は、図2の代表画像206に示すように人物領域が大きすぎずイベントや撮影場所の確認に適した画像となる。
図8に示した処理において、代表画像スコアの計算には、人物領域の大きさを利用したが、人物領域以外のオブジェクトの大きさを利用しても良い。また、メタデータから焦点距離を取得して代表画像スコアに加味してもよい。以上説明した手順を経ることにより、画像の集合のうち、各画像に設定されているメタデータから得られたカテゴリ(観点)に分類し、各カテゴリ(観点)に応じた代表画像を選定することができる。
上述した実施形態においては、デジタルカメラ等で撮影された静止画像を対象としていたが、デジタルビデオカメラ等で撮影された動画像におけるフレーム画像を対象とすることも可能である。この場合、各フレーム画像をカテゴリに分類し、それぞれのカテゴリに応じた代表画像スコアを算出することで、代表画像に対応するフレーム画像を選定することが可能になる。
代表画像スコアの算出は、図6乃至図8と同様に、分類されたカテゴリ、人物領域の面積、人物領域の輝度または焦点距離に基づき、代表画像スコアの算出処理を切り替えることが可能である。
本実施形態によれば、メタデータから得られる情報を利用し、画像の集合の中から適切な代表画像の選定を行なうことが可能になる。
(他の実施形態)
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録したコンピュータ可読の記憶媒体を、システムあるいは装置に供給することによっても、達成されることは言うまでもない。また、システムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される。また、プログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態が実現される場合も含まれることは言うまでもない。
本発明の実施形態にかかる情報処理装置の構成を示すブロック図である。 本発明の実施形態に係る画像表示例を示す図である。 本発明の実施形態に係る画像表示例を示す図である。 本発明の実施形態に係る画像表示例を示す図である。 画像データに関連付けられて記憶されているメタデータ情報を例示的に示す図である。 代表画像の選定方法の処理の流れを説明するフローチャートである。 カテゴリが「人物」の場合の代表画像選定処理1の流れを説明するフローチャートである。 カテゴリが「イベント」、「撮影場所」の場合の代表画像選定処理2、3の流れを説明するフローチャートである。
符号の説明
11 CPU
12 ROM
13 RAM
14 外部メモリ
15 キーボード(KB)
16 表示用ビデオメモリ(VRAM)
17 CRTコントローラ(CRTC)
18 表示装置(CRT)
19 ネットワークコントローラ(NIC)

Claims (18)

  1. 記憶手段に格納されている複数の画像のそれぞれに設定されているメタデータに基づいて、前記複数の画像を分類するためのカテゴリを取得する取得手段と、
    前記複数の画像を前記カテゴリに従った画像の集合に分類する分類手段と、
    前記画像の集合を構成するそれぞれの画像について、当該画像に含まれる人物を示す人物領域を抽出する抽出手段と、
    前記画像に占める前記人物領域の割合に基づき、代表画像としての適合度を示す代表画像スコアを前記カテゴリに応じて算出する算出手段と、
    前記算出手段による算出結果に基づいて、前記カテゴリに対応した代表画像を選定する選定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記算出手段は、前記取得手段で取得された前記カテゴリに応じて、前記代表画像スコアの算出処理を切り替えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記選定手段は、前記算出手段により算出された最も大きい値の代表画像スコアの画像を前記代表画像として選定することを特徴とする請求項1に記載の情報処理装置。
  4. 前記カテゴリには、被写体として特定される人物、前記被写体に関連したイベント、前記被写体の撮影場所が含まれることを特徴とする請求項1または請求項2に記載の情報処理装置。
  5. 前記被写体として特定される人物のカテゴリに分類された画像に対して、前記算出手段は、前記画像に占める前記人物領域の割合が大きくなるのに応じて、大きい値の代表画像スコアを算出することを特徴とする請求項4に記載の情報処理装置。
  6. 前記被写体に関連したイベントまたは前記被写体の撮影場所に分類された画像に対して、前記算出手段は、前記画像に占める前記人物領域の割合が大きくなるのに応じて、小さい値の代表画像スコアを算出することを特徴とする請求項4に記載の情報処理装置。
  7. 前記被写体として特定される人物のカテゴリに分類された画像に関して前記人物領域が抽出されない場合、前記抽出手段は、前記画像を代表画像の候補から除外することを特徴とする請求項4に記載の情報処理装置。
  8. 前記被写体に関連したイベントまたは前記被写体の撮影場所に分類された画像に関して、前記画像に占める前記人物領域の割合が予め定められた閾値を超える場合、前記抽出手段は、前記画像を代表画像の候補から除外することを特徴とする請求項4に記載の情報処理装置。
  9. 取得手段が、記憶手段に格納されている複数の画像のそれぞれに設定されているメタデータに基づいて、前記複数の画像を分類するためのカテゴリを取得する取得工程と、
    分類手段が、前記複数の画像を前記カテゴリに従った画像の集合に分類する分類工程と、
    抽出手段が、前記画像の集合を構成するそれぞれの画像について、当該画像に含まれる人物を示す人物領域を抽出する抽出工程と、
    算出手段が、前記人物領域に対して、代表画像としての適合度を示す代表画像スコアを前記カテゴリに応じて算出する算出工程と、
    選定手段が、前記算出手段による算出結果に基づいて、前記カテゴリに対応した代表画像を選定する選定工程と、
    を備えることを特徴とする情報処理方法。
  10. 前記算出工程では、前記取得工程で取得された前記カテゴリに応じて、前記代表画像スコアの算出処理を切り替えることを特徴とする請求項9に記載の情報処理方法。
  11. 前記選定工程では、前記算出工程により算出された最も大きい値の代表画像スコアの画像を前記代表画像として選定することを特徴とする請求項9に記載の情報処理方法。
  12. 前記カテゴリには、被写体として特定される人物、前記被写体に関連したイベント、前記被写体の撮影場所が含まれることを特徴とする請求項9または請求項10に記載の情報処理方法。
  13. 前記被写体として特定される人物のカテゴリに分類された画像に対して、前記算出工程では、前記画像に占める前記人物領域の割合が大きくなるのに応じて、大きい値の代表画像スコアを算出することを特徴とする請求項12に記載の情報処理方法。
  14. 前記被写体に関連したイベントまたは前記被写体の撮影場所に分類された画像に対して、前記算出工程は、前記画像に占める前記人物領域の割合が大きくなるのに応じて、小さい値の代表画像スコアを算出することを特徴とする請求項12に記載の情報処理方法。
  15. 前記被写体として特定される人物のカテゴリに分類された画像に関して前記人物領域が抽出されない場合、前記抽出工程では、前記画像を代表画像の候補から除外することを特徴とする請求項12に記載の情報処理方法。
  16. 前記被写体に関連したイベントまたは前記被写体の撮影場所に分類された画像に関して、前記画像に占める前記人物領域の割合が予め定められた閾値を超える場合、前記抽出工程では、前記画像を代表画像の候補から除外することを特徴とする請求項12に記載の情報処理方法。
  17. 請求項9乃至請求項16のいずれか1項に記載の情報処理方法をコンピュータに実行させることを特徴とするプログラム。
  18. 請求項17に記載のプログラムを格納したことを特徴とするコンピュータ可読の記憶媒体。
JP2007297197A 2007-11-15 2007-11-15 情報処理装置、情報処理方法、プログラム及び記憶媒体 Withdrawn JP2009123020A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007297197A JP2009123020A (ja) 2007-11-15 2007-11-15 情報処理装置、情報処理方法、プログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007297197A JP2009123020A (ja) 2007-11-15 2007-11-15 情報処理装置、情報処理方法、プログラム及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2009123020A true JP2009123020A (ja) 2009-06-04

Family

ID=40815092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007297197A Withdrawn JP2009123020A (ja) 2007-11-15 2007-11-15 情報処理装置、情報処理方法、プログラム及び記憶媒体

Country Status (1)

Country Link
JP (1) JP2009123020A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152697A (ja) * 2007-12-18 2009-07-09 Canon Inc 撮像装置、画像処理装置、撮像装置の制御方法、画像処理装置の制御方法及びプログラム
JP2011108242A (ja) * 2009-11-17 2011-06-02 Nhn Corp 利用者の要求に応じて動的にもっとも適したイメージを抽出して提供するための方法、システム及びコンピューター判読可能な記録媒体
KR101734860B1 (ko) * 2014-12-31 2017-05-12 시아오미 아이엔씨. 화상들을 분류하기 위한 방법 및 디바이스
US9779294B2 (en) 2014-12-31 2017-10-03 Xiaomi Inc. Methods and devices for classifying pictures
US9865267B2 (en) 2015-06-30 2018-01-09 Baidu Online Network Technology (Beijing) Co., Ltd. Communication method, apparatus and system based on voiceprint
WO2019026392A1 (ja) * 2017-07-31 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152697A (ja) * 2007-12-18 2009-07-09 Canon Inc 撮像装置、画像処理装置、撮像装置の制御方法、画像処理装置の制御方法及びプログラム
JP2011108242A (ja) * 2009-11-17 2011-06-02 Nhn Corp 利用者の要求に応じて動的にもっとも適したイメージを抽出して提供するための方法、システム及びコンピューター判読可能な記録媒体
KR101734860B1 (ko) * 2014-12-31 2017-05-12 시아오미 아이엔씨. 화상들을 분류하기 위한 방법 및 디바이스
US9779294B2 (en) 2014-12-31 2017-10-03 Xiaomi Inc. Methods and devices for classifying pictures
US9865267B2 (en) 2015-06-30 2018-01-09 Baidu Online Network Technology (Beijing) Co., Ltd. Communication method, apparatus and system based on voiceprint
WO2019026392A1 (ja) * 2017-07-31 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11386870B2 (en) 2017-07-31 2022-07-12 Sony Corporation Information processing apparatus and information processing method

Similar Documents

Publication Publication Date Title
US10810454B2 (en) Apparatus, method and program for image search
CN100481089C (zh) 信息检索装置
EP2763139A1 (en) Electronic device and image composition method thereof
US8094935B2 (en) Representative color extracting method and apparatus based on human color sense and data histogram distributions
CN111260666B (zh) 图像处理方法及装置、电子设备、计算机可读存储介质
CN116382554A (zh) 移动设备上的改进的拖放操作
JP2011029737A (ja) 監視映像検索装置及び監視システム
CN111241340A (zh) 视频标签确定方法、装置、终端及存储介质
JP2009123020A (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
CN111711869B (zh) 一种标签数据处理方法、装置以及计算机可读存储介质
KR20120069699A (ko) 정보 표시 장치
CN110727816A (zh) 兴趣点类别确定方法和装置
JP3312105B2 (ja) 動画像インデックス生成方法および生成装置
US20220044147A1 (en) Teaching data extending device, teaching data extending method, and program
CN111967490A (zh) 用于地图检测的模型训练方法和地图检测方法
CN109408652B (zh) 一种图片搜索方法、装置及设备
JP4650293B2 (ja) 画像分類表示装置及び画像分類表示プログラム
CN110378241B (zh) 作物生长状态监控方法、装置、计算机设备及存储介质
KR20140134154A (ko) 이미지에서 객체를 추출하기 위한 방법 및 단말기
JP2010211262A (ja) 画像検索用情報表示装置
JP7098897B2 (ja) 画像処理装置、プログラム及び画像データ
JP2010146581A (ja) 人物画像検索装置
CN111291756A (zh) 图像中文本区域的检测方法、装置、计算机设备及计算机存储介质
JP2004185343A (ja) ファイル閲覧装置、ファイル閲覧方法、ファイル閲覧プログラムおよび記憶媒体
JP2021036388A (ja) データ構造及び画像処理装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110201