JP2010118868A - 情報処理装置およびその制御方法 - Google Patents

情報処理装置およびその制御方法 Download PDF

Info

Publication number
JP2010118868A
JP2010118868A JP2008290322A JP2008290322A JP2010118868A JP 2010118868 A JP2010118868 A JP 2010118868A JP 2008290322 A JP2008290322 A JP 2008290322A JP 2008290322 A JP2008290322 A JP 2008290322A JP 2010118868 A JP2010118868 A JP 2010118868A
Authority
JP
Japan
Prior art keywords
image
frame
face
time
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008290322A
Other languages
English (en)
Other versions
JP5483863B2 (ja
JP2010118868A5 (ja
Inventor
Hidetomo Soma
英智 相馬
Hiroshi Tojo
洋 東條
Satoru Yashiro
哲 八代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008290322A priority Critical patent/JP5483863B2/ja
Priority to US12/613,052 priority patent/US8866900B2/en
Publication of JP2010118868A publication Critical patent/JP2010118868A/ja
Publication of JP2010118868A5 publication Critical patent/JP2010118868A5/ja
Application granted granted Critical
Publication of JP5483863B2 publication Critical patent/JP5483863B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】時系列に並んだ複数のフレーム画像を含む動画像データからより適切な代表フレーム画像を抽出する。
【解決手段】情報処理装置において、動画像データを入力する入力手段と、入力された動画像データから所定の画像パターンに類似する画像を含むフレーム画像を検出する検出手段と、検出されたフレーム画像に含まれる画像と類似する画像を含むフレーム画像を、検出されたフレーム画像の前後にあるフレーム画像から検出する追跡手段と、検出された連続したフレーム画像を画像シーケンスとして決定し、当該画像シーケンスに対応する前記動画像データ内における時間情報と関連付けて記憶する記憶手段と、1以上の画像シーケンスの各々の開始時刻および終了時刻を分割タイミングとして動画像データを複数の時間区間に分割する分割手段と、複数の時間区間の各々について代表フレーム画像を抽出する抽出手段と、を備える。
【選択図】図9

Description

本発明は、動画像データから当該動画像データに含まれる映像を端的に表す代表フレームを抽出する技術に関するものである。
近年、デジタルカメラや、デジタルビデオカムコーダ等の普及により、個人でも大量の静止画や動画を撮影するようになってきている。一般に、動画データはデータ量が膨大であり、かつ、静止画と異なり時間軸が加わっているため、その中の内容を簡単に把握することは難しい。そのため、内容の概略を知りたい場合や所望のシーンを探す場合には、例えば、利用者が機器を操作して早回しや巻き戻しなどを行っていた。そこで、動画の内容を短時間で把握するために、動画内のフレームの中から、動画の内容を良く示すような適切なフレームを選択し、これを動画の内容を示す情報として扱う、代表フレームの抽出に関する技術が提案されている。
ところで、一般の家庭で、購入・利用されているデジタルカメラは子供の成長の記録など、家庭内のイベントや出来事などを記録するために用いられることが多いという傾向がある。そのため、撮影される被写体は人物であることが多い。
したがって、このようなホームビデオで動画の内容把握を行いたい場合には、誰が登場人物であるかという情報がわかるような動画内のフレームを、代表画像として選ぶことが、非常に重要となる。また、家庭内のイベントや出来事などが主な対象なので、複数の登場人物がいる場合には、その人物が同時に写っていたという情報もあるほうが好ましい。
そこで、特許文献1では、動画に映っている人物に着目し、人物の構成が変化した場合に動画のシーンを分割する。その際に、人物の構成を示す情報をシーンのそれぞれに付与し、その人物の構成情報をインデックス化する技術が開示されている。そして、この人物の構成を示す情報を利用することによりシーンを検索することが出来る。
また、特許文献2では、オブジェクトの統計的な特徴に基づいた代表フレームの抽出技術が開示されている。これは、検出したいオブジェクトの画像を予め学習させておき、所定の方法でオブジェクトごとに辞書を用いて評価値を求め、フレーム単位で求めた各オブジェクトの評価値に基づいて動画インデックスを生成している。さらに、特許文献3では、会議中の撮影対象である話し手の顔の画像と、話した音声情報の時間区間(タイムライン)を関係付けて利用する技術が開示されている。
特開2005−101906号公報 特許第3312105号 特開2006−129480号公報
しかしながら、例えば特許文献1に記載の技術では、フレームごとに顔検出し、その結果のみに基づいて代表画像を抽出するため、動いている被写体の場合、顔検出に失敗する可能性がある。つまり、必ずしも顔がカメラの方向を向いているわけではないので、被写体となる人物がいても検出できない場合がある。このような現象は、特に子供が被写体の場合などに顕著である。また、複数の被写体がいる場合などでも向き合って話したりすることが多く、比較的発生しやすい現象となる。その結果、同一の人物が連続して撮影されていても、ある時その人物の検出に失敗すると、そこで構成が変化したと判断され、同一の登場人物について、何度も代表フレームが作成されてしまうという問題が生じてしまう。
また、フレームごとの評価値のみを用いるため、主要でない人物であっても、一瞬でもフレームの真ん中に大きく写るなどしていれば、評価値が高くなり、代表画像として抽出されてしまう。また、多数の類似した代表フレームが抽出され、これをインデックスとした場合冗長になるという問題がある。さらに、複数の人物に対する撮影区間が互いに重なっている場合について考慮していないため、2人が会話しているような場面からも2枚の代表画像が抽出されてしまい冗長になる。なおかつ、顔領域のみを切り出しているので、2人が会話している状況も把握できない。その結果、利用者は動画を内容を適切に把握することが出来なくなってしまう場合があった。
本発明は上述の問題に鑑みなされたものであり、動画像データから当該動画像データの内容をより適切に表現している代表フレーム画像を抽出可能とする技術を提供することを目的とする。
上述の1以上の問題点を解決するため本発明の情報処理装置は以下の構成を備える。すなわち、情報処理装置において、時系列に並んだ複数のフレーム画像を含む動画像データを入力する入力手段と、入力された動画像データから所定の画像パターンに類似する画像を含むフレーム画像を検出する検出手段と、前記検出手段により検出されたフレーム画像に含まれる前記画像と類似する画像を含むフレーム画像を、前記検出されたフレーム画像の前後にあるフレーム画像から検出する追跡手段と、前記追跡手段により検出された連続したフレーム画像を画像シーケンスとして決定し、当該画像シーケンスに対応する前記動画像データ内における時間情報と関連付けて記憶する記憶手段と、前記記憶手段に記憶された1以上の画像シーケンスの各々の開始時刻および終了時刻を分割タイミングとして、前記動画像データを複数の時間区間に分割する分割手段と、前記複数の時間区間の各々について代表フレーム画像を抽出する抽出手段と、を備える。
上述の1以上の問題点を解決するため本発明の情報処理装置の制御方法は以下の構成を備える。すなわち、時系列に並んだ複数のフレーム画像を含む動画像データから1以上の代表フレーム画像を抽出する情報処理装置の制御方法において、動画像データを入力する入力工程と、入力された動画像データから所定の画像パターンに類似する画像を含むフレーム画像を検出する検出工程と、前記検出工程により検出されたフレーム画像に含まれる前記画像と類似する画像を含むフレーム画像を、前記検出されたフレーム画像の前後にあるフレーム画像から検出する追跡工程と、前記追跡工程により検出された連続したフレーム画像を画像シーケンスとして決定し、当該画像シーケンスに対応する前記動画像データ内における時間情報と関連付けて記憶部に記憶する記憶工程と、前記記憶部に記憶された1以上の画像シーケンスの各々の開始時刻および終了時刻を分割タイミングとして、前記動画像データを複数の時間区間に分割する分割工程と、前記複数の時間区間の各々について代表フレーム画像を抽出する抽出工程と、を備える。
本発明によれば、動画像データから当該動画像データの内容をより適切に表現している代表フレーム画像を抽出可能とする技術を提供することができる。
以下に、図面を参照して、この発明の好適な実施の形態を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
(第1実施形態)
<概要>
第1実施形態では、動画像データから顔画像を検索し、個々の人物が写っている時間区間および人物の組み合わせなどに基づいて、代表フレーム画像を選択する方法について説明する。
<装置構成>
図1は、第1実施形態に係る情報処理装置の内部構成図である。
情報処理装置は、CPU1001、ROM1002、CD−ROMドライブ1003、RAM1006、ハードディスクドライブ(HDD)1007、IEEE1394インターフェース(I/F)1010を含んでいる。そして、これらの各部はシステムバス1011を介して互いに通信可能なように接続されている。また、情報処理装置には、ユーザインタフェースとして、キーボード1004、マウス1005、ディスプレイ1008、プリンタ1009が接続されている。
CPU1001は、画像処理装置全体の動作制御を司り、例えばROM1002などにあらかじめ記憶された処理プログラムを読み出して実行することで図2で後述する各機能部を実現する。ROM1002は、CPU1001により実行されることにより後述の制御動作を行なうプログラムなどが格納される。RAM1006は、後述する顔シーケンス情報などの一時的なデータを格納する。また、CD−ROMドライブ1003は、CD−ROM1013に格納された制御プログラムを読み取り、当該制御プログラムをRAM1006に格納することが出来る。また、HDD1007には、IEEE1394I/F1010を経由してカムコーダ1012から読み取った動画像データを記憶する。
なお、以下の説明においては、情報処理装置とカムコーダ1012とはIEEE1394I/Fを介して接続され相互に通信可能であるものとする。
図2は、第1実施形態に係る情報処理装置の機能ブロック図である。また、図3は、各機能部内部の詳細機能ブロックを示す図である。
映像入力部2010は、IEEE1394インターフェース1010を介してカムコーダ1012から入力となる映像として動画像データの情報を入力する。なお、映像入力部2010は、動画像データを読み込み可能なものであれば、任意のインターフェース機器であってよい。なお、動画像データには、時系列に並んだ複数のフレーム画像が格納されている。
顔シーケンス生成部2020は、映像入力部2010で入力した映像を解析し、顔が写っている映像期間において各フレームから顔画像を抽出し、顔シーケンス(画像シーケンス)として出力する。なお、ここで顔シーケンスとは、連続した映像期間から抽出された顔画像および、その付帯情報の集まりを言う。付帯情報としては、顔画像を抽出したフレームの時間位置、そのフレームにおける顔画像を切り取った領域の情報などがある。
顔シーケンス生成部2020は、画像メモリ2021、顔検出部2022、顔追跡部2023、顔シーケンス記憶部2024より構成される。画像メモリ2021は、映像入力部2010から出力された動画像データをフレームごとに一時的にRAM1006へ記憶する。ここで読み込まれた画像データは、2次元配列のデータであり、例えば各々が8ビットの画素により構成されるRGBの3面により構成される。このとき、画像データがMPEG、JPEG等の方式により圧縮されている場合は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データとする。
顔検出部2022は、動画像データの所定のフレームから人物顔パターンの検出を行い、その検出結果を出力する。すなわち、動画像データの所定フレーム間隔ごとに各フレームから顔検出を行う。ここでは、以下の参考文献1で提案されているニューラル・ネットワークにより画像中の顔パターンを検出する方法を適用した場合について説明する。
まず、顔の検出を対象とする画像データをメモリに読み込み、顔と照合する所定の領域を読み込んだ画像中から切り出す。そして、切り出した領域の画素値の分布を入力としてニューラル・ネットワークによる演算で一つの出力を得る。このとき、ニューラル・ネットワークの重み、閾値が膨大な顔画像パターンと非顔画像パターンによりあらかじめ学習されており、例えば、ニューラル・ネットワークの出力が0以上なら顔、それ以外は非顔であると判別する。
図4は、ニューラル・ネットワークの手法により画像中から顔を検出する様子を例示的に示す図である。特に、ニューラル・ネットワークの入力である顔と照合する画像パターンの切り出し位置を、画像全域に対して縦横順次に走査する様子を示している。なお、様々な大きさの顔の検出に対応するため、図4に示すように読み込んだ画像を所定の割合で順次縮小し、それに対して前述した顔検出の走査を行うように構成すると好適である。
なお、画像中から顔を検出する方法は上で説明したニューラル・ネットワークによる方法に限定されるものではなく、例えば参考文献2に挙げられている各種方式が適用可能である。
参考文献1:Rowley et al, "Neural network-based face detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998
参考文献2:Yang et al, "Detecting Faces in Images: A Survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002
顔追跡部2023は、顔検出部2022で検出された人物顔パターンを後続するフレーム中から探索し、その追跡結果から顔領域の情報と顔シーケンスの区間を出力する。
図5は、動画像データから顔シーケンスを生成する様子を例示的に示す図である。
顔検出の結果、図5に示すように動画像データの所定間隔のフレームにおいて顔を検出した結果、フレーム中から切り取られた矩形の画像パターンが顔画像として抽出される。そして、検出された顔画像の各々について後続するフレームで追跡を行い、その結果を顔シーケンスとして出力する。その際、顔画像を抽出したフレームの動画像データ内における時間情報(時間位置)、そのフレームにおける顔画像を切り取った領域の情報、などの付帯情報も関連付けて出力する。
<装置の動作>
・顔シーケンスの検出処理
図6は、顔シーケンスを検出するためのフローチャートである。これは、顔追跡部2023の動作に相当する。
ステップS5001により処理を開始し、まず、ステップS5002では、顔パターンの領域情報をもとに後続のフレームにおいて顔パターンの探索を行う探索領域を設定する。顔検出部2022において顔を検出したフレームの次フレームから探索を行う場合には、顔検出結果である顔の領域に対して水平、垂直位置について所定量だけその中心位置をずらした近傍の矩形領域を顔の探索範囲とする。さらに後続するフレームについて探索を行う場合には、同様に顔の追跡結果である顔の領域を利用する。
ステップS5003では、探索領域内で切り取られた領域と探索する顔パターンとの相関をもとに顔の追跡を行う。例えば、探索領域として設定された中心位置を中心として探索する顔パターンと同じ大きさの矩形領域を順次切出し、切り出した領域と探索する顔パターンとの輝度分布をテンプレートとした相関値を算出する。そして、相関値が最も高い領域を顔パターンの追跡結果として、その相関値とともに出力する。なお、ここで顔パターンの追跡のために輝度分布の相関値を用いたが、RGBごとの画素値分布の相関を用いてもよい。また、領域内での輝度分布やRGB値のヒストグラムなど画像特徴量の相関を用いてもよい。
ステップS5004では、顔の追跡処理で出力された相関値が所定の値以上であるかどかで、顔が追跡できたかどうかを判定する。所定の値以上の場合には、類似度が高いので顔が正確に追跡できたと判定しステップS5005に進む。一方、所定値以下の場合には、類似度が低いので顔が追跡できなかったと判断し、顔の追跡を終了する(S5008)。
ステップS5005では、追跡した先に顔画像があるかどうかを判定する。顔画像がある場合にはステップS5006に進み、無い場合にはステップS5007に進む。
ステップS5006では、ステップS5005で検出した顔画像を、現在追跡中の顔であると見なし顔シーケンスとして統合を行う。この際に、顔情報の類似度計算を行い、統合するかどうかの判定を併せて行っても良い。
ステップS5007では、顔の追跡を行なう対象とするフレームを後続するフレームに変更しステップS5002に戻る。以上の処理を繰り返し行うことで検出した顔ごとの顔シーケンスを得る。
なお、ここでは、顔検出部2022で検出された人物顔パターンごとに後続するフレーム中から顔パターンを探索し追跡するよう説明した。しかし、顔パターンが検出されたフレーム画像に先行するフレーム画像を対象として顔パターンを探索し追跡するよう構成してもよい。その他、例えば動画像から動きベクトル分布を求め、当該動きベクトル分布を手がかりにして顔の追跡を行うようにしてもよい。
また、顔の前を何かが横切った場合や、フラッシュなどの影響などの場合に、顔シーケンスが過分割されることを防ぐため、所定の時間間隔をあけたフレームを使って顔追跡を行っても良い。また、時間的に近接する二つの顔シーケンスの顔特徴の相関を求め、相関が高い場合は区間を1つに結合しても良い。すなわち、結合する前側の区間の開始から後ろ側の区間の終了時までを結合した区間の区間とし、付帯情報もあわせて統合する。代表パターンは簡単には片方の顔シーケンスのものを用いれば良い。
顔シーケンスの類似度判定および結合は全ての前後の顔シーケンスについて順次行われ、類似する複数の顔シーケンスが1つの顔シーケンスに統合される。ただし、顔シーケンスに対応する映像区間が所定の時間以上離れている組は顔シーケンスの結合の候補としては用いない。また、映像中に人物が複数登場する場合には、複数の顔シーケンスで映像区間が重なる場合が生じるが、このような場合には、それぞれの顔シーケンスに対応する人物が別の人物と見なせるので顔シーケンスの結合の候補としては用いない。
図7は、顔シーケンスの情報を記録した付帯情報の一例を示す図である。当該データには、検出された顔シーケンスの各々についての情報が記録されている。
なお、ここでは、第1カラムはインデックスである”シーケンス番号”、第2カラムは動画像データ先頭からの秒数を示す”開始時刻”、および、第3カラムは顔シーケンスの継続時間を示す”長さ”が記録されるものとして説明する。なお、顔検出部が人物毎に検出可能であり、同一人物であるか、または誰であるかまで判別できる場合は人物IDを併せて記録しても良い。
・代表フレーム画像抽出処理
代表フレーム抽出部2030は、所定の動画区間からその区間の内容を良く表すフレームを1ないし複数抽出する。代表フレーム抽出部2030は、顔シーケンス情報メモリ2031、代表フレーム抽出区間決定部2032、代表フレーム抽出位置決定部2033により構成される。顔シーケンス情報メモリ2031は、顔シーケンス生成部2020で生成した顔シーケンスデータを格納する部分である。
図8は、顔シーケンスと代表フレーム画像を抽出する対象となる時間区間との関係を示す図である。図8に示される時間範囲においては3つの顔シーケンスA〜Cが検出され、顔シーケンスAと顔シーケンスB、顔シーケンスBと顔シーケンスC、とは重複期間がある。このような、状態においては、代表フレーム画像を抽出する対象とする時間区間として、5つの時間区間1〜5が設定される。つまり、登場人物の組み合わせが一定である時間区間を、代表フレーム画像抽出の対象となる時間区間として選定する。以下、この時間区間の選定処理について詳述する。
図9は、代表フレーム画像抽出の対象となる時間区間を選定するフローチャートである。
ステップS8001により処理を開始し、まず、ステップS8002では、顔シーケンスの構成が変化する時点(時刻)を求める。図8に示した3つの顔シーケンスに対して、これを求めた結果が、時間軸に直交する点線部分である。つまり、1以上の顔シーケンスの各々の開始時刻および終了時刻が分割タイミングとなる。この時間区間は、顔シーケンスの構成(登場人物の組み合わせなど)が一定の時間区間となり、これを以降では”構成一定区間”と呼ぶことにする。図8では、構成一定区間が5つ選定される。
ステップS8003では、構成一定区間の各々に対して、区間内のフレーム画像について所定の評価ルール(抽出の基準)に基づいて評価値を計算する。この計算方式には、いろいろなものが考えられるが、ここでは例として、顔画像そのものの評価を行う顔画像評価部を用いるものとする。これ以外にも、フレーム内の顔の位置や、フレーム内の彩度、色相の分布などを用いる方法があり、またこれらを混合して使用する方法なども考えられる。また、前後のフレームとの画像全体の相関を求め、動きの激しくない箇所で評価値が高くなるよう調整しても良い。以下、具体的な算出方法の一例を述べる。なお、以下の説明においては、代表フレーム画像として適しているものほど評価値が大きくなるような評価計算式であるとする。
代表フレーム抽出区間決定部2032の中に配置される顔状態判定部(不図示)は、主要顔判定部(不図示)で評価値が高い被写体について、被写体を良く表す顔画像であるか否かを示す評価値を算出する。例えば、顔の向き、目の開閉具合、表情、照明による影、顔の一部が他のオブジェクトで隠れていないかに着目し評価地を導出する。顔の向きや表情に関しては顔画像パターンに対して向きや表情の教師データを与えて前述したニューラルネットワークの重み、閾値を求めることで実現できる。
なお、顔の状態を正確に判定するためには、顔画像の中に目、口、鼻などの顔の各パーツが存在することが重要であると考えられる。すなわち、顔が横方向や斜めを向いているものよりも、正面を向いているものの方が顔の特徴を正確に表現している。したがって、顔状態判定部は顔シーケンス中の各顔画像の顔の向きを検出する構成をもつ。例えば、前述したニューラル・ネットワークによる顔判別器と同じ構成の複数の顔判別器を備える。但し、各顔判別器の判別のためのパラメータを顔の向きごとにサンプル学習によりチューニングし設定しておく。そして、複数の顔判別器のうち、もっとも出力の高い、すなわち尤度の高い顔判別器に対応した顔の向きを出力し、正面を向いた場合に高い評価値を与える。
また、例えば、顔画像から目、口、鼻などのパーツを個別に探索し、それぞれの存在の有無を解析結果として出力するようにしてもよい。また、目が開いているか、閉じているかを判定し解析結果を出力するようにしてもよい。また、顔に対する照明状態がよく全体的に肌部分が明るく撮影されている場合には部分的に陰がある場合よりも高い評価値を与えてもよい。影や隠れについては、たとえば参考文献3にあるようなEigenfaceと呼ばれる手法で顔パターンをモデル化し、モデルパラメータを使って近似された顔画像と元画の顔画像との近似差を評価することで影や隠れ領域を求めることが出来る。モデルパラメータの一部には顔に当たった照明成分が含まれるので、その成分の強さから照明の方向と強さを求めることが出来る。
参考文献3:M. Turk and A. Pentland, "Eigenfaces for recognition", Journal of Cognitive Neuroscience 3 (1): 71-86, 1991
ステップS8004では、各構成一定区間から、一番評価値が高いフレームを代表フレームとして選択して、これを記録する。これを以降では”代表フレーム候補位置”と呼ぶ。この処理により、各構成一定区間について、代表フレーム候補があるものについては、その代表フレーム候補を抽出したこととなる。
上述の代表フレーム画像抽出の対象となる時間区間の選定および各時間区間の代表フレーム候補を抽出した後、以下の処理により代表フレーム画像が抽出される。
代表フレーム抽出位置決定部2033は、代表フレーム抽出区間決定部2032で抽出された情報を基に、最終的な代表フレームを決定する。ここでは、被写体である登場人物が複数の場合には、その登場人物が一緒に写っているという情報を重視する。これは家庭内のイベントや出来事を主な撮影対象とする場合などに有効である。
この場合、複数の人物が同時に写っている時間区間から得られた代表フレーム候補を、最終的な代表フレームに入れることが重要となる。そこで、図8における時間区間2と時間区間4の代表フレーム候補を、最終的な代表フレーム候補とする。また、それ以外の構成一定区間でも、評価値が高い代表フレーム候補がある場合には、併せて最終的な代表フレームに追加する。また、同じ登場人物の構成一致区間が存在する場合には、代表フレーム候補の評価値の高いほうを選択する。なお、代表フレーム画像として適しているものほど評価値が小さくなるような評価計算式である場合には最小の評価値のフレーム画像を選択する。
このようにして、動画像データに複数の登場人物が写っている時間区間が存在する場合には、必ずその時間区間の代表フレーム画像を抽出することが可能となる。
なお、一般に一覧表示を目的とする場合には代表フレーム画像は少ない枚数が好ましく、検索に使用するインデックス情報を目的とする場合には代表フレーム画像は多くの枚数が存在したほうが良い。このように、目的によって必要な代表フレーム画像の数は異なるため、記憶部に格納する際に評価値を合わせて格納しておき、ユーザから指定された枚数の代表フレーム画像を残しておくことで必要な代表フレームの枚数を評価値の高いものから順に選ぶことが出来る。
また、代表フレーム画像の抽出結果を記憶部に格納する際のデータ形式は、システムが解釈可能である限り任意のデータ形式が使用できる。例えば、テキスト形式や、独自のDTD(Document Type Definition)を定義したXML(Extensible Markup Language)形式等で表現するようにしてもよい。
図10は、代表フレーム画像の一覧の出力例を示す図である。抽出した代表フレーム画像の一覧は、ディスプレイ1008に表示するよう構成してもよいし、プリンタ1009によって印刷出力するよう構成しても良い。
以上説明したとおり第1実施形態に係る情報処理装置によれば、動画像データから顔シーケンスを検出する。そして、検出された複数の顔シーケンスの時間区間に基づいて、登場人物の組み合わせなどが一定の時間区間(構成一定区間)を選定する。構成一定区間の各々について代表フレーム画像を抽出することにより、より適切な代表フレーム画像を抽出することが出来る。
特に、代表フレーム画像を、時間軸上で複数の画像シーケンスが重なり合う構成一定区間から優先して抽出することにより、より適切かつより少ない枚数の代表フレーム画像を抽出することも出来る。
(第2実施形態)
第2実施形態では、フレーム画像の構図を指定するための1以上の”構図テンプレート”を利用して代表フレーム画像を抽出する手法について説明する。
つまり、代表フレーム抽出の対象となる時間区間の選定を行う際に、主要な被写体の判定や適切な撮影構図の判定を利用することで、適切な代表フレームを保有する可能性のある代表フレーム抽出区間を選択することが可能としている。なお、構成や処理の内容は、代表フレーム抽出区間決定部2032以外の部分については、第1実施形態と同様であるので説明は省略する。
図11は、代表フレーム画像抽出の対象となる時間区間を選定するフローチャートである。
ステップS10001により処理を開始し、まず、ステップS10002では、顔シーケンスの構成が変化する時点(時刻)を求める。図8に示した3つの顔シーケンスに対して、これを求めた結果が、時間軸に直交する点線部分である。この時間区間は、顔シーケンスの構成(登場人物の組み合わせなど)が一定の時間区間となり、これを以降では”構成一定区間”と呼ぶことにする。図8では、構成一定区間が5つ選定される。
ステップS10003では、構成一定区間内の各フレームを、予め指定されている構図テンプレートと照合して合致するものがあるかどうかの構図判定を行う。
図12は、構図テンプレートの例を示す図である。構図テンプレートは、フレーム画像の構図の典型的なパターンを示すものである。構図テンプレート1201(テンプレート番号1)は、一人の人(X)が一定時間以上、ある程度の大きさの顔が写っている構図を示している。一方、構図テンプレート1202(テンプレート番号2)は、二人の人(XとY)が一定時間以上、両方とも、顔がある程度の大きさで、かつ、同じぐらいの大きさで写っているものを示している。これらは、あくまでも例であり、これら以外にも、特定のパターンの動作や移動などの構図テンプレートもあってもよい。
このように、構図テンプレートを利用することで、個々のフレーム画像に代表フレーム画像として適切なものが含まれるかどうかを調べる。これにより、後述の処理と合わせて、主要な被写体の顔の選択も同時に行っている。この構図テンプレートと比較して、顔の位置、大きさ、撮影された時間などを基準として、どれだけ満たしているかを数値化し、これを適合値とする。
ステップS10004では、各構成一定区間に対して、この適合値が一番大きい構図テンプレートを選び、その適合値がある閾値を超えた場合、それが該当する構成テンプレートとみなし、その構成テンプレート番号を記録する。
図13は、図7の顔シーケンスに対して代表フレーム抽出区間決定処理を適用した結果を示す図である。
なお、ここでは、第1カラムは図8における”構成一定区間”の番号であり、第2カラムは適合すると判定された”テンプレート番号”である。ここで、構成一定区間5に対しては、構図テンプレートでの適合値が閾値を超えなかったため、構図テンプレート番号は「なし」になっている。なお、図13の第5カラムは、各構成一定区間の登場人物であり、これは各区間にある顔シーケンスの組み合わせに相当する。
ステップS10005では、構図テンプレート番号が決定されている構成一定区間に対して、その区間内の動画のフレームについて評価値を計算する。計算方式には、いろいろなものが考えられるが、ここでは例として、前述した顔画像そのものの評価を行う顔画像評価部を用いるものとする。しかし、これ以外にも、フレーム内の顔の位置や、フレーム内の彩度、色相の分布、それから前述した構図テンプレートの適合値などを用いる方法があり、またこれらを混合して使用する方法なども考えられる。また、前後のフレームとの画像全体の相関を求め、動きの激しくない箇所で評価値が高くなるよう調整しても良い。
ステップS10006では、構図テンプレート番号がある構成一定区間に対して、最も評価値が高いフレームを代表フレームとして選択し記録する。前述の図13における第3カラムは動画内の選択されたフレームの位置(動画先頭からの秒数)で、これを代表フレーム候補位置と呼ぶ。また、第4カラムは、その代表フレーム候補の評価値である。これにより、各構成一定区間について、代表フレーム候補があるものについては、その代表フレーム候補を抽出したこととなる。
上述の代表フレーム候補を抽出した後、以下の処理により代表フレーム画像が抽出される。
代表フレーム抽出位置決定部2033は、図13のように記録された情報を基に、最終的な代表フレームを決定する。ここでは、被写体である登場人物が複数の場合には、その登場人物が一緒に写っているという情報を重視する。これは家庭内のイベントや出来事を主な撮影対象とする場合などに有効である。

この場合、複数の人物が同時に写っている時間区間から得られた代表フレーム候補を、最終的な代表フレームに入れることが重要となる。そこで、図13のような状況においては、時間区間2と時間区間4の代表フレーム候補を、最終的な代表フレーム候補とする。また、それ以外の構成一定区間でも、評価値が高い代表フレーム候補がある場合には、併せて最終的な代表フレームに追加する。また、同じ登場人物の構成一致区間が存在する場合には、代表フレーム候補の評価値の高いほうを選択する。
このようにして、動画像データに複数の登場人物が写っている時間区間が存在する場合には、必ずその時間区間の代表フレーム画像を抽出することが可能となる。特に、予め指定した構図テンプレートにより示される構図のフレーム画像が抽出されるため、より適切な代表フレーム画像を抽出することが可能となる。
(第3実施形態)
第3実施形態では、図13に示される情報に基づいて、より少ない枚数の代表フレーム画像を抽出する例について説明する。具体的には、同じ人物の組み合わせに対して代表フレーム画像を1つのみ抽出する手法について説明する。なお、構成や処理の内容は、代表フレーム抽出位置決定部2033以外の部分については、第2実施形態と同様であるので説明は省略する。
図14は、代表フレーム抽出位置決定部2033の動作フローチャートである。
ステップS13001により処理を開始し、まず、ステップS13002では、図13の結果に基づいて、代表フレーム候補に写っている被写体である登場人物の情報を取得する。ここでは、動画像データの全登場人物がA,B,Cとなっているという情報を得る。人物の特定については、前述したような、その顔画像そのもの類似度、個人の弁別や同定を行うような方法を用いても構わない。
ステップS13003では、ステップS13002で取得した登場人物を含む代表フレーム候補の組み合わせを導出する。
図15は、ステップS13003における処理の結果を示す図である。第1カラムは、代表フレームの抽出位置の組み合わせの番号(代表フレーム抽出位置候補番号)であり、図13から”Aのみ”、”AとB”、”Bのみ”、”BとC”の4つの組み合わせがあることがわかる。第2カラムは、その組み合わせの内容で、構成一致区間番号の集合になっている。
ステップS13004では、代表フレーム抽出位置の組み合わせの中で、構成一致区間の個数が少ないものを探索し、代表フレーム画像を抽出する候補として残留させる。前述の図15の第3カラムは、構成一致区間の個数であり、ここでは個数が一番少ない(2個)代表フレーム抽出位置候補番号3と代表フレーム抽出位置候補番号4を候補として残留させる。
ステップS13005では、残留した代表フレーム抽出位置候補について、その中の代表フレーム候補の評価値の合計を計算し、代表フレーム抽出位置候補の評価値とする。前述の第4カラムが、その合計(評価値)である。なお、代表フレーム抽出位置候補のうち、構成一致区間の個数が最低でなかったものについては、計算する必要がないので、図15では「×」と表記されている。
ステップS13006では、代表フレーム候補に複数の被写体が存在し、かつ、代表フレーム抽出位置候補の評価値が最大のものを最終的な代表フレームとして選択する。前述の図15の第5カラムに、最終的に選択された代表フレームの位置が示されている。
このようにして、動画像データに複数の登場人物が写っている時間区間が存在する場合に、より適切な代表フレーム画像を抽出することが可能となる。
(他の実施形態)
以上、本発明の実施形態について詳述したが、本発明は、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
なお、本発明は、前述した実施形態の機能を実現するプログラムを、システム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置が、供給されたプログラムコードを読み出して実行することによっても達成される。従って、本発明の機能処理をコンピュータで実現するために、コンピュータにインストールされるプログラムコード自体も本発明の技術的範囲に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク(CD、DVD)、光磁気ディスク、磁気テープ、不揮発性のメモリカード、ROMなどがある。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。
第1実施形態に係る情報処理装置の内部構成図である。 第1実施形態に係る情報処理装置の機能ブロック図である。 各機能部内部の詳細機能ブロックを示す図である。 ニューラル・ネットワークの手法により画像中から顔を検出する様子を例示的に示す図である。 動画像データから顔シーケンスを生成する様子を例示的に示す図である。 顔シーケンスを検出するためのフローチャートである。 顔シーケンスの情報を記録した付帯情報の一例を示す図である。 顔シーケンスと代表フレーム画像を抽出する対象となる時間区間との関係を示す図である。 代表フレーム画像抽出の対象となる時間区間を選定するフローチャートである。 代表フレーム画像の一覧の出力例を示す図である。 代表フレーム画像抽出の対象となる時間区間を選定するフローチャートである。 構図テンプレートの例を示す図である。 図7の顔シーケンスに対して代表フレーム抽出区間決定処理を適用した結果を示す図である。 代表フレーム抽出位置決定部の動作フローチャートである。 ステップS13003における処理の結果を示す図である。

Claims (7)

  1. 時系列に並んだ複数のフレーム画像を含む動画像データを入力する入力手段と、
    入力された動画像データから所定の画像パターンに類似する画像を含むフレーム画像を検出する検出手段と、
    前記検出手段により検出されたフレーム画像に含まれる前記画像と類似する画像を含むフレーム画像を、前記検出されたフレーム画像の前後にあるフレーム画像から検出する追跡手段と、
    前記追跡手段により検出された連続したフレーム画像を画像シーケンスとして決定し、当該画像シーケンスに対応する前記動画像データ内における時間情報と関連付けて記憶する記憶手段と、
    前記記憶手段に記憶された1以上の画像シーケンスの各々の開始時刻および終了時刻を分割タイミングとして、前記動画像データを複数の時間区間に分割する分割手段と、
    前記複数の時間区間の各々について代表フレーム画像を抽出する抽出手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記抽出手段は、前記複数の時間区間の各々に含まれるフレーム画像の各々の評価値を所定の評価ルールに基づいて算出し、当該評価値が最大または最小となるフレーム画像を代表フレーム画像として抽出することを特徴とする請求項1に記載の情報処理装置。
  3. 前記抽出手段は、時間軸上で複数の画像シーケンスが重なり合う時間区間に含まれるフレーム画像からのみ前記代表フレーム画像を抽出することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記複数の時間区間の各々に含まれるフレーム画像が予め設定された1以上の構図テンプレートの何れかに対応する画像であるか否かを判定する構図判定手段をさらに備え、
    前記抽出手段は、前記構図判定手段により前記1以上の構図テンプレートの何れかに対応する画像であると判定されたフレーム画像を含む時間区間からのみ前記代表フレーム画像を抽出することを特徴とする請求項1または2に記載の情報処理装置。
  5. 前記所定の画像パターンは人物の顔画像であり、
    前記検出手段はフレーム画像に含まれる顔画像を人物毎に検出し、
    前記抽出手段は、互いに異なる人物の組み合わせとなる時間区間からのみ前記代表フレーム画像を抽出することを特徴とする請求項1または2に記載の情報処理装置。
  6. 時系列に並んだ複数のフレーム画像を含む動画像データから1以上の代表フレーム画像を抽出する情報処理装置の制御方法であって、
    動画像データを入力する入力工程と、
    入力された動画像データから所定の画像パターンに類似する画像を含むフレーム画像を検出する検出工程と、
    前記検出工程により検出されたフレーム画像に含まれる前記画像と類似する画像を含むフレーム画像を、前記検出されたフレーム画像の前後にあるフレーム画像から検出する追跡工程と、
    前記追跡工程により検出された連続したフレーム画像を画像シーケンスとして決定し、当該画像シーケンスに対応する前記動画像データ内における時間情報と関連付けて記憶部に記憶する記憶工程と、
    前記記憶部に記憶された1以上の画像シーケンスの各々の開始時刻および終了時刻を分割タイミングとして、前記動画像データを複数の時間区間に分割する分割工程と、
    前記複数の時間区間の各々について代表フレーム画像を抽出する抽出工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  7. コンピュータを、請求項1乃至5の何れか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2008290322A 2008-11-12 2008-11-12 情報処理装置およびその制御方法 Expired - Fee Related JP5483863B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008290322A JP5483863B2 (ja) 2008-11-12 2008-11-12 情報処理装置およびその制御方法
US12/613,052 US8866900B2 (en) 2008-11-12 2009-11-05 Information processing apparatus and method of controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008290322A JP5483863B2 (ja) 2008-11-12 2008-11-12 情報処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2010118868A true JP2010118868A (ja) 2010-05-27
JP2010118868A5 JP2010118868A5 (ja) 2012-01-05
JP5483863B2 JP5483863B2 (ja) 2014-05-07

Family

ID=42164880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008290322A Expired - Fee Related JP5483863B2 (ja) 2008-11-12 2008-11-12 情報処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US8866900B2 (ja)
JP (1) JP5483863B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133634A (ja) * 2014-01-14 2015-07-23 日本放送協会 画像選択装置
JP2019068173A (ja) * 2017-09-29 2019-04-25 大日本印刷株式会社 画像選択装置、画像出力装置、画像選択方法、画像出力方法、および画像出力システム
KR102194511B1 (ko) * 2020-03-30 2020-12-24 에스큐아이소프트 주식회사 대표 영상프레임 결정시스템 및 이를 이용한 방법
JP2021157621A (ja) * 2020-03-27 2021-10-07 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
US20120207356A1 (en) * 2011-02-10 2012-08-16 Murphy William A Targeted content acquisition using image analysis
CN103593753A (zh) * 2012-08-17 2014-02-19 中兴通讯股份有限公司 一种会议预约方法及装置
JP6725381B2 (ja) * 2016-09-20 2020-07-15 株式会社東芝 画像照合装置および画像照合方法
US11042725B2 (en) 2016-12-16 2021-06-22 Keylemon Sa Method for selecting frames used in face processing
JP7230345B2 (ja) * 2018-06-07 2023-03-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
KR102198337B1 (ko) 2018-12-07 2021-01-04 삼성전자주식회사 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 매체.
CN113507611B (zh) * 2021-09-09 2021-12-31 深圳思谋信息科技有限公司 图像存储方法、装置、计算机设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232638A (ja) * 1999-02-09 2000-08-22 Toshiba Corp 画像情報を評価する人物監視システム
JP2003348528A (ja) * 2002-05-22 2003-12-05 Nippon Telegr & Teleph Corp <Ntt> 代表画像選択方法,代表画像選択装置,代表画像選択プログラムおよび代表画像選択プログラムの記録媒体
JP2005101906A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 動画記録装置、動画記録方法、及びプログラム
JP2005227957A (ja) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp 最適顔画像記録装置及び最適顔画像記録方法
WO2006028116A1 (ja) * 2004-09-09 2006-03-16 Pioneer Corporation 登場物推定装置及び方法、並びにコンピュータプログラム
JP2008211485A (ja) * 2007-02-26 2008-09-11 Fujifilm Corp 撮像装置
JP2008271587A (ja) * 2008-06-02 2008-11-06 Sony Corp 画像再生装置及び方法、並びにプログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2003023A (en) * 1930-10-16 1935-05-28 Westinghouse Electric & Mfg Co Mercury vapor or noble gas rectifier with arc control
JP3407840B2 (ja) 1996-02-13 2003-05-19 日本電信電話株式会社 映像要約方法
JP3312105B2 (ja) 1997-02-05 2002-08-05 株式会社東芝 動画像インデックス生成方法および生成装置
JP3897476B2 (ja) * 1999-02-15 2007-03-22 キヤノン株式会社 画像処理装置及びその方法、コンピュータ可読メモリ
JP4292627B2 (ja) * 1999-06-07 2009-07-08 ソニー株式会社 動画像記録再生装置および方法、並びに記録媒体
JP2001167110A (ja) 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
US7038736B2 (en) * 2000-09-21 2006-05-02 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
US7051048B2 (en) * 2000-09-29 2006-05-23 Canon Kabushiki Kaisha Data management system, data management method, and program
JP2002199347A (ja) * 2000-12-27 2002-07-12 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP3774662B2 (ja) * 2000-12-27 2006-05-17 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム、及び記録媒体
JP4536940B2 (ja) 2001-01-26 2010-09-01 キヤノン株式会社 画像処理装置、画像処理方法、記憶媒体、及びコンピュータプログラム
WO2003003371A1 (en) * 2001-05-31 2003-01-09 Canon Kabushiki Kaisha Moving image management apparatus and method
US7391436B2 (en) * 2001-08-28 2008-06-24 Canon Kabushiki Kaisha Image processing apparatus with comparing of difference of camera operation information between image data of plural sections in input image data
JP4194272B2 (ja) * 2001-12-28 2008-12-10 キヤノン株式会社 動画像管理装置及び方法
US7259784B2 (en) * 2002-06-21 2007-08-21 Microsoft Corporation System and method for camera color calibration and image stitching
US7782357B2 (en) * 2002-06-21 2010-08-24 Microsoft Corporation Minimizing dead zones in panoramic images
US7598975B2 (en) * 2002-06-21 2009-10-06 Microsoft Corporation Automatic face extraction for use in recorded meetings timelines
US7602412B2 (en) 2002-06-21 2009-10-13 Microsoft Corporation Temperature compensation in multi-camera photographic devices
US20050046703A1 (en) * 2002-06-21 2005-03-03 Cutler Ross G. Color calibration in photographic devices
US7298392B2 (en) 2003-06-26 2007-11-20 Microsoft Corp. Omni-directional camera design for video conferencing
US20050117015A1 (en) * 2003-06-26 2005-06-02 Microsoft Corp. Foveated panoramic camera system
US7495694B2 (en) * 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
JP2006119723A (ja) * 2004-10-19 2006-05-11 Canon Inc 画像処理装置、画像処理方法
JP2006163842A (ja) * 2004-12-07 2006-06-22 Canon Inc 検索システム、情報処理装置及びその制御方法、プログラム
JP4794938B2 (ja) * 2005-07-27 2011-10-19 富士フイルム株式会社 監視システム、監視装置、監視方法、及びプログラム
JP2007094990A (ja) 2005-09-30 2007-04-12 Fujifilm Corp 画像分類装置および方法並びにプログラム
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP4254802B2 (ja) * 2006-05-11 2009-04-15 ソニー株式会社 画像処理装置および方法、プログラム並びに記録媒体
JP5096776B2 (ja) * 2007-04-04 2012-12-12 キヤノン株式会社 画像処理装置及び画像検索方法
JP4775306B2 (ja) * 2007-04-23 2011-09-21 ソニー株式会社 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
JP4989308B2 (ja) * 2007-05-16 2012-08-01 キヤノン株式会社 画像処理装置及び画像検索方法
JP5139716B2 (ja) * 2007-05-16 2013-02-06 キヤノン株式会社 画像検索装置及び画像検索方法
JP5247356B2 (ja) * 2008-10-29 2013-07-24 キヤノン株式会社 情報処理装置およびその制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232638A (ja) * 1999-02-09 2000-08-22 Toshiba Corp 画像情報を評価する人物監視システム
JP2003348528A (ja) * 2002-05-22 2003-12-05 Nippon Telegr & Teleph Corp <Ntt> 代表画像選択方法,代表画像選択装置,代表画像選択プログラムおよび代表画像選択プログラムの記録媒体
JP2005101906A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 動画記録装置、動画記録方法、及びプログラム
JP2005227957A (ja) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp 最適顔画像記録装置及び最適顔画像記録方法
WO2006028116A1 (ja) * 2004-09-09 2006-03-16 Pioneer Corporation 登場物推定装置及び方法、並びにコンピュータプログラム
JP2008211485A (ja) * 2007-02-26 2008-09-11 Fujifilm Corp 撮像装置
JP2008271587A (ja) * 2008-06-02 2008-11-06 Sony Corp 画像再生装置及び方法、並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133634A (ja) * 2014-01-14 2015-07-23 日本放送協会 画像選択装置
JP2019068173A (ja) * 2017-09-29 2019-04-25 大日本印刷株式会社 画像選択装置、画像出力装置、画像選択方法、画像出力方法、および画像出力システム
JP7102700B2 (ja) 2017-09-29 2022-07-20 大日本印刷株式会社 画像出力装置
JP7396399B2 (ja) 2017-09-29 2023-12-12 大日本印刷株式会社 画像出力方法、および画像出力システム
JP2021157621A (ja) * 2020-03-27 2021-10-07 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム
JP7267227B2 (ja) 2020-03-27 2023-05-01 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム
KR102194511B1 (ko) * 2020-03-30 2020-12-24 에스큐아이소프트 주식회사 대표 영상프레임 결정시스템 및 이를 이용한 방법

Also Published As

Publication number Publication date
US20100118205A1 (en) 2010-05-13
JP5483863B2 (ja) 2014-05-07
US8866900B2 (en) 2014-10-21

Similar Documents

Publication Publication Date Title
JP5483863B2 (ja) 情報処理装置およびその制御方法
JP5247356B2 (ja) 情報処理装置およびその制御方法
KR100996066B1 (ko) 얼굴화상 등록 장치, 얼굴화상 등록 방법, 및 기록 매체
US7489803B2 (en) Object detection
JP5649425B2 (ja) 映像検索装置
JP5106271B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP4497236B2 (ja) 検出用情報登録装置、電子機器、検出用情報登録装置の制御方法、電子機器の制御方法、検出用情報登録装置制御プログラム、電子機器の制御プログラム
US20120148118A1 (en) Method for classifying images and apparatus for the same
US20150339516A1 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
JP2004199669A (ja) 顔検出
US20050129276A1 (en) Object detection
JP2014146367A (ja) ビデオコンテンツ内の個人の自動注釈付けのための方法およびシステム
JP2009075868A (ja) 画像から対象を検出する装置、方法およびプログラム
US20050129275A1 (en) Object detection
US9965882B2 (en) Generating image compositions
JP6557592B2 (ja) 映像シーン分割装置及び映像シーン分割プログラム
JP2006500858A (ja) 合成された映像及び音声サインを介した拡張コマーシャル検出
US20050128306A1 (en) Object detection
Naveen et al. Pose and head orientation invariant face detection based on optimised aggregate channel feature
US20240152549A1 (en) Image processing apparatus for search of an image, image processing method and storage medium
Bhattacharjee Feature Extraction
JP2010041247A (ja) 画像処理装置、方法及びプログラム
Hsieh et al. Multiple-person tracking system for content analysis
Raut et al. Face Detection and Recognition in Video
Liang et al. A novel landmark detector system for multi resolution frontal faces

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131112

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140218

R151 Written notification of patent or utility model registration

Ref document number: 5483863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees