JP2011118782A - 画像処理装置および画像処理方法、並びにプログラム - Google Patents

画像処理装置および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP2011118782A
JP2011118782A JP2009277074A JP2009277074A JP2011118782A JP 2011118782 A JP2011118782 A JP 2011118782A JP 2009277074 A JP2009277074 A JP 2009277074A JP 2009277074 A JP2009277074 A JP 2009277074A JP 2011118782 A JP2011118782 A JP 2011118782A
Authority
JP
Japan
Prior art keywords
face
image
tracked
disappearing
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009277074A
Other languages
English (en)
Other versions
JP5476955B2 (ja
Inventor
Shingo Tsurumi
辰吾 鶴見
In Son
贇 孫
Tomohiko Goto
智彦 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009277074A priority Critical patent/JP5476955B2/ja
Priority to US12/954,212 priority patent/US8903123B2/en
Priority to CN2010105737139A priority patent/CN102087702B/zh
Publication of JP2011118782A publication Critical patent/JP2011118782A/ja
Application granted granted Critical
Publication of JP5476955B2 publication Critical patent/JP5476955B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】画像処理結果を使用する目的に応じた処理を行う。
【解決手段】顔領域抽出部22は、画像に写されている顔を検出し、その顔を含む顔領域を抽出し、顔認識部25は、顔領域の顔を識別するための識別情報を取得する。そして、第1の統合処理部51は、識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う。また、第2の統合処理部52は、識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを、第1の統合処理部51とは異なる手法により判定して統合処理を行う。本発明は、例えば、デジタルサイネージシステムに適用できる。
【選択図】図4

Description

本発明は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、画像処理結果を使用する目的に応じた処理を行うことができるようにした画像処理装置および画像処理方法、並びにプログラムに関する。
従来、例えば、ディスプレイに映像広告を表示するデジタルサイネージシステムでは、ディスプレイを視聴している人物の顔を撮像する撮像装置が設けられており、撮像装置により撮像された画像に写されている人物の顔をトラッキングする画像処理が行われる。そして、デジタルサイネージシステムは、その画像処理の結果に基づき、視聴者の構成(男女比率や年齢層など)を測定して映像広告の内容に反映したり、一日の視聴者の人数をカウントして広告効果を測定したりすることができる。
ところで、デジタルサイネージシステムでは、トラッキング中の顔がディスプレイに対して横を向いたときには、その顔を認識することができず、トラッキングが終了(顔を消失)することになる。その後、同一人物がディスプレイを視聴すると、新たな顔として検出されてトラッキングが再度行われる。このとき、デジタルサイネージシステムでは、同一人物を2回カウントすることになり、広告効果の測定結果の信頼度が低下することになる。
例えば、特許文献1には、顔情報を比較して同一人物のものか否かを判定することで、映像広告の有効性を示す視聴度を高い信頼度で測定することができる分析装置が開示されている。また、特許文献2には、同一人物の顔であるか否かの判定を、高速かつ一定精度で行うことができる映像処理装置が開示されている。
従って、デジタルサイネージシステムにおいて、同一人物の顔であるか否かを判定することで、同一人物が複数回カウントされることを回避することができる。
特開2006−254274号公報 特開2009−48489号公報
ところで、デジタルサイネージシステムでは、視聴者の構成を測定して映像広告の内容に反映させる場合には、同一人物の顔であるか否かの判定を高速に行う画像処理が求められ、広告効果を測定する場合には、判定の信頼性を高める画像処理が求められる。このように、デジタルサイネージシステムに求められる画像処理は、画像処理結果を使用する目的に応じて異なることがあり、それぞれの目的に応じて柔軟に対応することが求められている。
本発明は、このような状況に鑑みてなされたものであり、画像処理結果を使用する目的に応じた処理を行うことができるようにするものである。
本発明の第1の側面の画像処理装置は、画像に写されている顔を検出し、前記顔を含む顔領域を抽出する顔領域抽出手段と、前記顔領域抽出手段により抽出された顔領域の顔を識別するための識別情報を取得する識別情報取得手段と、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う第1の統合処理手段と、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを、前記第1の統合処理手段とは異なる手法により判定して統合処理を行う第2の統合処理手段とを備え、前記第1の統合処理手段は、画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理を行い、前記第2の統合処理手段は、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理を行う。
本発明の第1の側面の画像処理方法またはプログラムは、画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、前記抽出された顔領域の顔を識別するための識別情報を取得し、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して第1の統合処理を行い、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを、前記第1の統合処理とは異なる手法により判定して第2の統合処理を行うステップを含み、前記第1の統合処理では、画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理が行われ、前記第2の統合処理では、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理が行われる。
本発明の第1の側面においては、画像に写されている顔が検出されて顔を含む顔領域が抽出され、抽出された顔領域の顔を識別するための識別情報が取得される。そして、識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かが判定される第1の統合処理が行われる。また、識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かが、第1の統合処理とは異なる手法により判定される第2の統合処理が行われる。さらに、第1の統合処理では、画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値が決定され、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度が算出されて、算出された類似度と、類似度の算出に用いられた保存期間内の顔に対応する閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かが判定される。また、第2の統合処理では、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度が、複数の顔方向ごとに算出され、算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かが判定される。
本発明の第2の側面の画像処理装置は、画像に写されている顔を検出し、前記顔を含む顔領域を抽出する顔領域抽出手段と、前記顔領域抽出手段により抽出された顔領域の顔を識別するための識別情報を取得する識別情報取得手段と、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う統合処理手段とを備え、前記統合処理手段は、画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理を行う。
本発明の第2の側面の画像処理方法またはプログラムは、画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、前記抽出された顔領域の顔を識別するための識別情報を取得し、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行うステップを含み、前記統合処理では、画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理が行われる。
本発明の第2の側面においては、画像に写されている顔が検出されて顔を含む顔領域が抽出され、抽出された顔領域の顔を識別するための識別情報が取得される。そして、識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理が行われる。統合処理では、画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値が決定され、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度が算出されて、算出された類似度と、類似度の算出に用いられた保存期間内の顔に対応する閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かが判定される。
本発明の第3の側面の画像処理装置は、画像に写されている顔を検出し、前記顔を含む顔領域を抽出する顔領域抽出手段と、前記顔領域抽出手段により抽出された顔領域の顔を識別するための識別情報を取得する識別情報取得手段と、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う統合処理手段とを備え、前記統合処理手段は、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理を行う。
本発明の第3の側面の画像処理方法またはプログラムは、画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、前記抽出された顔領域の顔を識別するための識別情報を取得し、前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行うステップを含み、前記統合処理では、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する処理が行われる。
本発明の第3の側面においては、画像に写されている顔が検出されて顔を含む顔領域が抽出され、抽出された顔領域の顔を識別するための識別情報が取得される。そして、識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理が行われる。統合処理では、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度が、複数の顔方向ごとに算出され、算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かが判定される。
本発明の第1乃至第3の側面によれば、画像処理結果を使用する目的に応じた処理を行うことができる。
本発明を適用したデジタルサイネージシステムの一実施の形態の構成例を示すブロック図である。 統合処理による結果を説明する図である。 顔角度ごとに類似度を算出する処理を説明する図である。 画像処理装置の構成例を示すブロック図である。 抽出される顔の特徴量の組み合わせを説明する図である。 顔領域に対する周囲の複数の領域のヒストグラムを算出する処理を説明する図である。 画像に写されている顔のトラッキング処理を説明するフローチャートである。 顔認識処理を説明するフローチャートである。 第1の統合処理を説明するフローチャートである。 第2の統合処理を説明するフローチャートである。 第2の統合処理を施すことによる効果を説明する図である。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
図1は、本発明を適用したデジタルサイネージシステムの一実施の形態の構成例を示すブロック図である。なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
図1において、デジタルサイネージシステム11は、表示装置12、撮像装置13、画像処理装置14、記憶装置15、通信装置16、および制御装置17を備えて構成される。
表示装置12は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどからなり、制御装置17の制御に応じて、各種の画像や文字情報などからなる映像広告を表示する。
撮像装置13は、レンズおよび絞りなどからなる光学系と、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサなどからなる撮像部とを備えて構成される。撮像装置13は、撮像部の受光面に光学系を介して結像された光学的な被写体の動画像を所定のフレームレートで撮像し、その結果得られる画像のデータを画像処理装置14に供給する。
画像処理装置14は、複数の電子部品が設けられた基板として構成されるか、またはシステムIC(Integrated Circuit)などとして構成される。画像処理装置14は、撮像装置13により撮像された動画像を構成する各フレームの画像(静止画像)を、順次、処理の対象として画像に写されている顔を認識してトラッキングする。
例えば、画像処理装置14は、目や、鼻、口などの顔の特徴に基づいて画像に写されている顔を認識し、同一人物の顔に対して同一のID(Identification)を付与して、顔のトラッキングを行う。また、例えば、撮像装置13において撮像された画像において顔の一部が隠れてしまうと、顔を認識することができない場合がある。例えば、図1の下側に示されているように、トラッキング中の顔(ID=1)が横を向くと、その顔が認識されなくなる(顔が消失する)。その後、同一の顔が正面を向いたとき、画像処理装置14では、新たに検出された顔として新たなID(ID=2)が付与される。
このように顔が一時的に消失したとき、同一人物の顔を、新たに検出した顔として処理が行われることを回避するため、画像処理装置14では、後述するように、一時的に消失した顔を、消失の前後で統合する統合処理が行われる。なお、顔が一時的に認識されずに、顔が消失する例としては、顔が横を向く他、撮像装置13と顔の間を物体が横切ったり、撮像装置13に対して人物が木などの遮蔽物の奥側を移動したり、撮像装置13による撮像範囲の外側に人物が移動したりすることがある。
記憶装置15は、ハードディスクや不揮発性のメモリなどを有して構成されており、画像処理装置14により認識された顔に関する各種の情報が登録されたデータベースを記憶する。また、記憶装置15には、表示装置12に表示される画像および文字情報なども記憶されている。
通信装置16は、ネットワークインタフェースなどにより構成され、インターネットなどのネットワークを介して、ユーザからの指示を受信して制御装置17に供給する。また、通信装置16は、制御装置17の制御に応じて、記憶装置15に記憶されているデータベースを、ネットワークを介してユーザ側の装置に送信する。
制御装置17は、デジタルサイネージシステム11の各部を制御する。例えば、制御装置17は、通信装置16を介して受信したユーザからの指示に応じて、画像処理装置14で実行される統合処理に関する設定を行う。また、制御装置17は、記憶装置15に蓄積されている情報により特定される視聴者の構成に応じて、表示装置12に表示させる映像広告を変更する。
次に、図2を参照して、画像処理装置14において行われる統合処理による結果について説明する。
図2の上側には、撮像装置13により撮像された画像からトラッキングされた結果として、画像処理装置14において8つのIDが付与された顔(トラッキングID=01〜08)が示されている。これらの顔に対して、画像処理装置14において統合処理が行われ、トラッキングID=02の顔とトラッキングID=05の顔とが同一人物の顔と判定されたとする。同様に、トラッキングID=03の顔とトラッキングID=08の顔とが同一人物の顔と判定され、トラッキングID=04の顔とトラッキングID=06の顔とが同一人物の顔と判定されたとする。
この場合、例えば、図2の下側に示すよな統合結果が得られ、画像処理装置14は、トラッキングID=02の顔とトラッキングID=05の顔にはフェースID=02を付与し、トラッキングID=03の顔とトラッキングID=08の顔にはフェースID=03を付与し、トラッキングID=04の顔とトラッキングID=06の顔にはフェースID=04を付与する。
これにより、同一のフェースIDの顔は、同一人物の顔として情報が統合される。なお、同一人物の顔と判定されなかった、トラッキングID=01の顔にはフェースID=01が、トラッキングID=07の顔にはフェースID=05が、それぞれ付与される。
画像処理装置14では、撮像装置13により撮像された画像において顔が写されている領域である顔領域(図2の各画像において太線の枠で囲われている矩形の領域)が認識され、それぞれの顔の類似度に基づいて同一人物の顔であるか否かが判定される。さらに、画像処理装置14では、顔領域よりも所定範囲だけ広い拡大顔領域(例えば、図2の各画像、即ち、顔を中心として頭、肩、および胸の一部を含む領域)における顔領域の近辺の特徴が、同一人物の顔であるか否かの判定に利用される。
また、同一人物の顔であっても、顔の向きによって特徴が異なり、画像処理装置14は、トラッキング中の顔を複数方向から撮像した画像を蓄積し、それぞれ対応する顔角度の顔どうしの類似度に基づいて、同一人物の顔であるか否かを判定する。
即ち、図3に示すように、画像処理装置14は、例えば、過去に検出した顔のうちの、消失してから一定の時間以内の顔が登録されたリストを記憶装置15(図1)に記憶させておき、新規の顔が検出されると、所定のタイミングで、そのリストに登録されている顔と、新規に検出した顔とのマッチングを行って、消失してから一定の時間以内の顔の中に、新規に検出された顔と同一の顔があるか否かを判定する。
このとき、画像処理装置14では、5つの顔角度(±26度、±15度、0度)の顔画像を取得しており、記憶装置15のリストには、それらの顔角度の顔画像が登録されている。そして、画像処理装置14は、新規に検出した顔とリストに登録されている顔とで、それぞれ同じ顔角度どうし顔の類似度を計算し、例えば、それらの類似度の平均値を、同一人物の顔であるか否かの判定に利用する。
次に、図4は、画像処理装置14の構成例を示すブロック図である。
図4において、画像処理装置14は、画像取得部21、顔領域抽出部22、データベース管理部23、演算部24、顔認識部25、およびデータ統合部26を備えて構成される。また、記憶装置15は、2つのデータベース31および32を記憶している。データベース31には、新規顔リスト33、安定顔リスト34、一時消失リスト35が格納されており、データベース32には、トラッキング顔リスト36、統合顔リスト37、一時消失リスト38が格納されている。
画像取得部21は、図1の撮像装置13により撮像された動画像から、各フレームを構成する画像(静止画像)を順次取得して、各フレームにフレーム番号(時刻に対応する情報)を付与し、1フレームずつ画像を顔領域抽出部22に供給する。
顔領域抽出部22は、画像取得部21から供給される画像の全画面を対象として、その画像に写されている顔を探索する処理(全画面サーチ)を行う。顔領域抽出部22は、全画面サーチにより探索された顔の顔領域(図2参照)の位置および大きさを示す情報である顔領域情報を生成する。
また、顔領域抽出部22は、顔領域を含む拡大顔領域(図2参照)を画像から切り出して、拡大顔領域画像を取得する。例えば、現在のフレーム(処理の対象となっているフレーム)の画像に、複数の顔が写されている場合、顔領域抽出部22は、それぞれの顔についての顔領域情報および拡大顔領域画像を取得する。そして、顔領域抽出部22は、現在のフレームのフレーム番号に対応付けて、そのフレームの画像から得られた顔領域情報および拡大顔領域画像をデータベース管理部23に供給する。
データベース管理部23は、記憶装置15に記憶されているデータベース31および32に格納されている各リスト、即ち、新規顔リスト33、安定顔リスト34、一時消失リスト35、トラッキング顔リスト36、統合顔リスト37、一時消失リスト38を管理する。
新規顔リスト33には、新規に検出された顔に関する情報が登録され、新規顔リスト33に登録されてから規定のフレーム数が経過した顔に関する情報が、安定顔リスト34に移行されて登録される。一時消失リスト35には、新規顔リスト33および安定顔リスト34に登録されている情報の顔が消失したとき、その顔に関する情報が、新規顔リスト33または安定顔リスト34から移行されて登録される。また、一時消失リスト35に登録されてから所定の保存期間が経過した情報は、一時消失リスト35から削除される。
また、トラッキング顔リスト36には、トラッキング中の顔の全ての顔に関する情報が登録される。統合顔リスト37には、トラッキング顔リスト36に登録されている情報の顔が消失したとき、その顔と、一時消失リスト38に登録されている情報の顔との照合結果に応じて統合処理が行われた顔に関する情報が登録される。一時消失リスト38には、トラッキング顔リスト36に登録されている情報の顔が消失したとき、その顔に関する情報が、トラッキング顔リスト36から移行されて登録される。また、一時消失リスト38に登録されてから所定の保存期間が経過した情報は、一時消失リスト38から削除される。
記憶装置15の各リストでは、トラッキング中の顔は同一のトラッキングIDにより管理される。データベース管理部23は、現在のフレームの画像から得られた顔領域情報を演算部24に供給し、演算部24により算出される重複率に基づいて、トラッキング中の顔であるか否かを判定してトラッキングIDを付与する。
演算部24には、1フレーム前の画像に写されていた顔の顔領域情報が一時的に蓄積されており、演算部24は、現在のフレームの画像における顔領域の位置および大きさと、1フレーム前の画像における顔領域の位置および大きさとに基づいて、それぞれの顔領域が重複している割合である重複率を算出する。
演算部24は、算出した重複率をデータベース管理部23に供給し、データベース管理部23は、トラッキング中の顔であるか否かを判定するための閾値に基づいて、重複率が閾値以上である場合には、トラッキング中の顔であると判定して、その重複率が算出された1フレーム前の画像の顔領域に付与されているトラッキングIDと同一のトラッキングIDを、現在のフレームの画像から得られた顔領域情報に付与する。一方、データベース管理部23は、重複率が閾値以上でない場合には、現在のフレームで新たに検出された顔として、新規のトラッキングIDを顔領域情報に付与する。なお、トラッキング中の顔であるか否かを判定するための閾値は、撮像装置13により撮像されるフレームの間で人物が移動可能な画像上の距離に基づいて、実験または計算により求められた値である。
また、演算部24は、データベース管理部23においてトラッキング中であると判定された顔について、現在のフレームの画像における顔領域の位置および1フレーム前の画像における顔領域の位置と、フレームレートとに基づいて、その顔の移動速度を算出し、移動速度を示す情報をデータベース管理部23に供給する。なお、演算部24は、1フレーム前の画像における顔領域の位置および移動速度から、現在のフレームの画像における顔領域の位置を予測し、その予測された位置と、現在のフレームの画像における顔領域の位置とを用いて、重複率を算出してもよい。
さらに、データベース管理部23は、現在のフレームの画像から得られた拡大顔領域画像を顔認識部25に供給し、顔認識処理を行わせる。
顔認識部25は、属性推定部41、特徴量抽出部42、およびヒストグラム算出部43を備えて構成される。
属性推定部41は、データベース管理部23からの拡大顔領域画像に含まれる顔領域内の顔の特徴に基づいて、その顔に関する各種の属性を推定して、その属性を示す情報をデータベース管理部23に供給する。属性推定部41により推定される顔の属性には、性別(男性/女性)、年代(例えば、年齢を10年の区分で区切った年代や、幼児・子供・大人といった区分)、人種(白色人種/黒色人種/黄色人種)などがある。
特徴量抽出部42は、データベース管理部23からの拡大顔領域画像に含まれる顔領域内の顔の特徴に基づいて、その顔の顔角度および表情(笑顔/笑顔以外)を特定する。そして、特徴量抽出部42は、特徴量を抽出する所定の条件を満たす場合に拡大顔領域画像に含まれる顔領域内の顔の特徴を表す特徴量を抽出する。
例えば、図5に示すように、特徴量抽出部42は、5つの横方向の顔角度(Yaw)ごとに笑顔の特徴量と、笑顔以外の特徴量とを抽出する。図5の例では、顔角度は、正面の顔の顔角度を0度として、-22.5度よりも左側の顔角度、-22.5度から-7.5度までの顔角度、-7.5から7.5度までの顔角度、7.5度から22.5度までの顔角度、22.5度よりも右側の顔角度の5つに分類されている。このように、特徴量抽出部42は、顔の特徴量を、5つの顔方向と2つの表情とによる10個のパターンで保存する。
また、特徴量抽出部42は、同一のパターンの特徴量が重複しないように、特徴量を抽出する。第1に、特徴量抽出部42は、処理の対象としている顔の表情および顔角度に対応する特徴量が抽出されていない(即ち、図5において対応する升目が空欄である)とき、その表情および顔角度での顔の特徴量を抽出する。
第2に、特徴量抽出部42は、処理の対象としている顔の表情および顔角度に対応する特徴量が抽出されていても、その特徴量が抽出された顔の顔角度よりも、処理の対象としている顔の顔角度が、顔角度の範囲の中心に近いとき、その表情および顔角度での顔の特徴量を抽出する。例えば、-7.5から7.5度までの顔角度の特徴量が既に抽出されていても、その特徴量を抽出した顔角度よりも、現在の顔角度が0度に近ければ特徴量抽出部42は特徴量を抽出する。
第3に、特徴量抽出部42は、処理の対象としている顔の表情および顔角度に対応する特徴量が抽出されていても、その特徴量が抽出された顔の画像のボケ具合よりも、処理の対象としている顔の画像のボケ具合が少ないとき、その顔の特徴量を抽出する。なお、特徴量が抽出された顔の拡大顔領域画像は、その特徴量とともに記憶装置15に記憶されており、特徴量抽出部42は、その拡大顔領域画像を参照して、ボケ具合を比較する。
特徴量抽出部42は、上述の第1乃至第3のいずれかの条件を満たすとき、処理の対象としている顔の特徴量を抽出して、顔の特徴量を示す情報をデータベース管理部23に供給する。なお、特徴量抽出部42は、データベース管理部23から拡大顔領域画像が供給されたタイミングで、即ち、顔領域抽出部22が全画面サーチを行ったタイミングで、顔の特徴量を抽出する処理を行う。また、上述の条件で特徴量を抽出することでより、同じパターンの特徴量が重複することを回避し、かつ、良好な特徴量を抽出することができる顔角度およびボケ具合の画像から特徴量を抽出することができる。
なお、特徴量抽出部42は、横方向の顔角度(Yaw)ごとに顔の特徴量を抽出するのに加えて、縦方向の顔角度(Pitch)ごとに顔の特徴量を抽出してもよい。また、笑顔以外の表情として、怒りや悲しみなどの表情により、顔の特徴量を抽出する分類を細分化してもよい。このように、より多くの分類で顔特徴量を抽出することで、後述する統合処理の正確性を向上させることができる。
ヒストグラム算出部43は、拡大顔領域画像の顔領域に対する周囲の複数の領域から、それぞれの領域のヒストグラム(色ヒストグラム)を算出し、ヒストグラムを示す情報をデータベース管理部23に供給する。
例えば、図6に示すように、ヒストグラム算出部43は、データベース管理部23から供給された拡大顔領域画像について、背景差分を計算して、背景と人物領域(背景以外の人物が写されている領域)とを分離し、拡大顔領域画像内の背景を消去する(例えば、所定の色で塗りつぶす)。次に、ヒストグラム算出部43は、顔領域の周囲の3領域(上領域、右側面領域、左側面領域)と、顔領域の下側の3つの領域(右胸領域、中央胸領域、左胸領域)とを、ヒストグラムを抽出する領域として設定する。そして、ヒストグラム算出部43は、それぞれの領域から、RGB3次元の色ヒストグラムを抽出する。また、ヒストグラム算出部43は、顔がトラッキングされている間は、フレームごとにヒストグラムを算出して、データベース管理部23に供給する。
このように、顔認識部25において行われる顔認識処理により、顔領域内の顔について、属性推定部41から顔の属性を示す情報が出力され、特徴量抽出部42から顔の特徴量を示す情報が出力され、ヒストグラム算出部43から、顔周囲および胸部のヒストグラムを示す情報が出力される。データベース管理部23は、属性を示す情報、特徴量を示す情報、およびヒストグラムを示す情報(以下、適宜、これらの情報を識別情報と称す)を、拡大顔領域画像とともに、記憶装置15に記憶されているデータベース31および32に登録する。
例えば、データベース管理部23は、新規のトラッキングIDを付与した顔領域情報、その顔領域情報に対応する拡大顔領域画像、属性を示す情報、特徴量を示す情報、およびヒストグラムを示す情報を、新規顔リスト33およびトラッキング顔リスト36に新たなエントリを作成して登録する。また、データベース管理部23は、トラッキング中の顔と同一のトラッキングIDを付与した顔領域情報を、そのトラッキングIDのエントリに登録(更新または積算)する。
データ統合部26は、複数の異なる処理内容の統合処理を実行することができ、例えば、図1の制御装置17の制御に従って、画像処理結果を使用する目的に応じた統合処理を選択して実行したり、複数の目的に応じた統合処理を並行して実行したりすることができる。
本実施の形態では、データ統合部26は、第1の統合処理部51と、第2の統合処理部52とを有している。例えば、第1の統合処理部51は、高速なレスポンスが求められるような用途に対応し、新たな顔が検出されてから1〜数フレームが経過したのタイミングで、データベース31に登録されているデータに対する統合処理を行う。また、第2の統合処理部52は、より正確な結果が求められるような用途に対応し、トラッキング中の顔が消失したタイミングで、データベース32に登録されているデータに対する統合処理を行う。
例えば、データベース管理部23は、新規顔リスト33に登録されている顔に関する情報について、その顔が新規に検出されたフレームから規定のフレーム数(一定時間)が経過したタイミングで、その顔に関する情報を新規顔リスト33から読み出して第1の統合処理部51に供給する。第1の統合処理部51による統合処理については、図9のフローチャートを参照して後述する。
また、データベース管理部23は、トラッキング中の顔が消失したタイミングで、その顔に関する情報をトラッキング顔リスト36から読み出して第2の統合処理部52に供給する。第2の統合処理部52による統合処理については、図10のフローチャートを参照して後述する。
次に、図7は、図4の画像処理装置14が、画像に写されている顔をトラッキングする処理を説明するフローチャートである。
図1のデジタルサイネージシステム11による映像広告の表示が開始されるとともに処理が開始され、ステップS11において、画像取得部21は、撮像装置13により撮像された動画像の1フレームを構成する画像を取得し(静止画像データを読み込み)、その画像を顔領域抽出部22に供給する。
ステップS11の処理後、処理はステップS12に進み、顔領域抽出部22は、画像取得部21から供給された画像に対して全画面サーチを行う。そして、顔領域抽出部22は、全画面サーチによるサーチ結果として、顔領域の位置および大きさを示す顔領域情報を生成し、顔領域を含む拡大顔領域画像を取得する。顔領域抽出部22は、顔領域情報および拡大顔領域画像をデータベース管理部23に供給し、処理はステップS13に進む。
ステップS13において、データベース管理部23は、顔領域抽出部22からの顔領域情報および拡大顔領域画像を用い、演算部24および顔認識部25とともに、顔認識処理(後述する図8の処理)を行い、処理はステップS14に進む。
ステップS14において、データベース管理部23は、記憶装置15のデータベース31に格納されている新規顔リスト33を参照し、顔が検出されたフレームから規定のフレーム数が経過した顔に関する情報があるか否かを判定する。
ステップS14において、データベース管理部23が、顔が検出されたフレームから規定のフレーム数が経過した顔に関する情報があると判定した場合、処理はステップS15に進み、第1の統合処理(後述する図9の処理)が行われる。ステップS15の第1の統合処理の処理後、処理はステップS16に進む。
一方、ステップS14において、データベース管理部23が、顔が検出されたフレームから規定のフレーム数が経過した顔に関する情報がないと判定した場合、処理はステップS15をスキップしてステップS16に進む。
ステップS16において、データベース管理部23は、現在のフレームの画像において1フレーム前の画像から消失した顔があるか否かを判定する。
ステップS16において、データベース管理部23が、現在のフレームの画像において1フレーム前の画像から消失した顔があると判定した場合、処理はステップS17に進み、第2の統合処理(後述する図10の処理)が行われる。ステップS17の第2の統合処理の処理後、処理はステップS18に進む。
ステップS18において、データベース管理部23は、現在のフレームの画像において1フレーム前の画像から消失した顔に関する情報を移行する処理を行う。即ち、データベース管理部23は、データベース31の新規顔リスト33または安定顔リスト34に登録されている、消失した顔に関する情報を一時消失リスト35に移行する。また、データベース管理部23は、データベース32のトラッキング顔リスト36に登録されている、消失した顔に関する情報を一時消失リスト38に移行する。このとき、データベース管理部23は、一時消失リスト35および一時消失リスト38に移行したときの現在のフレームのフレーム番号を、消失した時刻を示す情報として顔に関する情報に付加する。ステップS18の処理後、処理はステップS19に進む。
一方、ステップS16において、データベース管理部23が、現在のフレームの画像において1フレーム前の画像から消失した顔がないと判定した場合、処理はステップS17およびS18をスキップしてステップS19に進む。
ステップS19において、データベース管理部23は、一時消失リスト35および一時消失リスト38に登録されている顔に関する情報に付加されている消失時刻情報を参照し、画像から顔が消失してから所定の保存期間が経過した顔に関する情報を削除し、処理はステップS20に進む。
ステップS20において、データベース管理部23は、次に処理の対象とするフレームがあるか否かを判定し、次に処理の対象とするフレームがあると判定した場合、処理はステップS11に戻り、以下、同様の処理が繰り返される。一方、データベース管理部23が、次に処理の対象とするフレームがないと判定した場合、処理は終了する。
次に、図8は、図7のステップS13における顔認識処理を説明するフローチャートである。
ステップS31において、データベース管理部23は、現在のフレームの画像から抽出された顔領域情報のうちの、例えば、抽出された順番に従って処理対象とする顔領域情報を選択し、演算部24に供給する。
ステップS31の処理後、処理はステップS32に進み、演算部24は、処理対象の顔領域情報の顔領域と、1フレーム前の画像から抽出された全ての顔領域情報に基づく顔領域との重複率を算出し、処理はステップS33に進む。
ステップS33において、データベース管理部23は、ステップS32で演算部24により算出された重複率が、トラッキング中の顔であるか否かを判定するための閾値以上であるか否かを判定する。
ステップS33において、データベース管理部23が、演算部24により算出された重複率が、閾値以上でない(未満である)と判定した場合、処理はステップS34に進む。ステップS34において、データベース管理部23は、処理対象の顔領域情報に、新しいトラッキングIDを付与する。即ち、この場合、処理対象の顔領域情報の顔領域が、1フレーム前の画像から抽出された顔領域情報に基づく顔領域のいずれとも距離が遠く離れており、処理対象の顔領域情報に対応する顔は、現在のフレームの画像において新しく検出されたと判定される。
一方、ステップS33において、データベース管理部23が、演算部24により算出された重複率が、閾値以上であると判定した場合、処理はステップS35に進む。ステップS35において、データベース管理部23は、閾値以上であった顔領域情報のトラッキングIDと同一のトラッキングIDを、処理対象の顔領域情報に付与する。即ち、この場合、処理対象の顔領域情報の顔は、トラッキング中の顔であると判定される。なお、閾値以上であった顔領域情報が複数あるとき、最も重複率が大きな顔領域情報のトラッキングIDを、処理対象の顔領域情報に付与する。
ステップS35の処理後、処理はステップS36に進み、データベース管理部23は、処理対象の顔領域情報に付与したトラッキングIDを演算部24に通知するとともに、トラッキング中の顔であると判定した顔領域情報を通知する。演算部24は、トラッキング中であると判定された顔について、処理対象の顔領域の位置および1フレーム前の画像における顔領域の位置と、フレームレートとに基づいて、その顔の移動速度を算出し、移動速度を示す情報をデータベース管理部23に供給する。
ステップS36の処理後、処理はステップS37に進み、データベース管理部23は、拡大顔領域画像を特徴量抽出部42に供給する。特徴量抽出部42は、拡大顔領域画像に含まれる顔領域内の顔の顔角度および表情を特定するとともに、データベース31および32を参照して、特徴量を抽出する条件を満たしているか否か、即ち、上述した第1乃至第3のいずれかの条件を満たしているか否かを判定する。
ステップS37において、特徴量抽出部42が特徴量を抽出する条件を満たしていると判定した場合、処理はステップS38に進み、データベース管理部23は、拡大顔領域画像を属性推定部41に供給する。属性推定部41は、その拡大顔領域画像に含まれる顔領域内の顔の特徴に基づいて、その顔に関する各種の属性を推定して、その属性を示す情報をデータベース管理部23に供給し、処理はステップS39に進む。
ステップS39において、特徴量抽出部42は、拡大顔領域画像に含まれる顔領域内の顔の特徴を表す特徴量を抽出して、特徴量を示す情報をデータベース管理部23に供給し、処理はステップS40に進む。
ステップS40において、データベース管理部23は、拡大顔領域画像をヒストグラム算出部43に供給する。ヒストグラム算出部43は、顔領域の周囲の3領域(上領域、右側面領域、左側面領域)と、顔領域の下側の3つの領域(右胸領域、中央胸領域、左胸領域)とからヒストグラムを抽出し、ヒストグラムを示す情報をデータベース管理部23に供給する。
ステップS40の処理後、または、ステップS37において特徴量抽出部42が特徴量を抽出する条件を満たしていないと判定した場合、処理はステップS41に進む。ステップS41において、データベース管理部23は、処理対象の顔領域情報、拡大顔領域画像、移動速度を示す情報、属性を示す情報、特徴量を示す情報、およびヒストグラムを示す情報を、記憶装置15に記憶されているデータベース31および32に登録する。このとき、データベース管理部23は、ステップS34において新規のトラッキングIDを付与している場合、新たなエントリを作成して登録し、ステップS35において、トラッキング中の顔と同一のトラッキングIDを付与している場合、既に作成されている対応するエントリに登録する。
ステップS41の処理後、処理はステップS42に進み、データベース管理部23は、現在のフレームの画像から抽出された全ての顔領域情報を処理の対象としたか否かを判定し、全ての顔領域情報を処理の対象としていないと判定した場合、処理はステップS31に戻り、以下、同様の処理が繰り返される。一方、データベース管理部23が、全ての顔領域情報を処理の対象としたと判定した場合、処理は終了する。
次に、図9は、図7のステップS15における第1の統合処理を説明するフローチャートである。
ステップS51において、データベース管理部23は、記憶装置15のデータベース31に格納されている新規顔リスト33から、規定のフレーム数が経過した顔に関する情報のうちの、例えば、トラッキングIDの順番に従って処理の対象とする顔に関する情報を選択し、第1の統合処理部51に供給する。
ステップS51の処理後、処理はステップS52に進み、第1の統合処理部51は、一時消失リスト35に登録されている顔の顔領域が、現在のフレームの画像において表れると推定される推定範囲を求め、処理対象の顔と同一人物の顔が一時消失リスト35に登録されているか否かの判定に用いる閾値を決定する。
一時消失リスト35に登録されている顔に関する情報には、顔が消失したフレームのフレーム番号、顔が消失したときの顔領域情報および移動速度を示す情報が含まれている。第1の統合処理部51は、顔が消失したフレームから現在のフレームまでの時間(フレーム番号の差×フレームレート)を算出し、その時間と移動速度とから移動量を推定し、その移動量だけ、顔が消失したときの顔領域の位置から離れた位置を中心とした推定範囲(例えば、顔領域の1.5倍の範囲)に、消失した顔が表れると推定する。
そして、第1の統合処理部51は、処理対象の顔が、推定範囲外にある場合には、その推定範囲を求めた顔との判定に用いる閾値を、高い値に決定し、推定範囲内にある場合には、その推定範囲を求めた顔との判定に用いる閾値を、低い値に決定する。なお、第1の統合処理部51は、推定した位置により閾値を変動させるのに加えて、例えば、顔領域の大きさや、顔の向きなどを推定し、それらの推定状態に該当する場合には、閾値を低くするようにしてもよい。
ステップS52の処理後、処理はステップS53に進み、第1の統合処理部51は、処理対象の顔の特徴量と、一時消失リスト35に登録されている顔の特徴量とに基づいて、それぞれの顔どうしの類似度を算出する。
ステップS53の処理後、処理はステップS54に進み、第1の統合処理部51は、処理対象の顔と同一人物の顔が、一時消失リスト35に登録されているか否かを判定する。即ち、第1の統合処理部51は、ステップS53で算出した類似度について、それぞれステップS52で決定した閾値以上であるか否かを判定し、閾値以上の類似度がある場合には、処理対象の顔と同一人物の顔が一時消失リスト35に登録されていると判定する。一方、閾値以上の類似度がない場合には、処理対象の顔と同一人物の顔が一時消失リスト35に登録されていないと判定する。
ステップS54において、第1の統合処理部51が、処理対象の顔と同一人物の顔が一時消失リスト35に登録されていると判定した場合、処理はステップS55に進む。ステップS55において、第1の統合処理部51は、一時消失リスト35に登録されている情報のうちの、最も高い類似度が算出された顔に関する情報に付与されていたトラッキングIDで、処理対象の顔に関する情報のトラッキングIDを書き換えて、それらの顔に関する情報を統合する。そして、データベース管理部23は、トラッキングIDが書き換えられた顔に関する情報を、安定顔リスト34に登録するとともに、新規顔リスト33および一時消失リスト35に登録されていた、その情報を削除する。
一方、ステップS54において、第1の統合処理部51が、処理対象の顔と同一人物の顔が一時消失リスト35に登録されていないと判定した場合、処理はステップS56に進む。ステップS56において、データベース管理部23は、処理対象の顔に関する情報を、新規顔リスト33から一時消失リスト35に移行する。
ステップS55またはS56の処理後、処理はステップS57に進み、データベース管理部23は、規定のフレーム数が経過した全ての顔に関する情報を処理の対象としたか否かを判定し、全ての顔に関する情報を処理の対象としていないと判定した場合、処理はステップS51に戻り、以下、同様の処理が繰り返される。一方、データベース管理部23が、全ての顔に関する情報を処理の対象としたと判定した場合、処理は終了する。
以上のように、第1の統合処理部51は、処理対象の顔が一時的に消失した顔であるか否かを判定するための閾値を、消失した顔が表れると推定される推定範囲に基づいて決定するので、固定の閾値を用いて判定を行う場合よりも、一時的に消失した顔を検出する確度を向上させることができる。また、例えば、顔が新規に検出されたフレームで第1の統合処理を行ってもよく、この場合、即ち、規定のフレーム数が1である場合、統合結果をより早く得ることができ、リアルタイム性を向上させることができる。
次に、図10は、図7のステップS17における第2の統合処理を説明するフローチャートである。
ステップS61において、データベース管理部23は、記憶装置15のデータベース32に格納されているトラッキング顔リスト36から、現在のフレームの画像において1フレーム前の画像から消失した顔に関する情報のうち、例えば、トラッキングIDの順番に従って処理の対象とする顔に関する情報を選択し、第2の統合処理部52に供給する。
ステップS61の処理後、処理はステップS62に進み、第2の統合処理部52は、供給された顔に関する情報に含まれている拡大顔領域画像に基づいて、有効な顔の類似度を算出することができるか否かを判定する。
例えば、拡大顔領域画像に含まれる顔領域の大きさが小さい場合には、具体的には、40ピクセル程度以下の場合には、有効な顔の類似度を算出することができない。また、画像がボケている場合にも、有効な顔の類似度を算出することができない。従って、第2の統合処理部52は、拡大顔領域画像に含まれる顔領域の大きさが所定の大きさ以上であり、かつ、画像がボケていない場合、有効な顔の類似度を算出することができると判定する。一方、第2の統合処理部52は、拡大顔領域画像に含まれる顔領域の大きさが所定の大きさ未満であるか、または、画像がボケている場合、有効な顔の類似度を算出することができないと判定する。
ステップS62において、第2の統合処理部52が、有効な顔の類似度を算出することができると判定した場合、処理はステップS63に進み、第2の統合処理部52は、処理対象の顔の特徴量と、一時消失リスト38に登録されている顔の特徴量とに基づいて、それぞれの顔どうしの類似度を算出する。このとき、第2の統合処理部52は、図3を参照して説明したように、5つの顔方向ごとに、それぞれ対応する顔の類似度を算出する。
ステップS64の処理後、処理はステップS64に進み、第2の統合処理部52は、ステップS63で算出した顔の類似度が所定の閾値以上であるか否かを判定する。
ステップS64において、第2の統合処理部52が、ステップS63で算出した顔の類似度が所定の閾値以上であると判定した場合、処理はステップS65に進む。即ち、この場合、処理対象の顔は、一時的に消失した顔であると判定される。
ステップS65において、一時消失リスト35に登録されている情報のうちの、最も高い類似度が算出された顔に関する情報を、統合顔リスト37に移行するとともに、その情報のフェースIDのエントリに、処理対象の顔に関する情報をトラッキング顔リスト36から移行して登録する。
一方、ステップS64において、第2の統合処理部52が、ステップS63で算出した顔の類似度が所定の閾値未満であると判定した場合、処理はステップS66に進む。即ち、この場合、処理対象の顔は、一時的に消失した顔でなく、新たに検出された顔であると判定される。
ステップS66において、第2の統合処理部52は、処理対象の顔に関する情報に新規のフェースIDを付与し、統合顔リスト37に新たなエントリを作成して、処理対象の顔に関する情報をトラッキング顔リスト36から移行する。
一方、ステップS62において、第2の統合処理部52が、有効な顔の類似度を算出することができないと判定した場合、処理はステップS67に進む。ステップS67において、第2の統合処理部52は、処理対象の顔に関する情報に含まれているヒストグラムを示す情報のうちの、顔領域の下側の3つの領域(右胸領域、中央胸領域、左胸領域)から抽出されたヒストグラムと、一時消失リスト38に登録されている顔の対応するヒストグラムとに基づいて、それぞれの胸部どうしの類似度を算出する。
ステップS67の処理後、処理はステップS68に進み、第2の統合処理部52は、ステップS67で算出した胸部の類似度が所定の閾値以上であるか否かを判定する。
ステップS68において、第2の統合処理部52が、ステップS67で算出した胸部の類似度が所定の閾値以上であると判定した場合、処理はステップS69に進む。ステップS69において、第2の統合処理部52は、処理対象の顔に関する情報に含まれているヒストグラムを示す情報のうちの、顔領域の周囲の3領域(上領域、右側面領域、左側面領域)から抽出されたヒストグラムと、一時消失リスト38に登録されている顔のうちの、閾値以上の胸部の類似度が算出された顔の対応するヒストグラムとに基づいて、それぞれの胸部どうしの類似度を算出する。
ステップS69の処理後、処理はステップS70に進み、第2の統合処理部52は、ステップS69で算出した顔領域の周囲の類似度が所定の閾値以上であるか否かを判定する。
ステップS70において、第2の統合処理部52が、ステップS69で算出した顔領域の周囲の類似度が所定の閾値以上であると判定した場合、処理はステップS71に進む。ステップS71において、第2の統合処理部52は、処理対象の顔に関する情報に含まれている属性を示す情報が、一時消失リスト38に登録されている顔のうちの、閾値以上の顔領域の周囲の類似度が算出された顔の属性を示す情報と一致するか否かを判定する。
ステップS71において、第2の統合処理部52が、処理対象の顔に関する情報に含まれている属性を示す情報と、一時消失リスト38に登録されている顔の属性を示す情報とが一致すると判定した場合、処理はステップS72に進む。即ち、胸部の類似度が閾値以上で、かつ、顔領域の周囲の類似度が閾値以上で、かつ、属性が一致する場合、処理対象の顔は、一時的に消失した顔であると判定される。
ステップS72において、第2の統合処理部52は、ステップS71で属性が一致すると判定された顔に関する情報を統合顔リスト37に移行するとともに、その情報のフェースIDのエントリに、処理対象の顔に関する情報をトラッキング顔リスト36から移行して登録する。
一方、ステップS68において、ステップS67で算出した胸部の類似度が所定の閾値以上でないと判定された場合、ステップS70において、ステップS69で算出した顔領域の周囲の類似度が所定の閾値以上でないと判定した場合、または、ステップS71において、属性を示す情報が一致しないと判定された場合、処理はステップS73に進む。
ステップS73において、第2の統合処理部52は、処理対象の顔に関する情報に新規のフェースIDを付与し、統合顔リスト37に新たなエントリを作成して、処理対象の顔に関する情報をトラッキング顔リスト36から移行する。
ステップS65、S66、S72、またはS73の処理後、処理はステップS74に進み、データベース管理部23は、現在のフレームの画像において1フレーム前の画像から消失した全ての顔に関する情報を処理の対象としたか否かを判定し、全ての顔に関する情報を処理の対象としていないと判定した場合、処理はステップS61に戻り、以下、同様の処理が繰り返される。一方、データベース管理部23が、全ての顔に関する情報を処理の対象としたと判定した場合、処理は終了する。
以上のように、第2の統合処理部52は、顔の類似度だけでなく、胸部(例えば、洋服の色)の類似度、顔の周囲の領域(例えば、髪の色や、帽子を被っている場合には帽子の色)の類似度、および属性を用いて、一時的に消失した顔であるか否かを判定するので、顔の類似度だけを用いた場合よりも、一時的に消失した顔を検出する確度を向上させることができる。
また、例えば、画像に写されている顔が小さかったり、顔のボケ具合が大きい場合には、類似度を判定する精度が低下することがあり、そのような場合にも、高精度で同一人物を判定することが求められている。
例えば、図11を参照して、第2の統合処理部52による統合処理が行われなかったとき(対策前)の認識結果と、第2の統合処理部52による統合処理が行われたとき(対策後)の認識結果とについて比較する。図11に示すように、第2の統合処理部52による統合処理を行うことにより、再現率の低下を抑制しつつ、適合率を飛躍的に(2倍に)向上させることができる。ここで、再現率とは、ラベリング結果の集合をAとし、認識結果の集合をCとし、集合Aと集合Bとの積集合をBとしたとき、B/(A+B)を演算することで求められる。また、適合率は、B/(C+B)を演算することで求められる。また、F値は調和平均であり、第2の統合処理部52による統合処理を行うことにより、調和平均を向上させることができる。
なお、一時的に消失した顔であるか否かの判定について、上述した方法以外に、例えば、顔の類似度×重み+胸部の類似度×重み+顔の周囲の領域の類似度×重みを演算して総合的な類似度を求め、総合的な類似度が閾値以上であり、かつ、属性が一致する場合に、一時的に消失した顔であると判定してもよい。また、顔の類似度×重みが閾値以上であり、胸部の類似度×重みが閾値以上であり、顔の周囲の領域の類似度×重みが閾値以上であり、かつ、属性が一致する場合に、一時的に消失した顔であると判定してもよい。
また、各閾値や重みに固定値を用いる他、一時的に消失した顔の消失時間から、新規の顔が検出されるまでの経過時間の関数で表されるような閾値や重みを採用してもよい。即ち、消失時間が短時間である場合、低い閾値で類似度の判定を行うようにしてもよい。
また、顔の類似度には、Gabor特徴ベクトルの正規化相関を用いることができる。また、胸部の類似度および顔の周囲の領域の類似度には、三次元色ヒストグラム間の逆数を用いることができる。
また、顔に関する情報を統合するときには、全ての情報を残す他、最も新しい情報だけを残したり、最も古い情報だけを残したり、最も素性の良い情報(顔確度の最も中央を向いている情報や、最もボケが少ない画像から得られた情報など)を残すようにしてもよい。さらに、情報の新しさ、古さ、素性の良さでランク付けを行い、上位の所定個数の情報を残すようにしてもよい。
なお、本実施の形態では、ヒストグラム算出部43により、図6に示した拡大顔領域の各領域からヒストグラムを算出して類似度を判定しているが、ヒストグラムの他、例えば、各領域のエッジ方向やテクスチャ情報を取得して、類似度の判定に、エッジ方向やテクスチャ情報を用いることができる。これにより、顔が一致しているか否かをより正確に判定することができる。また、顔領域内の顔の向き(顔角度)によってヒストグラムを算出する領域の位置または大きさを変更してもよい。例えば、顔が左向きであるときには、左側面領域および左胸領域を大きくすることで、画像の写りが良い領域からヒストグラムを算出することができ、判定の正確性を向上させることができる。
なお、顔領域抽出部22は、画像取得部21から供給される画像のうちの、数フレームに1回の割合で、顔領域を抽出する処理を行うようにすることができる。これにより、処理の負担を軽減することができ、画像処理装置14の処理能力が低い場合でも、顔を認識する処理や統合処理を実行することができる。また、トラッキング中の顔であるか否かの判定には顔領域の重複率を用いて処理を行っているが、例えば、この判定時に顔の特徴量を求めて類似度を算出し、類似度が高いか否かにより判定を行ってもよい。
また、図4の画像処理装置14では、データ統合部26が第1の統合処理部51と第2の統合処理部52と有しているが、いずれか1つの統合処理部を備えるように画像処理装置14を構成してもよい。その場合、記憶装置15にはデータベース31および32のうちの対応する一方のデータベースだけが記憶される。また、例えば、第1の統合処理部51と第2の統合処理部52とにより並列的に統合処理を行う他、画像処理結果を使用する目的に応じて、例えば、図1の通信装置16を介してのユーザの指示に応じて、どちらか一方の統合処理だけを行うようにしてもよい。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。即ち、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 デジタルサイネージシステム, 12 表示装置, 13 撮像装置, 14 画像処理装置, 15 記憶装置, 16 通信装置, 17 制御装置, 21 画像取得部, 22 顔領域抽出部, 23 データベース管理部, 24 演算部, 25 顔認識部, 26 データ統合部, 31および32 データベース, 33 新規顔リスト, 34 安定顔リスト, 35 一時消失リスト, 36 トラッキング顔リスト, 37 統合顔リスト, 38 一時消失リスト, 41 属性推定部, 42 特徴量抽出部, 43 ヒストグラム算出部, 51 第1の統合処理部, 52 第2の統合処理部

Claims (12)

  1. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出する顔領域抽出手段と、
    前記顔領域抽出手段により抽出された顔領域の顔を識別するための識別情報を取得する識別情報取得手段と、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う第1の統合処理手段と、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを、前記第1の統合処理手段とは異なる手法により判定して統合処理を行う第2の統合処理手段と
    を備え、
    前記第1の統合処理手段は、
    画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、
    前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理を行い、
    前記第2の統合処理手段は、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、
    前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理を行う
    画像処理装置。
  2. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、
    前記抽出された顔領域の顔を識別するための識別情報を取得し、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して第1の統合処理を行い、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを、前記第1の統合処理とは異なる手法により判定して第2の統合処理を行う
    ステップを含み、
    前記第1の統合処理では、
    画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、
    前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われ、
    前記第2の統合処理では、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、
    前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われる
    画像処理方法。
  3. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、
    前記抽出された顔領域の顔を識別するための識別情報を取得し、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して第1の統合処理を行い、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを、前記第1の統合処理とは異なる手法により判定して第2の統合処理を行う
    ステップを含む処理をコンピュータに実行させる
    前記第1の統合処理では、
    画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、
    前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われ、
    前記第2の統合処理では、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、
    前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われる
    プログラム。
  4. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出する顔領域抽出手段と、
    前記顔領域抽出手段により抽出された顔領域の顔を識別するための識別情報を取得する識別情報取得手段と、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う統合処理手段と
    を備え、
    前記統合処理手段は、
    画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、
    前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理を行う
    画像処理装置。
  5. 前記統合処理手段は、
    前記顔領域抽出手段により抽出された顔領域の顔の表情を推定し、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とで、同一の表情の顔から類似度を算出する
    処理を行う
    請求項4に記載の画像処理装置。
  6. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、
    前記抽出された顔領域の顔を識別するための識別情報を取得し、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う
    ステップを含み、
    前記統合処理では、
    画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、
    前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われる
    画像処理方法。
  7. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、
    前記抽出された顔領域の顔を識別するための識別情報を取得し、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う
    ステップを含む処理をコンピュータに実行させ、
    前記統合処理では、
    画像から消失してから所定の保存期間内の顔が表れると推定される推定範囲と、トラッキング中の顔の位置との関係に基づいて閾値を決定し、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を算出し、
    前記算出された類似度と、前記類似度の算出に用いられた保存期間内の顔に対応する前記閾値とに基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われる
    プログラム。
  8. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出する顔領域抽出手段と、
    前記顔領域抽出手段により抽出された顔領域の顔を識別するための識別情報を取得する識別情報取得手段と、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う統合処理手段と
    を備え、
    前記統合処理手段は、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、
    前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理を行う
    画像処理装置。
  9. 前記統合処理手段は、
    トラッキング中の顔の下側にある胸領域と、画像から消失してから所定の保存期間内の顔の下側にある胸領域との類似度をさらに算出し、
    前記算出された胸領域の類似度にも基づいて、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理を行う
    請求項8に記載の画像処理装置。
  10. 前記統合処理手段は、
    トラッキング中の顔の周囲領域と、画像から消失してから所定の保存期間内の顔の周囲領域との類似度をさらに算出し、
    前記算出された顔の周囲領域の類似度にも基づいて、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理を行う
    請求項8に記載の画像処理装置。
  11. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、
    前記抽出された顔領域の顔を識別するための識別情報を取得し、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う
    ステップを含み、
    前記統合処理では、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、
    前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われる
    画像処理方法。
  12. 画像に写されている顔を検出し、前記顔を含む顔領域を抽出し、
    前記抽出された顔領域の顔を識別するための識別情報を取得し、
    前記識別情報に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定して統合処理を行う
    ステップを含む処理をコンピュータに実行させ、
    前記統合処理では、
    トラッキング中の顔と、画像から消失してから所定の保存期間内の顔との類似度を、複数の顔方向ごとに算出し、
    前記算出された複数の顔方向ごとの類似度に基づいて、トラッキング中の顔と、画像から消失してから所定の保存期間内の顔とが同一人物の顔であるか否かを判定する
    処理が行われる
    プログラム。
JP2009277074A 2009-12-04 2009-12-04 画像処理装置および画像処理方法、並びにプログラム Expired - Fee Related JP5476955B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009277074A JP5476955B2 (ja) 2009-12-04 2009-12-04 画像処理装置および画像処理方法、並びにプログラム
US12/954,212 US8903123B2 (en) 2009-12-04 2010-11-24 Image processing device and image processing method for processing an image
CN2010105737139A CN102087702B (zh) 2009-12-04 2010-11-26 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009277074A JP5476955B2 (ja) 2009-12-04 2009-12-04 画像処理装置および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011118782A true JP2011118782A (ja) 2011-06-16
JP5476955B2 JP5476955B2 (ja) 2014-04-23

Family

ID=44082050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009277074A Expired - Fee Related JP5476955B2 (ja) 2009-12-04 2009-12-04 画像処理装置および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8903123B2 (ja)
JP (1) JP5476955B2 (ja)
CN (1) CN102087702B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033547A (ja) * 2015-08-05 2017-02-09 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP2019194857A (ja) * 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置
JP2020534609A (ja) * 2018-03-06 2020-11-26 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 目標トラッキング方法及び装置、電子機器並びに記憶媒体
US11216955B2 (en) 2018-03-06 2022-01-04 Beijing Sensetime Technology Development Co., Ltd. Target tracking methods and apparatuses, electronic devices, and storage media
JP2022549567A (ja) * 2020-08-28 2022-11-28 メジリティ カンパニー リミテッド イメージ従属コンテンツの統合方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2935498B1 (fr) * 2008-08-27 2010-10-15 Eads Europ Aeronautic Defence Procede d'identification d'un objet dans une archive video.
JP4893855B1 (ja) * 2010-12-21 2012-03-07 オムロン株式会社 画像認証装置、画像処理システム、画像認証装置制御プログラム、コンピュータ読み取り可能な記録媒体、および画像認証方法
US20120251078A1 (en) * 2011-03-31 2012-10-04 Microsoft Corporation Aggregated Facial Tracking in Video
JP2012244526A (ja) * 2011-05-23 2012-12-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
JP2012244525A (ja) * 2011-05-23 2012-12-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
JP5843618B2 (ja) * 2012-01-06 2016-01-13 キヤノン株式会社 画像処理装置、その制御方法、及びプログラム
JP5959923B2 (ja) * 2012-04-26 2016-08-02 キヤノン株式会社 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
CN103679125B (zh) * 2012-09-24 2016-12-21 致伸科技股份有限公司 人脸追踪的方法
JP2014085796A (ja) * 2012-10-23 2014-05-12 Sony Corp 情報処理装置およびプログラム
JP6098133B2 (ja) * 2012-11-21 2017-03-22 カシオ計算機株式会社 顔構成部抽出装置、顔構成部抽出方法及びプログラム
US20140341444A1 (en) * 2013-05-14 2014-11-20 Tencent Technology (Shenzhen) Company Limited Systems and Methods for User Login
JP2014222439A (ja) 2013-05-14 2014-11-27 ソニー株式会社 情報処理装置、パーツ生成利用方法及びプログラム
GB201419441D0 (en) * 2014-10-31 2014-12-17 Microsoft Corp Modifying video call data
JP6775343B2 (ja) * 2015-09-11 2020-10-28 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
CN105654039B (zh) * 2015-12-24 2019-09-17 小米科技有限责任公司 图像处理的方法和装置
US10497014B2 (en) * 2016-04-22 2019-12-03 Inreality Limited Retail store digital shelf for recommending products utilizing facial recognition in a peer to peer network
CN106022317A (zh) * 2016-06-27 2016-10-12 北京小米移动软件有限公司 人脸识别方法及装置
CN107798709A (zh) * 2016-09-07 2018-03-13 中兴通讯股份有限公司 一种拍照方法及装置、移动终端
JP6725381B2 (ja) * 2016-09-20 2020-07-15 株式会社東芝 画像照合装置および画像照合方法
CN106778925B (zh) * 2016-11-03 2021-10-08 五邑大学 一种人脸识别的姿态超完备人脸自动注册方法及其装置
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
US10621419B2 (en) * 2016-12-06 2020-04-14 Robert William Kocher Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates
CN110291855B (zh) * 2017-02-13 2021-09-14 株式会社高迎科技 检查在印刷电路板贴装的部件的装置、其运转方法及计算机可读记录介质
US10474881B2 (en) * 2017-03-15 2019-11-12 Nec Corporation Video retrieval system based on larger pose face frontalization
US11169661B2 (en) 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
CN109658438A (zh) * 2018-12-05 2019-04-19 王家万 视频中被检测目标的跟踪方法、装置及存储介质
JP7377078B2 (ja) * 2019-11-21 2023-11-09 キヤノン株式会社 画像処理装置および画像処理方法、ならびに撮像装置
CN112001932B (zh) * 2020-09-01 2023-10-31 腾讯科技(深圳)有限公司 人脸识别方法、装置、计算机设备和存储介质
CN112434627B (zh) * 2020-11-30 2023-04-07 浙江大华技术股份有限公司 行人翻越道路护栏的检测方法、装置以及存储介质
WO2022133993A1 (zh) * 2020-12-25 2022-06-30 京东方科技集团股份有限公司 基于视频数据进行人脸注册的方法、装置和电子白板
CN112907636B (zh) * 2021-03-30 2023-01-31 深圳市优必选科技股份有限公司 多目标跟踪方法、装置、电子设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2008250772A (ja) * 2007-03-30 2008-10-16 Secom Co Ltd 移動物体追跡装置
JP2009048347A (ja) * 2007-08-17 2009-03-05 Seiko Epson Corp 画像処理装置、画像処理方法、および、画像処理プログラム

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
EP1136937B1 (en) * 2000-03-22 2006-05-10 Kabushiki Kaisha Toshiba Facial image forming recognition apparatus and a pass control apparatus
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US20030123728A1 (en) * 2001-12-28 2003-07-03 Koninklijke Philips Electronics N.V. Interactive video installation and method thereof
US20030174869A1 (en) * 2002-03-12 2003-09-18 Suarez Anthony P. Image processing apparatus, image processing method, program and recording medium
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
JP2004118627A (ja) * 2002-09-27 2004-04-15 Toshiba Corp 人物認証装置および人物認証方法
GB2395779A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
KR100455294B1 (ko) * 2002-12-06 2004-11-06 삼성전자주식회사 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치
JP2005102153A (ja) * 2003-08-15 2005-04-14 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2005141328A (ja) * 2003-11-04 2005-06-02 Toshiba Corp 予知ロボット装置、予知ロボットの制御方法、及び予知ロボットシステム
US7899208B2 (en) * 2004-01-06 2011-03-01 Sony Corporation Image processing device and method, recording medium, and program for tracking a desired point in a moving image
WO2005114576A1 (ja) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha 動作内容判定装置
US7734067B2 (en) * 2004-12-07 2010-06-08 Electronics And Telecommunications Research Institute User recognition system and method thereof
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP2006254174A (ja) 2005-03-11 2006-09-21 Nec Corp 拡散符号の割当方法、そのプログラム、無線回線制御局及び移動通信システム
JP4661413B2 (ja) * 2005-07-11 2011-03-30 富士フイルム株式会社 撮像装置、撮影枚数管理方法及び撮影枚数管理プログラム
JP4626425B2 (ja) * 2005-07-11 2011-02-09 富士フイルム株式会社 撮像装置、撮像方法及び撮像プログラム
US7889892B2 (en) * 2005-10-13 2011-02-15 Fujifilm Corporation Face detecting method, and system and program for the methods
US8098885B2 (en) * 2005-11-02 2012-01-17 Microsoft Corporation Robust online face tracking
JP4845755B2 (ja) * 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US20090217315A1 (en) * 2008-02-26 2009-08-27 Cognovision Solutions Inc. Method and system for audience measurement and targeting media
JP4909840B2 (ja) 2007-08-21 2012-04-04 株式会社東芝 映像処理装置、プログラムおよび方法
CN100568262C (zh) * 2007-12-29 2009-12-09 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
US8615383B2 (en) * 2008-01-18 2013-12-24 Lockheed Martin Corporation Immersive collaborative environment using motion capture, head mounted display, and cave
JP4497236B2 (ja) * 2008-08-11 2010-07-07 オムロン株式会社 検出用情報登録装置、電子機器、検出用情報登録装置の制御方法、電子機器の制御方法、検出用情報登録装置制御プログラム、電子機器の制御プログラム
FR2935498B1 (fr) * 2008-08-27 2010-10-15 Eads Europ Aeronautic Defence Procede d'identification d'un objet dans une archive video.
JP2010213749A (ja) * 2009-03-13 2010-09-30 Omron Corp 車両動作制御装置および方法、並びにプログラム
JP5270415B2 (ja) * 2009-03-19 2013-08-21 トヨタ自動車株式会社 眠気判定装置及びプログラム
JP5506274B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
JP5506272B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
JP5506273B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
KR20120016386A (ko) * 2010-08-16 2012-02-24 주식회사 팬택 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
KR101340797B1 (ko) * 2010-09-01 2013-12-11 주식회사 팬택 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
JP2012094104A (ja) * 2010-09-29 2012-05-17 Omron Corp 情報処理装置および方法、並びにプログラム
WO2013001144A1 (en) * 2011-06-30 2013-01-03 Nokia Corporation Method and apparatus for face tracking utilizing integral gradient projections
CN103679125B (zh) * 2012-09-24 2016-12-21 致伸科技股份有限公司 人脸追踪的方法
US8995772B2 (en) * 2012-11-09 2015-03-31 Microsoft Technology Licensing, Llc Real-time face detection using pixel pairs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2008250772A (ja) * 2007-03-30 2008-10-16 Secom Co Ltd 移動物体追跡装置
JP2009048347A (ja) * 2007-08-17 2009-03-05 Seiko Epson Corp 画像処理装置、画像処理方法、および、画像処理プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033547A (ja) * 2015-08-05 2017-02-09 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP2020534609A (ja) * 2018-03-06 2020-11-26 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 目標トラッキング方法及び装置、電子機器並びに記憶媒体
US11216955B2 (en) 2018-03-06 2022-01-04 Beijing Sensetime Technology Development Co., Ltd. Target tracking methods and apparatuses, electronic devices, and storage media
US11699240B2 (en) 2018-03-06 2023-07-11 Beijing Sensetime Technology Development Co., Ltd. Target tracking method and apparatus, and storage medium
JP2019194857A (ja) * 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置
US11270108B2 (en) 2018-05-04 2022-03-08 Canon Kabushiki Kaisha Object tracking method and apparatus
JP2022549567A (ja) * 2020-08-28 2022-11-28 メジリティ カンパニー リミテッド イメージ従属コンテンツの統合方法
JP7220361B2 (ja) 2020-08-28 2023-02-10 アルベオン カンパニー リミテッド イメージ従属コンテンツの統合方法

Also Published As

Publication number Publication date
US20110135153A1 (en) 2011-06-09
US8903123B2 (en) 2014-12-02
CN102087702B (zh) 2013-07-24
CN102087702A (zh) 2011-06-08
JP5476955B2 (ja) 2014-04-23

Similar Documents

Publication Publication Date Title
JP5476955B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN105631399B (zh) 用于体育视频识别的快速对象跟踪框架
Zelnik-Manor et al. Statistical analysis of dynamic actions
Wang et al. Robust face anti-spoofing with depth information
KR101971866B1 (ko) 동화상에 있어서 물체를 검출하는 방법 및 장치, 및 그 프로그램을 기억한 기억 매체
US8401248B1 (en) Method and system for measuring emotional and attentional response to dynamic digital media content
JP5766564B2 (ja) 顔認証装置及び顔認証方法
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Wei et al. Face detection for image annotation
JP6589321B2 (ja) システム、検索方法およびプログラム
JP2011248548A (ja) コンテンツ決定プログラムおよびコンテンツ決定装置
Lin et al. Visual-attention-based background modeling for detecting infrequently moving objects
US11176679B2 (en) Person segmentations for background replacements
JP2015082245A (ja) 画像処理装置、画像処理方法及びプログラム
JP2010009425A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2013058060A (ja) 人物属性推定装置、人物属性推定方法及びプログラム
CN110781733B (zh) 图像去重方法、存储介质、网络设备和智能监控系统
Schumann et al. A soft-biometrics dataset for person tracking and re-identification
JP2016134803A (ja) 画像処理装置及び画像処理方法
Wang et al. When pedestrian detection meets nighttime surveillance: A new benchmark
JP2016201105A (ja) 情報処理装置及び情報処理方法
US9361705B2 (en) Methods and systems for measuring group behavior
CN112488072A (zh) 一种人脸样本集获取方法、系统及设备
Barhoumi Detection of highly articulated moving objects by using co-segmentation with application to athletic video sequences
Razavian et al. Estimating attention in exhibitions using wearable cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140127

LAPS Cancellation because of no payment of annual fees