JP2018005510A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2018005510A
JP2018005510A JP2016130609A JP2016130609A JP2018005510A JP 2018005510 A JP2018005510 A JP 2018005510A JP 2016130609 A JP2016130609 A JP 2016130609A JP 2016130609 A JP2016130609 A JP 2016130609A JP 2018005510 A JP2018005510 A JP 2018005510A
Authority
JP
Japan
Prior art keywords
detection
integration
image data
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016130609A
Other languages
English (en)
Other versions
JP6742837B2 (ja
Inventor
大介 中嶋
Daisuke Nakajima
大介 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016130609A priority Critical patent/JP6742837B2/ja
Priority to US15/633,581 priority patent/US10410044B2/en
Publication of JP2018005510A publication Critical patent/JP2018005510A/ja
Application granted granted Critical
Publication of JP6742837B2 publication Critical patent/JP6742837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 所定時間内にオブジェクト検出を行うと、統合処理が完了せずに途中で打ち切られてしまう可能性がある。【解決手段】 画像処理装置は、画像データを入力する画像入力手段と入力された前記画像データから複数のオブジェクトを検出する検出手段と、前記検出処理が終了した後に、検出された前記オブジェクトの前記画像データにおける位置に基づいて前記複数のオブジェクトを統合する統合手段とを有し、前記検出手段は、前記検出手段による検出処理が終了する前に、検出された複数のオブジェクトを前記統合手段によって統合する統合時間を推定する推定手段と、前記推定手段によって推定された前記統合時間と前記検出手段によるオブジェクト検出の経過時間との合計時間が所定時間以上となった場合、前記検出手段によるオブジェクト検出を打ち切り、前記検出手段による検出処理を終了させる打ち切り手段とを有することを特徴とする。【選択図】 図2

Description

本発明は、画像中の人体や顔などのオブジェクトを検出する画像処理装置、画像処理方法およびプログラムに関する。
近年、画像中の人体や顔といった特定のオブジェクトを検出する技術が注目されている。
検出対象となるオブジェクトの画像中での位置・大きさは様々である。特許文献1では、次のような処理の流れでオブジェクトを検出している。まず、異なる大きさのオブジェクトを検出するために、入力画像から縮小率の異なる複数の画像を生成する。次に、異なる位置に存在するオブジェクトを検出するために、所定の大きさのウィンドウを各画像に対してスキャンし、ウィンドウ内でオブジェクト検出処理を実行する。縮小率の異なる複数の画像における同一のオブジェクトでも、各画像において同一のオブジェクトの位置・大きさが異なるので、複数のオブジェクトの検出結果が生成されるため、最後に同一のオブジェクトに対して検出された複数の検出結果を統合する。
また、携帯端末や車載機器等の組み込みシステム上でオブジェクト検出処理を実行する場合、オブジェクト検出処理のリアルタイム性を向上させるために所定時間内に処理を完了させる技術がある。ウィンドウ内でのオブジェクト検出処理の高速化技術の例として、非特許文献1と特許文献2との手法がある。非特許文献1では、判別器をカスケード接続した弱判別器により構成し、弱判別器を順に処理する。弱判別器の判別結果に基づいて、次の弱判別器を処理するかどうかを判断する。次の弱判別器を処理しないと判断する場合、残りの弱判別器の処理を省略する。
特許文献2では、組み込みシステム上でオブジェクト検出処理を実行することを想定し、オブジェクト検出処理のリアルタイム性を保証する手法が提案されている。所定時間が経過すると処理を中断し、その時点で得られた検出結果を出力する。
特許第5027030号 特許第4658788号
P. Viola, M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features". Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Vol. 1, pp. 511−518, December 2001.
しかしながら、非特許文献1の手法は、処理した弱判別器数によって処理時間が変動する。また、非特許文献1における統合処理は統合前のオブジェクトの検出数によって処理時間が変動する。そのため、あらゆる画像に対して所定時間内に統合処理が完了することを保証することは困難である。
特許文献2の手法は、統合処理を行わずに、所定時間が経過した時点でオブジェクト検出処理の処理を打ち切るため、一つのオブジェクトに対して複数の検出結果が出力される。このような未統合の検出結果は、使用する後段の処理で扱いづらい。例えば、検出したオブジェクトがデータベースに登録されているオブジェクトと一致するかどうかを照合する場合、統合が完了している場合に比べ、照合時間が増大する。あるいは、連続するフレームにおけるオブジェクトの検出結果を用いて各フレーム中のオブジェクトを追尾する場合、フレーム間での検出されたオブジェクトの対応付けに要する時間が、統合が完了している場合に比べ、増大する。また、フレーム間での検出されたオブジェクトの対応付けの失敗が誤追尾の原因となる。
本発明は上記の課題に鑑みてなされたものであり、オブジェクトの検出結果の統合処理を所定時間内に完了するように、オブジェクト検出処理を打ち切る画像処理装置を提供することを目的とする。また、その画像処理装置の画像処理方法およびプログラムを提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、以下の構成を有する。すなわち、画像データを入力する画像入力手段と入力された前記画像データから複数のオブジェクトを検出する検出手段と、前記検出手段による検出処理が終了した後に、前記検出手段によって検出された前記オブジェクトの前記画像データにおける位置に基づいて、前記複数のオブジェクトを統合する統合手段と、を有し、前記検出手段は、前記検出手段による検出処理が終了する前に、前記検出手段によって検出された複数のオブジェクトを前記統合手段によって統合する統合時間を推定する推定手段と、前記推定手段によって推定された前記統合時間と前記検出手段によるオブジェクト検出の経過時間との合計時間が所定時間以上となった場合、前記検出手段によるオブジェクト検出を打ち切り、前記検出手段による検出処理を終了させる打ち切り手段とを有することを特徴とする。
本発明の画像処理装置によれば、オブジェクトの検出結果の統合処理を所定時間内に完了するように、オブジェクト検出処理を打ち切ることで、オブジェクト検出処理のリアルタイム性を向上させる。
(a)第1の実施形態における画像処理装置の機能構成を示すブロック図である。(b)第1の実施形態におけるオブジェクト検出の処理の流れを示すフローチャートである。 第1の実施形態における検出処理の流れを示すフローチャートである。 第1の実施形態における統合処理の流れを示すフローチャートである。 第1の実施形態における画像処理装置のハードウエア構成を示すブロック図である。 (a)第1の実施形態における検出処理のピラミッド画像を説明する図である。(b)第1の実施形態における検出処理のブロック画像を説明する図である。 第1の実施形態における判別処理の論理構造を説明する図である。 第1の実施形態における判別パラメータセットの例を説明する図である。 (a)第1の実施形態における検出結果の例を説明する図である。(b)第1の実施形態における統合結果の例を説明する図である。 第2の実施形態における検出処理の流れを示すフローチャートである。
(第1の実施形態)
以下、第1の実施形態について図面を参照して詳細に説明する。
<画像処理装置の構成例>
図1(a)は、本実施形態における画像処理装置の機能構成を示すブロック図である。本実施形態の画像処理装置は、画像入力部100、オブジェクト検出部101および統合部102を有する。画像入力部100は、非図示の外部装置又は記憶部から画像データを入力する。オブジェクト検出部101は、入力された画像データからオブジェクトを検出する。統合部102は、検出されたオブジェクトを統合する。オブジェクト検出部101は、統合部102によるオブジェクトの統合時間を推定する統合時間推定部1011を有する。また、オブジェクト検出部101は、統合部102によるオブジェクトの統合処理が所定時間内に完了するように、オブジェクト検出部101による検出処理を打ち切る検出打ち切り部1012を有する。なお、本実施形態において検出するオブジェクトは、例えば顔や人体であるが、これに限らない。
図4は、オブジェクト検出方法を実現可能な画像処理装置のハードウエア構成例を示すブロック図である。
データ保存部401は、画像データを保持する部分である。データ保存部401は、例えば、ハードディスク、フレキシブルディスク、CD−ROM、CD−RやDVD、メモリーカード、CFカード、スマートメディア、SDカード、メモリスティック、xDピクチャーカード、USBメモリ等で構成される。データ保存部401には画像データの他にも、プログラムやその他のデータを保存することも可能である。あるいは、後述するRAM406の一部をデータ保存部401として用いるのであっても良い。またあるいは、後述する通信部402により接続した先の機器の記憶装置を、通信部402を介して利用するというように仮想的に構成するのであっても良い。
表示部403は、オブジェクト検出結果の画像データを表示、あるいはGUI等の画像データを表示する装置で、一般的にはCRTや液晶ディスプレイなどが用いられる。あるいは、ケーブル等で接続された装置外部のディスプレイ装置であっても構わない。例えば、入力画像に対して検出結果の枠を重畳して表示する。
CPU404は本実施形態に係る主要な処理を実行すると共に本装置全体の動作を制御する。ROM405とRAM406は、その処理に必要なプログラム、データ、作業領域などをCPU404に提供する。後述する処理に必要なプログラムがデータ保存部401に格納されている場合や、ROM405に格納されている場合には、一旦RAM406に読み込まれてから実行される。またあるいは通信部402を経由して装置がプログラムを受信する場合には、一旦データ保存部401に記録した後にRAM406に読み込まれるか、直接通信部402からRAM406に直接読み込まれてから実行される。
CPU404は、RAM406に書き込まれた画像を読み出して本実施形態に係るオブジェクト検出処理を実行する。処理途中のデータはRAM406に書き込み、必要な場合に読み込む。そして、オブジェクト検出結果をRAM406に書き込む。あるいは、表示部403に表示する。またあるいは、通信部402を介して外部装置に送信する。
なお、図4においては、CPU404が1つだけである構成だが、これを複数設けるような構成にしても良い。
通信部402は、機器間の通信を行うためのI/Fである。通信部402は、例えば、公知のローカルエリアネットワーク、USB、IEEE1284、IEEE1394、電話回線などの有線による通信方式であっても良い。あるいは、通信部402は、赤外線(IrDA)、IEEE802.11a、IEEE802.11b、IEEE802.11g、IEEE802.11n、Bluetooth(登録商標)、UWB(Ultra wide Band)等の無線通信方式であっても良い。
なお、図4ではデータ保存部401、表示部403が全て1つの装置内に含まれるような図を示しているが、あるいはこれらの部分が公知の通信方式による通信路で接続されており、全体としてこのような構成となっているのであっても構わない。
システム構成については、上記以外にも様々な構成要素が存在するが、本実施形態の主な構成要素ではないのでその説明は省略する。
以下、図4に示した画像処理装置が処理する内容についてフローチャートを用いて説明する。以下、フローチャートは、CPU404が制御プログラムを実行することにより実現されるものとする。
<オブジェクト検出方法>
本実施形態におけるオブジェクト検出方法は、検出処理中の所定のタイミングにおいてそれまでに検出したオブジェクトの数を基に統合処理に必要な時間を推定する。そして、残り時間内に統合処理が完了するように検出処理を打ち切る。なお、入力データとして画像データを想定する。
図1(b)〜図3は本実施形態におけるオブジェクト検出方法を示すフローチャートである。図1(b)は、第1の実施形態におけるオブジェクト検出の処理の流れを示すフローチャートである。図1(b)に示すように、オブジェクト検出方法は大きく検出処理(ステップS101)と統合処理(ステップS102)から構成される。以下、検出処理、統合処理の流れをそれぞれ図2、図3を用いて説明する。
検出処理の流れについて図2を用いて説明する。ステップS201〜S203では、各種繰返しループを開始する。図5を併用して各繰返しループについて説明する。
ステップS201では、画像入力部100から入力されたピラミッド画像に対して、オブジェクト検出部101はピラミッド画像の繰返しループを開始する。ピラミッド画像とは、図5(a)に示す入力画像データ501および、入力画像データ501から生成された縮小率の異なる縮小画像データ502、縮小画像データ503のことである。なお、図5に示すピラミッド画像は3枚の画像であるが、ピラミッド画像は3枚以外あの複数の画像であってもよい。本実施形態では、非図示のピラミッド画像生成部によって入力画像データから生成されたピラミッド画像は予めRAM406に格納されているものとする。画像入力部100はピラミッド画像を入力して使用することにより、オブジェクト検出部101は入力画像中の異なる大きさのオブジェクトを検出することが可能となる。本実施形態では、ピラミッド画像の縮小画像データ503、縮小画像データ502、入力画像データ501の順に画像データサイズの小さいピラミッド画像から処理する。これは、検出処理が処理途中の時点で打ち切られた場合に、検出結果として、画像中の比較的に大きいオブジェクトが優先されるようにするためである。
なお、本実施形態では入力画像から生成された複数のピラミッド画像に対してオブジェクト検出を行う例について説明するが、必ずしもオブジェクト検出の処理対象をピラミッド画像に限定する必要はない。
また、検出ウィンドウのサイズが複数あってもよい。例えば、事前に異なるサイズの検出ウィンドウを用意して、検出ウィンドウの大きいサイズ順に入力画像をラスタスキャンして、大きさの異なるオブジェクトを検出してもよい。
また、必ずしも画像中の比較的に大きいオブジェクトを優先して検出する必要はない。例えば、女性の顔や人体より男性の顔や人体を正確に検出する弱判別器を使用し、結果的に優先的に男性の顔や人体を検出するようにしてもよい。
ステップS202では、オブジェクト検出部101はブロック画像の繰返しループを開始する。ブロック画像とは、ピラミッド画像をブロック状に分割した画像のことである。例えば、図5(b)に示すように、入力画像501は複数のブロック画像504〜509に分けられている。本実施形態では、オブジェクト検出部101はラスタ順にブロック画像を処理する。なお、図2ではブロック間の重なりがないように記載したが、後述する検出ウィンドウ510がピラミッド画像中で連続するようにブロック間で重なりをもたせてもよい。
ステップS203では、オブジェクト検出部101は検出ウィンドウの繰返しループを開始する。検出ウィンドウとは、検出処理の処理単位のことである。オブジェクト検出部101は、図5に示す検出ウィンドウ510をブロック画像内でラスタスキャンさせ、検出ウィンドウ510内にオブジェクトが含まれるかどうかを判定する。
ステップS204では、オブジェクト検出部101は検出ウィンドウに対して判別処理を実行する。図6は本実施形態におけるオブジェクト検出部101の判別処理の論理構造を説明する図である。
本実施形態では、オブジェクト検出部101はN個の弱判別器をカスケード接続した判別器を使用する。弱判別器601、弱判別器602および弱判別器603はそれぞれ1,2,N番目の弱判別器であり、1〜Nの順に判別処理を実行する。それぞれの判別器は予めBoosting等の機械学習により作成した判別パラメータに従って検出対象のオブジェクトが存在する(True)もしくは存在しない(False)と判定する。一つの弱判別器がTrueであると判定されると次の弱判別器に移る。すべての弱判別器の判別結果がTrueであった場合、その検出ウィンドウ内に領域に検出対象のオブジェクトが存在すると判定する。一方、いずれかの弱判別器の判別結果がFalseであった場合、その時点で領域内に検出対象のオブジェクトは存在しないと判定する。
図7は本実施形態における判別パラメータの例を説明する図である。判別パラメータはRAM406もしくはROM405に格納する。図7におけるiは図6における弱判別器の番号に対応する。各弱判別器に対する判別パラメータは、検出ウィンドウ内の参照座標、その座標における画素値を検出対象のオブジェクトらしさを示す評価値に変換する変換テーブル、評価値との比較のための閾値から構成する。第i番目の弱判別器は、第0〜第i−1番目の弱判別器の評価値の累積値が閾値以上であればTrue、それ以外であればFalseと判定する。
ステップS205では、オブジェクト検出部101はブロック内のすべての検出ウィンドウに対する判別処理が完了したかどうかを判定する。すべての検出ウィンドウに対する判別処理が完了した場合は、ステップS205に進み、検出ウィンドウのループを終了する。一方、すべての検出ウィンドウに対する判別処理が完了していない場合はステップS204に戻り、次の検出ウィンドウに対する判別処理を実行する。
ステップS206では、統合時間推定部1011は、ステップS102の統合部102による統合処理に要する時間を推定する。本実施形態では、これまでにオブジェクト検出部101の検出したオブジェクトの数(M)に基づいて統合処理時間を推定する。後述するように、本実施形態における統合処理では1つの検出オブジェクトと他の検出オブジェクトとの座標距離に基づいて統合するかどうかを判定するため、統合処理に要する時間はMの値を用いて算出する。そこで、統合処理の推定時間Tintは次式に従って計算する。なお、次式のAおよびBの値は事前に設定される。
int=A・M+B (1)
通常、統合処理に要する時間は検出オブジェクトの数だけでなく、検出オブジェクトの分布にも依存する。AおよびBの値はこれらを考慮して定める。本実施形態では、検出オブジェクトの数・分布が異なる多数の実験画像に対する統合処理時間を計測し、すべての実験画像に対する統合処理が完了するようにAおよびBの値を定める。
ステップS207では、検出打ち切り部1012は、検出処理を打ち切るかどうかを判定する。検出処理を開始してからの経過時間をTdet、ステップS206において算出した統合処理の推定時間をTint、全ての処理を完了させる設定時間をTtotalとすると、打ち切り判定部1012は、次式が成立する場合に検出処理を打ち切ると判定する。即ち、検出打ち切り部1012は、検出処理を開始してからの経過時間と統合処理の推定時間との合計時間が設定された所定時間以上となった時点で検出処理を打ち切る。
total det+Tint (2)
ステップS208では、ステップS207の判定結果に基づいて、検出打ち切り部1012は検出処理を打ち切る。式(2)が成立したら検出処理を終了する。一方、式(2)が成立しなかった場合はステップS209に進み、検出処理を継続する。
式(2)が成立したら検出処理を終了する。一方、式(2)が成立しなかった場合はステップS208に進み、検出処理を継続する。
ステップS209では、オブジェクト検出部101は、ピラミッド画像内のすべてのブロック画像に対する処理が完了したかどうかを判定する。すべてのブロック画像に対する処理が完了した場合は、ステップS210に進み、ブロック画像のループを終了する。一方、すべてのブロック画像に対する処理が完了していない場合はステップS203に戻り、次のブロック画像に対する処理を実行する。
ステップS210では、オブジェクト検出部101は、すべてのピラミッド画像に対する処理が完了したかどうかを判定する。すべてのピラミッド画像に対する処理が完了した場合は、検出処理を終了する。一方、すべてのピラミッド画像に対する処理が完了していない場合はステップS202に戻り、次のピラミッド画像に対する処理を実行する。
図8(a)は検出結果の例を説明する図である。以上説明した検出処理により、図8(a)に示すような検出結果801が得られる。検出結果801中の矩形はオブジェクトが検出された検出ウィンドウを示す。一つのオブジェクトに対してピラミッド画像の縮小画像で検出された複数の検出ウィンドウは入力画像中での大きさ・位置に拡大している。例えば、検出ウィンドウ802、検出ウィンドウ803、検出ウィンドウ804はそれぞれ入力画像501、第一縮小画像502、第二縮小画像503における検出結果に対応するものである。以降説明する統合処理により、入力画像501における位置の近い検出結果を一つのオブジェクトに対して検出された検出結果として統合し、図8(b)に示す統合結果805を生成する。
統合処理の流れについて図3を用いて説明する。統合部102は、ステップS301とステップS302とにおいて、検出結果の統合処理ループを開始する。統合部102は、オブジェクト検出部101によって得られたN個の検出結果に対して、検出結果iと検出結果jとを比較する。
ステップS303では、統合部102は、検出結果iと検出結果jが同一の検出結果であるかどうかを判定する。同一である場合は何も処理をせずにステップS306に進む。一方、異なる検出結果であった場合はステップS304に進む。
ステップS304では、統合部102は、検出結果iと検出結果jの入力画像上での距離が予め定めた閾値以下であるかどうかを判定する。入力画像上での距離はそれぞれの検出結果である矩形の左上の頂点座標間のユークリッド距離とする。距離が閾値以下であった場は、ステップS305に進む。一方、距離が閾値よりも大きかった場合はステップS306に進む。
ステップS305では、統合部102は、検出結果iと検出結果jの累積評価値を比較し、累積評価値の低い方の検出結果を削除することによって検出結果を統合する。統合処理が完了すると検出結果を更新し、ステップS301に進み、更新後の検出結果に対する繰返しループを開始する。
ステップS306およびステップS307では、すべての検出結果に対する統合処理が完了したかどうかを判定する。統合処理が完了した場合は、ステップS307に進む。一方、統合処理が完了していない場合はステップS302に戻り、次の検出結果に対する処理を実行する。
以上の処理により、距離が閾値以下の検出結果がすべて統合されるまで処理を継続する。
本実施形態は、図3に示す統合処理を例として説明したが、これに限らない。例えば、画像中の所定の領域内の座標をすべてその領域の中心座標に変換するテーブルを用意し、検出結果の左上座標にその変換テーブルを適用することで統合してもよい。
以上説明したように、本実施形態のオブジェクト検出方法によれば、ブロック画像に対する検出処理が完了する度に、それまでに検出したオブジェクトの数を基に統合処理に必要な時間を推定する。そして、残り時間内に統合処理が完了するように検出処理を打ち切ることによって、統合処理が処理途中で打ち切られないため、後段の処理が扱いやすい検出結果が得られるという利点がある。
本実施形態では、一つのブロック画像に対する検出処理が完了する度に統合処理時間を推定するとしたが、統合処理時間を推定するタイミングはこれに限らない。一枚のピラミッド画像に対する検出処理が完了した時点でもよいし、一つの検出ウィンドウに対する検出処理が完了した時点でもよい。あるいは、複数のピラミッド画像、複数のブロック、複数の検出ウィンドウいずれかに対する検出処理が完了した時点でもよい。
(第2の実施形態)
第2の実施形態では、第1の実施形態と異なる部分のみを説明する。
第1の実施形態におけるオブジェクト検出方法は、ブロック画像に対する検出処理が完了する度のオブジェクトの検出数を利用して統合処理に必要な時間を推定し、すべての処理が所定時間内に収まるように検出処理を打ち切る。
一方、本実施形態は、入力された動画の各フレームに対して図1に示す処理を行うことを想定する。統合時間推定部1011は、画像処理装置が直前に統合処理したフレームに要した統合処理時間を利用して現在入力されているフレームに対する統合処理に必要な時間を推定する。そして、検出打ち切り部1012は、現在のフレームに対するすべての処理が所定時間内に収まるように、検出処理が終了する前に検出処理を打ち切る。
図9は本実施形態における検出処理の流れを示すフローチャートである。
ステップS901では、統合時間推定部1011は、ステップS102の統合処理に要する時間を推定する。本実施形態では、統合時間推定部1011は、前回のフレーム(直前に検出処理したフレーム)に対する統合処理時間(Tpast)に基づき、次式に従って現在入力されているフレームの統合処理の推定時間Tintを計算する。
int=Tpast+C (3)
ここで、Cはマージンのための定数である。連続するフレームであっても検出結果は異なるため、前回の統合処理時間をそのまま使用する訳でなく、所定のマージンを設定する。なお、最初のフレームに対するTpastは、第1の実施形態の方法によって推定し、或いは予め多数の実験画像に対して計測した統合処理時間の最大値を用いる。
図9の説明では、直前に処理した一つのフレームに対する統合処理に要した時間を基に統合処理時間を推定するとしたが、これに限らない。以前に処理した複数のフレームの統合処理に要した時間の平均値、あるいは最大値を基に推定してもよい。
以上説明したように、本実施形態のオブジェクト検出方法によれば、前回のフレームに対する統合処理時間を基に現在のフレームの統合処理に必要な時間を推定する。統合処理時間の推定は、現在のフレームに対する検出処理の開始時に1回だけ実行すればよいため、第1の実施形態の方式よりも推定に要する時間を削減することが可能となる。
(第3の実施形態)
第1の実施形態では、検出したオブジェクトの数に基づいて統合処理に必要な時間を推定するとしたが、本実施形態では、オブジェクトの分布を用いて統合処理の時間を推定する。即ち、本実施形態で推定する統合処理の時間は、検出されたオブジェクトの数が同じでも、オブジェクト間の距離によって異なる。例えば、入力画像において他のオブジェクトとの距離の近いオブジェクトが存在しない場合に統合処理の処理時間は最短となり、検出結果ループの後半に距離の近いオブジェクトが多く存在すると処理時間が長くなる。そこで、本実施形態の統合時間推定部1011は、オブジェクトの数およびオブジェクト間の距離に基づいて、式(1)のAおよびBの値を変更する。
オブジェクトの数のみを使用する場合は、あらゆる入力画像に対して統合処理が完了することを保証するために、処理時間が最長となるオブジェクトの分布を想定して推定時間を決定するため、必要以上に推定時間が長くなる場合がある。一方、オブジェクトの分布の情報を併用すると、推定時間に含まれる余分な時間が短くなるため、検出処理を実行可能な時間が長くなり、検出精度が向上するという利点がある。
なお、第1の実施形態と第2の実施形態とでは、検出処理の実行中に統合処理時間を推定するとしたが、本実施形態はこれに限らない、事前に定めた値を推定時間としてもよい。例えば、検出オブジェクトの数・分布が異なる多数の実験画像に対する統合処理時間を計測し、その中の最大時間に所定のマージンを加算した値を推定時間とする。
また、第1の実施形態と第2の実施形態とでは、処理を打ち切る対象は検出処理のみとしたが、本実施形態はこれに限らない。推定した時間内に統合処理が完了せず、処理開始からの経過時間がTtotal達した場合には、その時点ですべての処理を打ち切るように構成してもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像入力部
101 オブジェクト検出部
1011 統合時間推定部
1012 検出打ち切り部
102 統合部

Claims (14)

  1. 画像データを入力する画像入力手段と
    入力された前記画像データから複数のオブジェクトを検出する検出手段と、
    前記検出手段による検出処理が終了した後に、前記検出手段によって検出された前記オブジェクトの前記画像データにおける位置に基づいて、前記複数のオブジェクトを統合する統合手段と、
    を有し、
    前記検出手段は、
    前記検出手段による検出処理が終了する前に、前記検出手段によって検出された複数のオブジェクトを前記統合手段によって統合する統合時間を推定する推定手段と、
    前記推定手段によって推定された前記統合時間と前記検出手段によるオブジェクト検出の経過時間との合計時間が所定時間以上となった場合、前記検出手段によるオブジェクト検出を打ち切り、前記検出手段による検出処理を終了させる打ち切り手段とを有することを特徴とする画像処理装置。
  2. 前記推定手段は、前記検出手段によるオブジェクト検出の処理途中の時点において、該処理途中の時点までに検出されたオブジェクトを前記統合手段によって統合する統合時間を推定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記推定手段は、前記検出手段によるオブジェクト検出の処理途中において、前記検出手段によって検出された前記オブジェクトの数に基づいて、前記統合手段によって前記複数のオブジェクトを統合する統合時間を推定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記推定手段は、前記検出手段によるオブジェクト検出の処理途中において、前記検出手段によって検出された複数のオブジェクトのオブジェクト間の距離に基づいて、前記統合手段によって前記複数のオブジェクトを統合する統合時間を推定することを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記画像入力手段は、動画の一つのフレームとして前記画像データを入力し、
    前記推定手段は、前記画像データが入力される前に入力されて統合処理された一つのフレームの統合処理時間に基づいて、前記画像入力手段によって入力された前記画像データの統合処理時間を推定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記画像入力手段は、動画の一つのフレームとして前記画像データを入力し、
    前記推定手段は、前記画像データが入力される前に入力されて統合処理された複数のフレームの統合処理時間に基づいて、前記画像入力手段によって入力された前記画像データの統合処理時間を推定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  7. 前記推定手段は、前記画像データが入力される前に入力されて統合処理された複数のフレームの統合処理時間の平均値又は最大値に基づいて、前記画像入力手段によって入力された前記画像データの統合処理時間を推定することを特徴とする請求項6に記載の画像処理装置。
  8. 前記画像入力手段によって入力された前記画像データから、縮小率の異なる複数の縮小画像データを生成する生成手段をさらに有し、
    前記検出手段は、入力された前記画像データおよび前記複数の縮小画像データのそれぞれに対して、オブジェクトを検出することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記検出手段は、入力された前記画像データおよび前記複数の縮小画像データのそれぞれに対して、画像データサイズの小さい順に、オブジェクトを検出することを特徴とする請求項8に記載の画像処理装置。
  10. 前記検出手段は、入力された前記画像データおよび前記複数の縮小画像データのそれぞれに対して、検出ウィンドウをスキャンさせることによって、オブジェクトを検出することを特徴とする請求項9に記載の画像処理装置。
  11. 前記検出ウィンドウのサイズが複数あって、
    前記検出手段は、前記検出ウィンドウのサイズの大きい順に、入力された前記画像データおよび前記複数の縮小画像データのそれぞれに対して、前記検出ウィンドウをスキャンさせることによって、オブジェクトを検出することを特徴とする請求項10に記載の画像処理装置。
  12. 前記推定手段は、前記検出手段によって前記複数の縮小画像データのそれぞれに対してオブジェクトを検出する処理が終了した時に、前記検出手段によって検出された複数のオブジェクトを前記統合手段によって統合する統合時間を推定することを特徴とする請求項7乃至11のいずれか1項に記載の画像処理装置。
  13. 画像データを入力する画像入力工程と
    入力された前記画像データから複数のオブジェクトを検出する検出工程と、
    前記検出工程における検出処理が終了した後に、前記検出工程において検出された前記オブジェクトの前記画像データにおける位置に基づいて、前記複数のオブジェクトを統合する統合工程と、
    を有し、
    前記検出工程において、
    前記検出工程における検出処理が終了する前に、前記検出手段によって検出された複数のオブジェクトを前記統合工程において統合する統合時間を推定する推定工程と、
    前記推定工程において推定された前記統合時間と前記検出工程におけるオブジェクト検出の経過時間との合計時間が所定時間以上となった場合、前記検出工程におけるオブジェクト検出を打ち切り、前記検出工程における検出処理を終了させる打ち切り工程とを有することを特徴とする画像処理方法。
  14. 画像データを入力する画像入力ステップと
    入力された前記画像データから複数のオブジェクトを検出する検出ステップと、
    前記検出ステップにおける検出処理が終了した後に、前記検出ステップにおいて検出された前記オブジェクトの前記画像データにおける位置に基づいて、前記複数のオブジェクトを統合する統合ステップと、
    をコンピュータに実行させるプログラムであって、
    前記検出ステップにおいて、
    前記検出ステップにおける検出処理が終了する前に、前記検出ステップにおいて検出された複数のオブジェクトを前記統合ステップにおいて統合する統合時間を推定する推定ステップと、
    前記推定ステップにおいて推定された前記統合時間と前記検出ステップにおけるオブジェクト検出の経過時間との合計時間が所定時間以上となった場合、前記検出ステップにおけるオブジェクト検出を打ち切り、前記検出ステップにおける検出処理を終了させる打ち切りステップとをコンピュータに実行させることを特徴とするプログラム。
JP2016130609A 2016-06-30 2016-06-30 画像処理装置、画像処理方法およびプログラム Active JP6742837B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016130609A JP6742837B2 (ja) 2016-06-30 2016-06-30 画像処理装置、画像処理方法およびプログラム
US15/633,581 US10410044B2 (en) 2016-06-30 2017-06-26 Image processing apparatus, image processing method, and storage medium for detecting object from image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130609A JP6742837B2 (ja) 2016-06-30 2016-06-30 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018005510A true JP2018005510A (ja) 2018-01-11
JP6742837B2 JP6742837B2 (ja) 2020-08-19

Family

ID=60807753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130609A Active JP6742837B2 (ja) 2016-06-30 2016-06-30 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10410044B2 (ja)
JP (1) JP6742837B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112069992A (zh) * 2020-09-04 2020-12-11 西安西图之光智能科技有限公司 一种基于多监督稠密对齐的人脸检测方法、系统及存储介质
US11546141B1 (en) * 2021-03-23 2023-01-03 Amazon Technologies, Inc. Cryptographic protection for portions of media

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1566788A3 (en) * 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
JP4658788B2 (ja) 2005-12-06 2011-03-23 株式会社日立国際電気 画像処理装置、画像処理方法およびプログラム
US8254625B2 (en) * 2006-11-02 2012-08-28 Hyperactive Technologies, Inc. Automated service measurement, monitoring and management
JP5027030B2 (ja) 2008-03-25 2012-09-19 富士フイルム株式会社 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム

Also Published As

Publication number Publication date
US20180005016A1 (en) 2018-01-04
JP6742837B2 (ja) 2020-08-19
US10410044B2 (en) 2019-09-10

Similar Documents

Publication Publication Date Title
US11450146B2 (en) Gesture recognition method, apparatus, and device
US10559062B2 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
US10395094B2 (en) Method and apparatus for detecting glasses in a face image
US10311295B2 (en) Heuristic finger detection method based on depth image
US20140185924A1 (en) Face Alignment by Explicit Shape Regression
US10620826B2 (en) Object selection based on region of interest fusion
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
US8478068B2 (en) Image processing device, electronic instrument, and information storage medium for evaluating composition of input image
EP3702957B1 (en) Target detection method and apparatus, and computer device
KR20170088174A (ko) 영상 기반의 두피 진단 정보 제공 방법
EP3620987A1 (en) Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network
US20190066311A1 (en) Object tracking
CN106778574A (zh) 用于人脸图像的检测方法和装置
JP2010211468A (ja) 学習モデル生成装置、対象物検出システム、及びプログラム
CN109413470B (zh) 一种待检测图像帧的确定方法和终端设备
US10268881B2 (en) Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium
JP6742837B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10402693B2 (en) Apparatus and method for classifying pattern in image
KR20200046178A (ko) 머리 영역 검출 방법 및 머리 영역 검출 장치
US20180157905A1 (en) Image processing device, image processing method, and storage medium
WO2019107466A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2021239000A1 (zh) 运动模糊图像的识别方法、装置、电子设备和支付设备
JP6467817B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11340706B2 (en) Gesture recognition based on depth information and computer vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200729

R151 Written notification of patent or utility model registration

Ref document number: 6742837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151