JP3894038B2 - Image processing apparatus, protrusion detection method and program for image processing apparatus - Google Patents

Image processing apparatus, protrusion detection method and program for image processing apparatus Download PDF

Info

Publication number
JP3894038B2
JP3894038B2 JP2002132715A JP2002132715A JP3894038B2 JP 3894038 B2 JP3894038 B2 JP 3894038B2 JP 2002132715 A JP2002132715 A JP 2002132715A JP 2002132715 A JP2002132715 A JP 2002132715A JP 3894038 B2 JP3894038 B2 JP 3894038B2
Authority
JP
Japan
Prior art keywords
image
person
pixel
unit
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002132715A
Other languages
Japanese (ja)
Other versions
JP2003323621A (en
Inventor
純一 船田
幹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002132715A priority Critical patent/JP3894038B2/en
Publication of JP2003323621A publication Critical patent/JP2003323621A/en
Application granted granted Critical
Publication of JP3894038B2 publication Critical patent/JP3894038B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、人物の動画像を撮影する画像処理装置に関し、特に、撮影された画像から人物がはみ出していることを検知する画像処理装置に関する。
【0002】
【従来の技術】
動画像を記録として残すために、ビデオカメラのような画像撮影装置で動画像を撮影することがある。動画像を記録として残すための画像撮影装置で撮影される画像には人物や人物の顔が含まれることが多い。そして、人物やその顔は、画像撮影装置で撮影される画像から、はみ出さないことが望ましい。しかし、動画像を撮影するとき、撮影される人物は静止しているとは限らず、通常は絶えず動いている。したがって、人物や顔が視野からはみ出すことが考えられる。そのため、ビデオカメラの撮影方向や撮影範囲は人物の動きに合わせて修正されることが望ましい。
【0003】
従来、画像撮影装置により動画像を撮影するとき、視野から人物がはみ出さないように、または、はみ出した人物を再び視野内に入れるように、画像撮影装置を操作している操作者が、撮影対象である人物の動きに合わせてパンやチルトを行い、撮影方向を調整していた。特開平01−243673号公報に記載された従来のビデオカメラは、パンまたはチルトをするための駆動装置をグリップ内に有している。そのため、従来のビデオカメラの操作者は、電動雲台装置を用いなくとも、パンまたはチルトを容易に行うことができた。
【0004】
【発明が解決しようとする課題】
近年では、ビデオカメラで撮影された動画像から人物やその顔を認識する画像認識装置が、セキュリティ確保のための人物認証や、防犯カメラで撮影された犯人像を用いた犯人捜査などに応用されている。
【0005】
画像認識装置には、ビデオカメラで撮影された人物の画像と、予め記録しておいた人物の画像とを比較することにより、人物を認識するものがある。例えば、特開2000−331167号公報に記載された従来の顔画像照合装置は、2つの顔画像を照合して顔画像に現れている2つの顔の一致度を評価する。従来の顔画像照合装置は、まず、顔画像に現れている顔の大きさおよび各顔画像内における顔の位置を一致させるために、顔画像を正規化する。次に、顔画像照合装置は、所定のマスクデータに基づいて2つの顔画像の所定領域をマスクすることにより顔領域を抽出する。次に、顔画像照合装置は、各顔画像を必要に応じてモノクロ画像に変換する。さらに、顔画像照合装置は、各顔画像の階調を落とした後に照合する。このようにして、従来の画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識する。
【0006】
しかし、ビデオカメラは、レンズ系の画像取得可能範囲と、光電変換装置から出力可能な画像の大きさとに制約を受けるので、ビデオカメラで撮影できる画像には有限の視野が存在する。画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識するので、人物や顔を正常に認識するためには、人物や顔が視野内にあることが条件となる。
【0007】
しかし、ビデオカメラで人物を含む動画像を撮影するとき、人物は必ずしも静止しているわけではない。したがって、画像認識装置の認識対象である人物は、常に、ビデオカメラの視野内にあるとは限らない。そのため、画像認識装置では、ビデオカメラの撮影方向や撮影範囲を人物の動きに合わせて修正することが望まれる。
【0008】
撮影方向や撮影範囲を修正する方法としては、従来、ビデオカメラの操作者が、撮影対象である人物の動きを見て、それに合わせてパンやチルトを行うという方法しかなかった。
【0009】
しかし、セキュリティ確保のための人物認証や防犯カメラに応用される画像認識装置は、操作者が常時操作しているものではなく、無人でも動作する必要がある。そのため、従来の画像認識装置は、人物を認識することができないとき、それが画像からのはみ出しによるか否か知ることができなかった。そのため、従来の画像認識装置は、画像から人物やその顔がはみ出しているとき、撮影方向や撮影範囲を自動的に修正することができず、また、人物が画像からはみ出したことを警告することもできなかった。
【0010】
そのため、従来の画像認識装置は、人物やその顔が画像に入るであろう適当な範囲を固定的に撮影するように設置され、できるだけ人物が画像からはみ出さないようにする程度であった。
【0011】
本発明の目的は、ビデオカメラで撮影された画像から人物または人物の顔がはみ出したことを検知できる画像処理装置、そのはみ出し検知方法およびプログラムを提供することである。
【0012】
【課題を解決するための手段】
上記目的を達成するために、本発明の画像処理装置は、人物の撮影画像からのはみ出しを検知する画像処理装置であって、前記人物を含む画像を連続して取得する撮像手段と、前記撮像手段で取得された画像間の各画素の差分を算出するフレーム間差分算出手段と、前記画像の縦方向の画素列毎に、前記フレーム間差分算出手段で算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割する領域分割手段と、前記領域分割手段によって得られた前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択する領域選択手段と、前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断する判断手段と、を有している。
【0057】
【発明の実施の形態】
本発明の実施形態について図面を参照して詳細に説明する。
(第1の実施形態)
本発明の第1の実施形態は、画像の上下左右の部分の画像の変化から、人物が画像からはみ出したことを検出する画像処理装置である。
【0058】
図1は、第1の実施形態の画像処理装置の構成を示すブロック図である。図1を参照すると、画像処理装置10は、撮像部11、フレーム間差分算出部12、二値化部13、画像上部画素数部14、画像右部画素数カウント部15、画像左部画素数カウント部16、画像下部画素数カウント部17および判断部18を有している。
【0059】
撮像部11は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。
【0060】
フレーム間差分算出部12は、撮像部11でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。
【0061】
二値化部13は、フレーム間差分算出部12で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。
【0062】
第1の実施形態では、撮像部11で撮影される画像の上下左右の各辺付近の部分が上部領域、下部領域、左部領域、右部領域とされている。図2は画像90の中の上部領域91を示し、図3は左部領域92を示し、図4は右部領域93を示し、図5は下部領域94を示している。
【0063】
画像上部画素数カウント部14は、上部領域91内の画素のうち、二値化部13で差分閾値以上とされた画素の数、すなわち“1”に二値化された画素の数をカウントする。
【0064】
画像右部画素数カウント部15は、右部領域93内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
【0065】
画像左部画素数カウント部16は、左部領域92内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
【0066】
画像下部画素数カウント部17は、下部領域94内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
【0067】
判断部18は、画像上部画素数カウント部14のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部18は、画像右部画素数カウント部15のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部18は、画像左部画素数カウント部16のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部18は、画像下部画素数カウント部17のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。
【0068】
図6は、本実施形態の画像処理装置の動作を示すフローチャートである。図6を参照すると、まず、撮像部11が画像を撮影し、フレーム間差分算出部12に送る(ステップA1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。
【0069】
次に、フレーム間差分算出部12は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップA2)。
【0070】
次に、フレーム間差分画像算出部13は、画像im(t)を過去の画像としてメモリに保存する(ステップA3)。それとともに、フレーム間差分画像算出部13は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。
【0071】
次に、二値化部14は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップA4)。このとき、二値化部14は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部14は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。
【0072】
次に、画像上部画素数カウント部14は、二値化画像bin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップA5)。ここでは、そのカウント値をa(t)とする。
【0073】
次に、画像右部画素数カウント部15は、二値化画像bin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップA6)。ここでは、そのカウント値をb(t)とする。
【0074】
次に、画像左部画素数カウント部16は、二値化画像bin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップA7)。ここでは、そのカウント値をc(t)とする。
【0075】
次に、画像下部画素数カウント部17は、二値化画像bin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップA8)。ここでは、そのカウント値をd(t)とする。
【0076】
次に、判定部18は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップA9)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部18は、人物が画像の上にはみ出していることを検知する(ステップA10)。
【0077】
次に、判定部18は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップA11)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部18は、人物が画像の右にはみ出していることを検知する(ステップA12)。
【0078】
次に、判定部18は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップA13)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部18は、人物が画像の左にはみ出していることを検知する(ステップA14)。
【0079】
次に、判定部18は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップA15)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部18は、人物が画像の下にはみ出していることを検知する(ステップA16)。
【0080】
以上の動作を終了すると、画像処理装置10は、“t”を1つインクリメントし(ステップA17)、ステップA1に戻る。
【0081】
以上説明したように、本実施形態の画像処理装置10は、最新の画像と過去の画像との差分をフレーム間差分算出部12によって算出し、二値化部13によって差分を二値化して所定以上に変化したか否か求め、画像上部、右部、左部または下部画素数カウント部14、15、16、17によって、所定以上に変化した画素の数を上下左右の領域毎にカウントし、判断部18によって、各領域のカウント値を閾値と比較してカウント値が閾値を超えた領域において画像から人物がはみ出したと判断するので、画像変化が大きいためにカウント値が閾値を超えた領域を検出することにより、画像からの人物のはみ出しを自動的に検知することができる。
【0082】
なお、本実施形態では、撮像部11がモノクロ画像を撮影する場合を例示したが、本発明はこれに限定されるものではなく、カラー画像であってもよい。撮像部11で撮影されるのがカラー画像である場合、例えば、フレーム間差分算出部12は、各画素値をRGBの3色を要素とするベクトルで表わし、過去の画像の画素とベクトルの差分を求める。そして、二値化部13は、フレーム間差分算出部12で求められた差分ベクトルの大きさを差分閾値と比較することにより、二値化画像を生成してもよい。
【0083】
また、本実施形態では、画像からのはみ出しを検知する対象物が人物である場合を例示したが、本発明はこれに限定されるものではない。連続的に撮影したとき、移動しうる物体であれば、どのようなものであってもよい。
【0084】
また、本実施形態で用いられた、過去の画像の数、各閾値、上下左右部の各領域の大きさなどのパラメータを調整することにより、画像処理装置がはみ出しを検知する精度を向上させることができる。
(第2の実施形態)
図7は、本発明の第2の実施形態の画像処理装置の構成を示すブロック図である。図7を参照すると、画像処理装置20は、撮像部21、フレーム間差分算出部22、二値化部23、領域分割部24、領域選択部25、画像上部画素数カウント部26、画像右部画素数カウント部27、画像左部画素数カウント部28、画像下部画素数カウント部29および判断部210を有している。
【0085】
撮像部21は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。
【0086】
フレーム間差分算出部22は、撮像部21でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。
【0087】
二値化部23は、フレーム間差分算出部22で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。
【0088】
領域分割部24は、画像を複数の分割領域に分割する。画像を複数の分割領域に分割する方法については後述する。
【0089】
領域選択部25は、領域分割部24で分割された複数の分割領域の中から、最も人物らしい分割領域を選択し、さらに、選択された分割領域に応じて二値化画像を変換する。最も人物らしい分割領域を選択する方法と、二値化画像を変換する方法については後述する。
【0090】
第2の実施形態では、第1の実施形態と同様、図2〜図5に示された上部、右部、左部、下部領域93、94、95、96が定められている。
【0091】
画像上部画素数カウント部26は、領域選択部25で変換された二値化画像において、上部領域91内で画素値が“1”である画素の数をカウントする。
【0092】
画像右部画素数カウント部27は、領域選択部25で変換された二値化画像において、右部領域93内で画素値が“1”である画素の数をカウントする。
【0093】
画像左部画素数カウント部28は、領域選択部25で変換された二値化画像において、左部領域92内で画素値が“1”である画素の数をカウントする。
【0094】
画像下部画素数カウント部29は、領域選択部25で変換された二値化画像において、下部領域94内で画素値が“1”である画素の数をカウントする。
【0095】
判断部210は、画像上部画素数カウント部26のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部210は、画像右部画素数カウント部27のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部210は、画像左部画素数カウント部28のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部210は、画像下部画素数カウント部29のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。
【0096】
図8は、本実施形態の画像処理装置の動作を示すフローチャートである。図8を参照すると、まず、撮像部21が画像を撮影し、フレーム間差分算出部22に送る(ステップB1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。
【0097】
次に、フレーム間差分算出部22は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップB2)。
【0098】
次に、フレーム間差分画像算出部22は、画像im(t)を過去の画像としてメモリに保存する(ステップB3)。それとともに、フレーム間差分画像算出部22は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。
【0099】
次に、二値化部23は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップB4)。このとき、二値化部23は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部23は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。
【0100】
次に、領域分割部24は、二値化部23で得られた二値化画像bin(t)を複数の分割領域に分割する(ステップB5)。
【0101】
領域分割部24による領域分割の方法の一例について説明する。図9は、領域分割の方法について説明するための図である。図9に示すように、二値化画像bin(t)の横方向をX軸(右向きが正)とし、縦方向をY軸(下向きが正)とし、画像の左上の画素から右にx番目で、下にy番目の画素の画素値をv(x,y)とする。
【0102】
図9(a)のような二値化画像bin(t)が得られると、図9(b)に示すように、画像を構成する全てのxについて、v(x,y)が1となる最小のyの値を求める。次に、得られたyの値が、xの変化に対して極大となる点(極大点)と、画像下辺に到達する点(下辺接点)とを求め、極大点および下辺接点を通る垂直な線で画像を複数の分割領域に分割する。
【0103】
また、他の領域分割の方法の例として、同じ画素値(“1”または“0”)を有し、互いに連結している画素をグループ化して1つの分割領域とする方法が考えられる。つまり、画素値“1”の画素が連結している部分(画素値“1”のひとかたまり)が1つの分割領域とされ、同様に、画素値“0”の画素がつながっている部分(画素値“0”のひとかたまり)が1つの分割領域とされる。
【0104】
次に、領域選択部25は、領域分割部24で得られた各分割領域から最も人物らしい分割領域を選択する。そして、領域選択部25は、その分割領域内ではbin(t)と同じ値であり、それ以外の分割領域では“0”となるように変換された二値化画像sbin(t)を作成する(ステップB6)。
【0105】
領域選択部25による、最も人物らしい分割領域を選択する方法の一例として、領域分割部24で得られた分割領域の中で、画素値が“1”となる画素の数が最も多い分割領域を選択するという方法が考えられる。
【0106】
次に、画像上部画素数カウント部26は、変換された二値化画像sbin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップB7)。ここでは、そのカウント値をa(t)とする。
【0107】
次に、画像右部画素数カウント部27は、変換された二値化画像sbin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップB8)。ここでは、そのカウント値をb(t)とする。
【0108】
次に、画像左部画素数カウント部28は、変換された二値化画像sbin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップB9)。ここでは、そのカウント値をc(t)とする。
【0109】
次に、画像下部画素数カウント部29は、変換された二値化画像sbin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップB10)。ここでは、そのカウント値をd(t)とする。
【0110】
次に、判定部210は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップB11)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部210は、人物が画像の上にはみ出していることを検知する(ステップB12)。
【0111】
次に、判定部210は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップB13)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部210は、人物が画像の右にはみ出していることを検知する(ステップB14)。
【0112】
次に、判定部210は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップB15)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部210は、人物が画像の左にはみ出していることを検知する(ステップB16)。
【0113】
次に、判定部210は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップB17)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部210は、人物が画像の下にはみ出していることを検知する(ステップB18)。
【0114】
以上の動作を終了すると、画像処理装置20は、“t”を1つインクリメントし(ステップB19)、ステップB1に戻る。
(第3の実施形態)
第3の実施形態は、人物がビデオカメラに近すぎて画像からはみ出していることを検出する画像処理装置である。
【0115】
図10は、第3の実施形態の画像処理装置の構成を示すブロック図である。図10を参照すると、画像処理装置30は、第1の撮像部31、第2の撮像部32、画像中央部相関算出部33、信頼性判断部34、距離算出部35および距離判断部36を有している。
【0116】
第1の撮像部31は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。
【0117】
第2の撮像部32は、第1の撮像部31と同様に、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部32の画像を撮影する視野は、第1の撮像部31の視野と重複する部分を有し、かつ、第1の撮像部31の視野との相対的な位置関係が固定されている。
【0118】
画像中央部相関算出部33は、第1の撮像部31と第2の撮像部32からほぼ同時に得られる画像の画像中央部95(図12参照)での相関値を計算する。
【0119】
信頼性判断部34は、画像中央部相関計算部33で得られた相関値の座標位置に対する変化がなだらかであれば、信頼性が低いと判断し、変化が急であれば、信頼性が高いと判断する。
【0120】
距離算出部35は、第1の撮像部31と第2の撮像部32の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、画像中央部95に映っている物体との距離を算出する。
【0121】
距離判断部36は、距離算出部35で得られた距離が所定の閾値以下であり、かつ信頼性判断部34で信頼性が高いと判断されていれば、距離が近すぎて画像から人物がはみ出していると判断する。
【0122】
図11は、本実施形態の画像処理装置の動作を示すフローチャートである。図11を参照すると、まず、第1および第2の撮像部31、32がそれぞれ画像を撮像し、画像中央部相関算出部33に送る(ステップC1)。第1の撮像部31と第2の撮像部32とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。
【0123】
次に、画像中央部相関算出部33は、画像im1(t)と画像im2(t)の画像中央部95での相関値corr(x)を算出する(ステップC2)。
【0124】
相関値の算出法の一例を説明する。
【0125】
ここで、画像im1(t)の横方向をX軸(右向きが正)縦方向をY軸(下向きが正)とし、画像のもっとも左上の画素から右にx番目で、下にy番目の画素値をv1(x,y)とする。画像im2(t)についても同様にv2(x,y)を定義する。また、画像中央部95は図12に示されたように設定されているとする。
【0126】
そして、画像中央部95の座標値の集合をCとすると、相関値は corr(x)=Σ_{(t,s)¥in C}|v1(t−x,s)−v2(t,s)|などと計算できる。
【0127】
次に、信頼性判断部34は、相関値corr(x)の変化がなだらかであるか否か判定する(ステップC3)。
【0128】
相関値corr(x)がなだらかであるか否かの判定方法の一例について説明する。相関値corr(x)が最大となるxをx1とする。このとき、画像中央部95の全域において、corr(x1)−corr(x1−g)<thc1かつcorr(x1)−corr(x1+g)<thc2ならばcorr(x)がなだらかであると判断し、そうでなけれななだらかでないと判断する。
【0129】
相関値corr(t)の変化がなだらかでなければ、距離算出部35が、第1の撮像部31と第2の撮像部32の位置関係と、相関値corr(x)が最大となるxの値とから距離d(t)を求める(ステップC4)。距離の算出方法は従来からよく知られた方法によればよい。例えば、文献「3次元ビジョン」(徐、辻著、共立出版(1998))などに記載された方法を用いることで実現できる。
【0130】
次に、距離判定部36は、距離d(t)が所定の閾値thより大きいか否か判定する(ステップC5)。閾値thは、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離d(t)が閾値th以下であれば、距離判定部36は、人物が画像からはみ出していると検知する(ステップC6)。
【0131】
ステップC6の後、ステップC5において距離d(t)が閾値thより大きかったとき、または、ステップC3において変化がなだらかであったとき、画像処理装置30は、“t”を1つインクリメントし(ステップC7)、ステップC1に戻る。
【0132】
以上説明したように、本実施形態の画像処理装置30は、第1および第2の撮像部31、32によって、互いにずれた2つの画像を同時に撮影し、画像中央部相関算出部33によって、2つの画像の画像中央部95での相関値を算出し、信頼性判断部34によって、相関値から信頼性が高いか低いか判定し、信頼性が高い場合に、距離算出部35によって、ビデオカメラと人物との距離を算出し、距離判定部36によって、距離が近ければ画像から人物がはみ出していると判断されるので、距離が近すぎることによる、画像からの人物のはみ出しを自動的に検知することができる。
【0133】
なお、本実施形態では、画像からのはみ出しを検知する対象が人物である場合を例示したが、本発明はこれに限定されるものではない。ある程度の大きさが想定できるものであれば、どのようなものであってもよい。
(第4の実施形態)
図13は、本発明の第4の実施形態の画像処理装置の構成を示すブロック図である。図13を参照すると、画像処理装置40は、第1の撮像部41、第2の撮像部42、小領域相関算出部43、距離算出部44、最小距離選択部45および距離判断部46を有している。
【0134】
第1の撮像部41は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。
【0135】
第2の撮像部42は、第1の撮像部41と同様、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野と重複する部分を有し、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野との相対的な位置関係が固定されている。
【0136】
小領域相関部43は、第1の撮像部41と第2の撮像部42からほぼ同時に得られる画像の画像中央部96の複数の小領域96a、96b、96c、96dでのそれぞれの相関値を計算する(図15参照)。
【0137】
距離算出部44は、各小領域96a、96b、96c、96dについて、第1の撮像部41と第2の撮像部42の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、各小領域に映っている物体との距離を算出する。
【0138】
最小距離選択部45は、距離算出部44で算出された各小領域の距離のうち、最小のものを選択する。
【0139】
距離判断部46は、最小距離選択部45で選択された小領域の距離が所定の閾値以下であれば、距離が近すぎて画像から人物がはみだしていると判断する。
【0140】
図14は、本実施形態の画像処理装置の動作を示すフローチャートである。図14を参照すると、まず、第1および第2の撮像部41、42がそれぞれ画像を撮像し、小領域相関算出部43に送る(ステップD1)。第1の撮像部41と第2の撮像部42とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。
【0141】
次に、小領域相関算出部43は、画像im1(t)と画像im2(t)の各小領域96a、96b、96c、96dでの相関値を算出し、距離算出部44は、各小領域96a、96b、96c、96dにおける、ビデオカメラと物体との距離を算出する(ステップD2)。このとき用いられる、相関値および距離の算出方法は第3の実施形態と同様の方法である。
【0142】
次に、距離判定部46は、各小領域における距離のうち、最も短いものが所定の閾値th以下であるか否か判定する(ステップD3)。閾値thは、第3の実施形態と同様に、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離が閾値th以下であれば、距離判定部46は、人物が画像からはみ出していると検知する(ステップD4)。
【0143】
ステップD4の後、または、ステップD3において距離が閾値th以下でなかったとき、画像処理装置40は、“t”を1つインクリメントし(ステップD5)、ステップD1に戻る。
【0144】
【発明の効果】
本発明によれば、撮像手段で連続的に撮影された画像から、フレーム間差分算出手段が、画像の変化を示す各画素の差分を算出し、画像の上下左右の辺に近い領域で画像の変化が大きければ、判断手段が、対象物が画像からはみ出していると判断するので、上下左右にずれたことにより画像から対象物がはみ出したことを自動的に検知することができる。
【0145】
また、撮像手段で連続的に撮影された画像から、フレーム間差分算出手段が、画像の変化を示す各画素の差分を算出し、領域分割手段が、画像を複数の分割領域に分割し、領域選択手段が、最も対象物らしい分割領域を選択し、判断手段が、最も対象物らしい分割領域の画像に基づいて、画像の上下左右の辺に近い領域で画像の変化が大きければ、判断手段が、対象物が画像からはみ出していると判断するので、画像からの対象物のはみ出しを自動的に確実に検知することができる。
【0146】
また、撮像手段で撮影された画像から、距離算出手段が、対象物である可能性の高い、その画像の中央に撮影された物体までの距離を算出し、信頼性判断手段が、算出された距離の信頼性を求め、その結果、信頼性が高く、かつ、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断するので、対象物が近すぎるために画像からはみ出したことを自動的に検知することができる。
【0147】
また、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断するので、対象物が近すぎるために画像からはみ出したことを自動的に検知することができる。
【0148】
また、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、画像中央部の各小領域にある物体で、距離が最小のものを対象物として、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断するので、対象物が近すぎるために画像からはみ出したことを自動的に確実に検知することができる。
【図面の簡単な説明】
【図1】第1の実施形態の画像処理装置の構成を示すブロック図である。
【図2】画像の中の上部領域を示す図である。
【図3】画像の中の左部領域を示す図である。
【図4】画像の中の右部領域を示す図である。
【図5】画像の中の下部領域を示す図である。
【図6】第1の実施形態の画像処理装置の動作を示すフローチャートである。
【図7】本発明の第2の実施形態の画像処理装置の構成を示すブロック図である。
【図8】第2の実施形態の画像処理装置の動作を示すフローチャートである。
【図9】領域分割の方法について説明するための図である。
【図10】第3の実施形態の画像処理装置の構成を示すブロック図である。
【図11】第3の実施形態の画像処理装置の動作を示すフローチャートである。
【図12】画像の中の画像中央部を示す図である。
【図13】第4の実施形態の画像処理装置の構成を示すブロック図である。
【図14】第4の実施形態の画像処理装置の動作を示すフローチャートである。
【図15】画像の中の画像中央部の各小領域を示す図である。
【符号の説明】
10,20,30 画像処理装置
11,21 撮像部
12,22 フレーム間差分算出部
13,23 二値化部
14,26 画像上部画素数部
15,27 画像右部画素数カウント部
16,28 画像左部画素数カウント部
17,29 画像下部画素数カウント部
18,210 判断部
24 領域分割部
25 領域選択部
31,41 第1の撮像部
32,42 第2の撮像部
33 画像中央部相関算出部
34 信頼性判断部
35,44 距離算出部
36,46 距離判断部
43 小領域相関算出部
45 最小距離選択部
90 画像
91 上部領域
92 左部領域
93 右部領域
94 下部領域
95,96 画像中央部
96a,96b,96c,96d 小領域
A1〜A17,B1〜B19,C1〜C7 ステップ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that captures a moving image of a person, and more particularly, to an image processing apparatus that detects that a person protrudes from a captured image.
[0002]
[Prior art]
In order to leave a moving image as a record, a moving image may be captured by an image capturing device such as a video camera. An image captured by an image capturing device for leaving a moving image as a record often includes a person or a person's face. It is desirable that the person and his / her face do not protrude from the image captured by the image capturing device. However, when shooting a moving image, the person to be shot is not always stationary, and usually moves constantly. Therefore, it is conceivable that a person or face protrudes from the field of view. Therefore, it is desirable that the shooting direction and shooting range of the video camera be corrected according to the movement of the person.
[0003]
Conventionally, when a moving image is shot by an image shooting device, an operator who operates the image shooting device takes a picture so that the person does not protrude from the field of view or the person who has protruded is placed in the field of view again. The shooting direction was adjusted by panning and tilting according to the movement of the target person. A conventional video camera described in Japanese Patent Laid-Open No. 01-243673 has a driving device for panning or tilting in a grip. Therefore, an operator of a conventional video camera can easily perform panning or tilting without using an electric pan head device.
[0004]
[Problems to be solved by the invention]
In recent years, image recognition devices that recognize people and their faces from moving images taken with a video camera have been applied to human authentication for security and criminal investigations using criminal images taken with a security camera. ing.
[0005]
Some image recognition apparatuses recognize a person by comparing an image of a person photographed by a video camera with an image of a person recorded in advance. For example, a conventional face image matching device described in Japanese Patent Application Laid-Open No. 2000-331167 compares two face images and evaluates the degree of coincidence between two faces appearing in the face image. A conventional face image matching device first normalizes a face image in order to match the size of the face appearing in the face image and the position of the face in each face image. Next, the face image matching device extracts a face area by masking a predetermined area of two face images based on predetermined mask data. Next, the face image collation device converts each face image into a monochrome image as necessary. Furthermore, the face image collation device collates after reducing the gradation of each face image. In this way, the conventional image recognition apparatus recognizes a person or a face from an image taken with a video camera.
[0006]
However, since a video camera is restricted by the lens system image acquisition range and the size of an image that can be output from the photoelectric conversion device, there is a finite field of view in an image that can be captured by the video camera. Since the image recognition apparatus recognizes a person or face from an image taken by a video camera, the person or face must be in the field of view in order to recognize the person or face normally.
[0007]
However, when shooting a moving image including a person with a video camera, the person is not necessarily stationary. Therefore, the person who is the recognition target of the image recognition apparatus is not always in the field of view of the video camera. Therefore, it is desired that the image recognition apparatus corrects the shooting direction and shooting range of the video camera in accordance with the movement of the person.
[0008]
As a method for correcting the shooting direction and the shooting range, there has conventionally been a method in which an operator of a video camera observes the movement of a person to be shot and pans or tilts accordingly.
[0009]
However, an image recognition apparatus applied to personal authentication and security camera for ensuring security is not always operated by an operator, and needs to operate even without an operator. Therefore, when the conventional image recognition apparatus cannot recognize a person, it cannot know whether or not it is due to the protrusion from the image. For this reason, conventional image recognition devices cannot automatically correct the shooting direction or shooting range when a person or their face protrudes from the image, and warn that a person protrudes from the image. I couldn't.
[0010]
For this reason, the conventional image recognition apparatus is installed so as to fixedly shoot an appropriate range in which a person and his / her face will enter the image, so that the person does not protrude from the image as much as possible.
[0011]
An object of the present invention is to provide an image processing apparatus that can detect that a person or a person's face protrudes from an image taken by a video camera, and a protrusion detection method and program thereof.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, an image processing apparatus of the present invention is provided. The person An image processing apparatus for detecting an overhang from a captured image of an object, the image processing unit continuously acquiring images including the person, and a frame for calculating a difference of each pixel between the images acquired by the image capturing unit For each pixel column in the vertical direction of the image, a difference value calculated by the inter-frame difference calculation unit is determined to obtain a pixel closest to the upper end of the image among pixels having a predetermined value or more, and the pixel A horizontal curve is drawn by connecting the pixels obtained for each column, and the image area is vertically divided into a plurality of divided areas at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak. And a divided area having the largest number of pixels having a difference value equal to or larger than a predetermined value among the plurality of divided areas obtained by the area dividing means as a person area where the person exists Area selection means to select and previous Determining means for determining that the person protrudes from the image if there are more pixels than the predetermined threshold near the image edge of the image within the person area, the difference value being greater than or equal to a predetermined value; Have.
[0057]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
The first embodiment of the present invention is an image processing device that detects that a person protrudes from an image based on changes in the image of the upper, lower, left, and right portions of the image.
[0058]
FIG. 1 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment. Referring to FIG. 1, the image processing apparatus 10 includes an imaging unit 11, an inter-frame difference calculation unit 12, a binarization unit 13, an image upper pixel number unit 14, an image right pixel count unit 15, and an image left pixel number. A count unit 16, an image lower pixel number count unit 17, and a determination unit 18 are included.
[0059]
The imaging unit 11 is, for example, a video camera, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel. In the present embodiment, it is assumed that the captured image is a monochrome image as an example. Therefore, the data for each pixel is indicated by a numerical value representing luminance.
[0060]
The inter-frame difference calculation unit 12 receives the image digitized by the imaging unit 11 and stores a predetermined number of past images in a memory (not shown), and stores the latest image and the past image stored in the memory. The difference from each image is calculated for each pixel. The difference of each pixel is a difference between the luminance of the pixel in the latest image and the luminance of the pixel in the past image. The number of past images stored in the memory is at least one, and may be plural, for example, set to be changeable as a parameter.
[0061]
The binarization unit 13 compares the difference of each pixel calculated by the inter-frame difference calculation unit 12 with a predetermined difference threshold value, and binarizes it according to the magnitude of the threshold value. Note that the difference between the pixels being larger than the difference threshold indicates that the pixel has a large difference from the past image, that is, the change of the pixel is large. Here, the difference of each pixel is binarized to “1” when it is equal to or greater than the difference threshold, and is binarized to “0” when it is smaller than the difference threshold.
[0062]
In the first embodiment, the portions near the upper, lower, left, and right sides of the image captured by the imaging unit 11 are defined as an upper region, a lower region, a left region, and a right region. 2 shows an upper area 91 in the image 90, FIG. 3 shows a left area 92, FIG. 4 shows a right area 93, and FIG. 5 shows a lower area 94.
[0063]
The image upper pixel number counting unit 14 counts the number of pixels in the upper region 91 that are equal to or higher than the difference threshold by the binarizing unit 13, that is, the number of pixels binarized to “1”. .
[0064]
The image right pixel count counting unit 15 counts the number of pixels in the right region 93 that are equal to or greater than the difference threshold by the binarization unit 13.
[0065]
The image left pixel number counting unit 16 counts the number of pixels in the left region 92 that are equal to or greater than the difference threshold by the binarization unit 13.
[0066]
The image lower pixel number counting unit 17 counts the number of pixels in the lower region 94 that are equal to or greater than the difference threshold by the binarizing unit 13.
[0067]
If the count value of the upper image pixel count unit 14 is larger than a predetermined upper count threshold value, the determination unit 18 determines that a person is protruding from the image. The determination unit 18 determines that the person protrudes to the right of the image if the count value of the image right pixel number counting unit 15 is greater than a predetermined right part count threshold. The determination unit 18 determines that the person protrudes to the left of the image if the count value of the image left pixel number counting unit 16 is larger than a predetermined left part count threshold value. If the count value of the image lower pixel number counting unit 17 is larger than a predetermined lower count threshold value, the determining unit 18 determines that the person protrudes below the image.
[0068]
FIG. 6 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 6, first, the imaging unit 11 captures an image and sends the image to the inter-frame difference calculation unit 12 (step A1). Here, it is assumed that an image captured t-th after the video camera of the imaging unit 11 is activated is im (t).
[0069]
Next, the inter-frame difference calculation unit 12 calculates a difference between each pixel of the latest image im (t) and each pixel of the past image stored in the memory, and each difference is set as the value of each pixel. The difference image diff (t) to be generated is generated (step A2).
[0070]
Next, the inter-frame difference image calculation unit 13 stores the image im (t) in the memory as a past image (step A3). At the same time, the inter-frame difference image calculation unit 13 discards one oldest past image stored in the memory.
[0071]
Next, the binarizing unit 14 compares the value of each pixel (the above-described difference) of the difference image diff (t) with the difference threshold value, binarizes the difference image diff (t), and binarizes the binarized image bin. Conversion into (t) (step A4). At this time, the binarization unit 14 sets the pixel value to “1” when the value of each pixel is equal to or greater than the difference threshold. Also, the binarization unit 14 sets the pixel value to “0” when the value of each pixel is smaller than the difference threshold.
[0072]
Next, the image upper pixel number counting unit 14 counts the number of pixels having a pixel value “1” in the upper region 91 of the binarized image bin (t) (step A5). Here, the count value is a (t).
[0073]
Next, the image right pixel number counting unit 15 counts the number of pixels having a pixel value “1” in the right region 92 of the binarized image bin (t) (step A6). Here, the count value is b (t).
[0074]
Next, the image left pixel number counting unit 16 counts the number of pixels having a pixel value “1” in the left region 93 of the binarized image bin (t) (step A7). Here, the count value is c (t).
[0075]
Next, the image lower pixel number counting unit 17 counts the number of pixels having a pixel value “1” in the lower region 94 of the binarized image bin (t) (step A8). Here, the count value is d (t).
[0076]
Next, the determination unit 18 determines whether or not the count value a (t) is larger than the upper count threshold th1 (step A9). If the count value a (t) is larger than the upper count threshold th1, the determination unit 18 detects that a person protrudes from the image (step A10).
[0077]
Next, the determination unit 18 determines whether or not the count value b (t) is greater than the right count threshold th2 (step A11). If the count value b (t) is larger than the right part count threshold th2, the determination part 18 detects that a person protrudes to the right of the image (step A12).
[0078]
Next, the determination unit 18 determines whether or not the count value c (t) is greater than the left count threshold th3 (step A13). If the count value c (t) is larger than the right part count threshold th3, the determination unit 18 detects that the person protrudes to the left of the image (step A14).
[0079]
Next, the determination unit 18 determines whether or not the count value d (t) is greater than the lower count threshold th4 (step A15). If the count value d (t) is larger than the right part count threshold th4, the determination unit 18 detects that a person protrudes under the image (step A16).
[0080]
When the above operation is completed, the image processing apparatus 10 increments “t” by one (step A17), and returns to step A1.
[0081]
As described above, the image processing apparatus 10 according to the present embodiment calculates the difference between the latest image and the past image by the inter-frame difference calculation unit 12, and binarizes the difference by the binarization unit 13. The number of pixels that have changed more than a predetermined number is counted for each of the upper, lower, left, and right areas by determining whether or not the above has changed, by the upper, right, left, or lower pixel number counting units 14, 15, 16, and 17, The determination unit 18 compares the count value of each region with the threshold value and determines that a person has protruded from the image in the region where the count value exceeds the threshold value. Therefore, the region where the count value exceeds the threshold value due to a large image change is determined. By detecting this, it is possible to automatically detect the protrusion of a person from the image.
[0082]
In the present embodiment, the case where the imaging unit 11 captures a monochrome image has been illustrated, but the present invention is not limited to this and may be a color image. When a color image is captured by the imaging unit 11, for example, the inter-frame difference calculation unit 12 represents each pixel value as a vector whose elements are RGB three colors, and the difference between the pixel of the past image and the vector. Ask for. And the binarization part 13 may produce | generate a binarized image by comparing the magnitude | size of the difference vector calculated | required by the interframe difference calculation part 12 with a difference threshold value.
[0083]
Further, in the present embodiment, the case where the object for detecting the protrusion from the image is a person is exemplified, but the present invention is not limited to this. Any object can be used as long as it can move when continuously photographed.
[0084]
In addition, by adjusting parameters such as the number of past images, each threshold, and the size of each of the upper, lower, left, and right areas used in the present embodiment, the accuracy with which the image processing apparatus detects the protrusion is improved. Can do.
(Second Embodiment)
FIG. 7 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. Referring to FIG. 7, the image processing apparatus 20 includes an imaging unit 21, an inter-frame difference calculation unit 22, a binarization unit 23, an area division unit 24, an area selection unit 25, an image upper pixel number counting unit 26, and an image right part. A pixel number counting unit 27, an image left pixel number counting unit 28, an image lower pixel number counting unit 29, and a determination unit 210 are provided.
[0085]
The imaging unit 21 is a video camera, for example, and continuously captures images one after another, and digitizes the captured images to obtain data for each pixel. In the present embodiment, it is assumed that the captured image is a monochrome image as an example. Therefore, the data for each pixel is indicated by a numerical value representing luminance.
[0086]
The inter-frame difference calculation unit 22 receives an image digitized by the imaging unit 21 and stores a predetermined number of past images in a memory (not shown), and stores the latest image and the past image stored in the memory. The difference from each image is calculated for each pixel. The difference of each pixel is a difference between the luminance of the pixel in the latest image and the luminance of the pixel in the past image. The number of past images stored in the memory is at least one, and may be plural, for example, set to be changeable as a parameter.
[0087]
The binarization unit 23 compares the difference of each pixel calculated by the inter-frame difference calculation unit 22 with a predetermined difference threshold value, and binarizes the difference based on the magnitude of the threshold value. Note that the difference between the pixels being larger than the difference threshold indicates that the pixel has a large difference from the past image, that is, the change of the pixel is large. Here, the difference of each pixel is binarized to “1” when it is equal to or greater than the difference threshold, and is binarized to “0” when it is smaller than the difference threshold.
[0088]
The area dividing unit 24 divides the image into a plurality of divided areas. A method for dividing an image into a plurality of divided regions will be described later.
[0089]
The area selection unit 25 selects a divided area that is most likely to be a person from among a plurality of divided areas divided by the area dividing unit 24, and further converts the binarized image according to the selected divided area. The method for selecting the most likely divided area and the method for converting the binarized image will be described later.
[0090]
In the second embodiment, similarly to the first embodiment, the upper, right, left, and lower regions 93, 94, 95, and 96 shown in FIGS. 2 to 5 are defined.
[0091]
The image upper pixel number counting unit 26 counts the number of pixels having a pixel value “1” in the upper region 91 in the binarized image converted by the region selecting unit 25.
[0092]
The image right pixel count counting unit 27 counts the number of pixels having a pixel value “1” in the right region 93 in the binarized image converted by the region selection unit 25.
[0093]
The image left pixel number counting unit 28 counts the number of pixels having a pixel value “1” in the left region 92 in the binarized image converted by the region selecting unit 25.
[0094]
The image lower pixel number counting unit 29 counts the number of pixels having a pixel value “1” in the lower region 94 in the binarized image converted by the region selecting unit 25.
[0095]
If the count value of the image upper pixel number counting unit 26 is larger than a predetermined upper count threshold value, the determining unit 210 determines that a person protrudes from the image. Further, the determination unit 210 determines that the person protrudes to the right of the image if the count value of the image right pixel number counting unit 27 is larger than a predetermined right part count threshold. The determination unit 210 determines that the person protrudes to the left of the image if the count value of the image left pixel number counting unit 28 is larger than a predetermined left part count threshold value. If the count value of the image lower pixel number counting unit 29 is larger than a predetermined lower count threshold value, the determination unit 210 determines that the person protrudes below the image.
[0096]
FIG. 8 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 8, first, the imaging unit 21 captures an image and sends it to the inter-frame difference calculation unit 22 (step B1). Here, it is assumed that an image captured t-th after the video camera of the imaging unit 11 is activated is im (t).
[0097]
Next, the inter-frame difference calculation unit 22 calculates a difference between each pixel of the latest image im (t) and each pixel of the past image stored in the memory, and each difference is set as the value of each pixel. The difference image diff (t) to be generated is generated (step B2).
[0098]
Next, the inter-frame difference image calculation unit 22 stores the image im (t) in the memory as a past image (step B3). At the same time, the inter-frame difference image calculation unit 22 discards one oldest past image stored in the memory.
[0099]
Next, the binarization unit 23 compares the value of each pixel of the difference image diff (t) (the difference described above) with the difference threshold value to binarize the difference image diff (t), and binarizes the binarized image bin. Conversion to (t) (step B4). At this time, the binarization unit 23 sets the pixel value to “1” when the value of each pixel is equal to or greater than the difference threshold. The binarization unit 23 sets the pixel value to “0” when the value of each pixel is smaller than the difference threshold.
[0100]
Next, the region dividing unit 24 divides the binarized image bin (t) obtained by the binarizing unit 23 into a plurality of divided regions (step B5).
[0101]
An example of a region dividing method by the region dividing unit 24 will be described. FIG. 9 is a diagram for explaining a region dividing method. As shown in FIG. 9, the horizontal direction of the binarized image bin (t) is the X axis (rightward is positive), the vertical direction is Y axis (downward is positive), and the xth pixel from the upper left pixel of the image to the right Then, let the pixel value of the yth pixel be v (x, y) below.
[0102]
When a binarized image bin (t) as shown in FIG. 9A is obtained, as shown in FIG. 9B, v (x, y) becomes 1 for all x constituting the image. Find the minimum y value. Next, a point at which the obtained y value becomes a maximum with respect to the change of x (maximum point) and a point reaching the lower side of the image (lower side contact) are obtained, and a perpendicular passing through the maximum point and the lower side contact is obtained. The image is divided into a plurality of divided areas by lines.
[0103]
As another example of the region dividing method, a method in which pixels having the same pixel value (“1” or “0”) and connected to each other are grouped into one divided region can be considered. That is, a portion where pixels having a pixel value “1” are connected (a group of pixel values “1”) is defined as one divided region, and similarly, a portion where pixels having a pixel value “0” are connected (pixel value). A group of “0”) is defined as one divided area.
[0104]
Next, the area selection unit 25 selects a divided area that is most likely to be a person from the divided areas obtained by the area dividing unit 24. Then, the area selection unit 25 creates a binarized image sbin (t) that is converted so as to have the same value as bin (t) in the divided area and “0” in the other divided areas. (Step B6).
[0105]
As an example of a method for selecting a region most likely to be a person by the region selection unit 25, among the divided regions obtained by the region dividing unit 24, a divided region having the largest number of pixels having a pixel value “1” is selected. A method of selecting is conceivable.
[0106]
Next, the image upper pixel number counting unit 26 counts the number of pixels having a pixel value “1” in the upper region 91 of the converted binary image sbin (t) (step B7). Here, the count value is a (t).
[0107]
Next, the image right pixel number counting unit 27 counts the number of pixels having a pixel value “1” in the right region 92 of the converted binarized image sbin (t) (step B8). . Here, the count value is b (t).
[0108]
Next, the image left pixel number counting unit 28 counts the number of pixels having a pixel value “1” in the left region 93 of the converted binarized image sbin (t) (step B9). . Here, the count value is c (t).
[0109]
Next, the image lower pixel number counting unit 29 counts the number of pixels having a pixel value “1” in the lower region 94 of the converted binary image sbin (t) (step B10). Here, the count value is d (t).
[0110]
Next, the determination unit 210 determines whether or not the count value a (t) is greater than the upper count threshold th1 (step B11). If the count value a (t) is larger than the upper count threshold th1, the determination unit 210 detects that a person is protruding from the image (step B12).
[0111]
Next, the determination unit 210 determines whether or not the count value b (t) is greater than the right count threshold th2 (step B13). If the count value b (t) is larger than the right-side count threshold th2, the determination unit 210 detects that a person protrudes to the right of the image (step B14).
[0112]
Next, the determination unit 210 determines whether or not the count value c (t) is greater than the left count threshold th3 (step B15). If the count value c (t) is greater than the right count threshold th3, the determination unit 210 detects that a person protrudes to the left of the image (step B16).
[0113]
Next, the determination unit 210 determines whether or not the count value d (t) is greater than the lower count threshold th4 (step B17). If the count value d (t) is larger than the right count threshold th4, the determination unit 210 detects that a person is protruding below the image (step B18).
[0114]
When the above operation is completed, the image processing apparatus 20 increments “t” by 1 (step B19), and returns to step B1.
(Third embodiment)
The third embodiment is an image processing apparatus that detects that a person is too close to a video camera and protrudes from an image.
[0115]
FIG. 10 is a block diagram illustrating a configuration of the image processing apparatus according to the third embodiment. Referring to FIG. 10, the image processing device 30 includes a first imaging unit 31, a second imaging unit 32, an image center part correlation calculation unit 33, a reliability determination unit 34, a distance calculation unit 35, and a distance determination unit 36. Have.
[0116]
The first imaging unit 31 is, for example, a video camera, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel.
[0117]
Similar to the first imaging unit 31, the second imaging unit 32 continuously captures images one after another, digitizes the captured images, and obtains data for each pixel. In addition, the field of view for capturing the image of the second imaging unit 32 has a portion that overlaps the field of view of the first imaging unit 31 and has a relative positional relationship with the field of view of the first imaging unit 31. It is fixed.
[0118]
The image center correlation calculation unit 33 calculates a correlation value at the image center 95 (see FIG. 12) of images obtained from the first imaging unit 31 and the second imaging unit 32 almost simultaneously.
[0119]
The reliability determination unit 34 determines that the reliability is low if the change of the correlation value obtained by the image center portion correlation calculation unit 33 with respect to the coordinate position is gentle, and if the change is sudden, the reliability is high. Judge.
[0120]
The distance calculation unit 35 calculates the central portion of the image from the positional relationship between the first imaging unit 31 and the second imaging unit 32 and the shift amount when the correlation value between the two images is maximized by shifting the two images. The distance to the object shown in 95 is calculated.
[0121]
If the distance obtained by the distance calculating unit 35 is equal to or less than a predetermined threshold and the reliability determining unit 34 determines that the reliability is high, the distance determining unit 36 is too close to detect the person from the image. Judge that it protrudes.
[0122]
FIG. 11 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 11, first, the first and second imaging units 31 and 32 respectively capture images and send them to the image center correlation calculation unit 33 (step C1). Assume that the first imaging unit 31 and the second imaging unit 32 are activated at the same time, and images taken t-th after the video camera is activated are im1 (t) and im2 (t), respectively.
[0123]
Next, the image center part correlation calculating unit 33 calculates the correlation value corr (x) at the image center part 95 of the images im1 (t) and im2 (t) (step C2).
[0124]
An example of a correlation value calculation method will be described.
[0125]
Here, the horizontal direction of the image im1 (t) is the X axis (rightward is positive), the vertical direction is the Y axis (downward is positive), and the xth pixel to the right and the yth pixel to the right from the upper left pixel of the image. Let the value be v1 (x, y). Similarly, v2 (x, y) is defined for the image im2 (t). Further, it is assumed that the image center portion 95 is set as shown in FIG.
[0126]
If the set of coordinate values of the image central portion 95 is C, the correlation value is corr (x) = Σ _ {(t, s) ¥ in C} | v1 (t−x, s) −v2 (t, s ) |
[0127]
Next, the reliability determination unit 34 determines whether or not the change in the correlation value corr (x) is gentle (step C3).
[0128]
An example of a method for determining whether or not the correlation value corr (x) is gentle will be described. Let x1 be the x that maximizes the correlation value corr (x). At this time, if corr (x1) −corr (x1−g) <thc1 and corr (x1) −corr (x1 + g) <thc2 in the entire area of the image central portion 95, it is determined that corr (x) is gentle. It is judged that it is not gentle.
[0129]
If the change in the correlation value corr (t) is not gentle, the distance calculation unit 35 determines the positional relationship between the first imaging unit 31 and the second imaging unit 32 and the x of the correlation value corr (x) that maximizes the correlation value corr (x). The distance d (t) is obtained from the value (step C4). The method for calculating the distance may be a well-known method. For example, it can be realized by using a method described in the document “3D Vision” (Xu, Tsuji, Kyoritsu Publishing (1998)).
[0130]
Next, the distance determination unit 36 determines whether or not the distance d (t) is greater than a predetermined threshold th (step C5). The threshold th is calculated in advance from the size of the object (here, a person), the focal length of the lens, and the size of the image, the distance that the object will protrude from the image. If the distance d (t) is less than or equal to the threshold th, the distance determination unit 36 detects that a person is protruding from the image (step C6).
[0131]
After Step C6, when the distance d (t) is larger than the threshold th in Step C5 or when the change is gentle in Step C3, the image processing apparatus 30 increments “t” by one (Step C7), returning to step C1.
[0132]
As described above, the image processing apparatus 30 according to the present embodiment simultaneously captures two images that are shifted from each other with the first and second imaging units 31 and 32, and the image center portion correlation calculation unit 33 performs 2 The correlation value at the image central portion 95 of one image is calculated, and the reliability determination unit 34 determines whether the reliability is high or low from the correlation value. When the reliability is high, the distance calculation unit 35 performs the video camera operation. And the distance determination unit 36 automatically determines that the person protrudes from the image if the distance is too short. can do.
[0133]
In the present embodiment, the case where the target for detecting the protrusion from the image is a person, but the present invention is not limited to this. Any thing can be used as long as a certain size can be assumed.
(Fourth embodiment)
FIG. 13 is a block diagram showing a configuration of an image processing apparatus according to the fourth embodiment of the present invention. Referring to FIG. 13, the image processing apparatus 40 includes a first imaging unit 41, a second imaging unit 42, a small region correlation calculation unit 43, a distance calculation unit 44, a minimum distance selection unit 45, and a distance determination unit 46. is doing.
[0134]
The first imaging unit 41 is, for example, a video camera, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel.
[0135]
Similar to the first imaging unit 41, the second imaging unit 42 captures images one after another and digitizes the captured images to obtain data for each pixel. The field of view for capturing the image of the second imaging unit 42 has a portion that overlaps the field of view of the first imaging unit 41, and the field of view for capturing the image of the second imaging unit 42 is the first imaging. The relative positional relationship with the visual field of the part 41 is fixed.
[0136]
The small area correlation unit 43 calculates the correlation values in the plurality of small areas 96 a, 96 b, 96 c, and 96 d of the image center part 96 of the image obtained from the first imaging unit 41 and the second imaging unit 42 almost simultaneously. Calculate (see FIG. 15).
[0137]
For each of the small regions 96a, 96b, 96c, and 96d, the distance calculation unit 44 shifts the position of the first image capturing unit 41 and the second image capturing unit 42 and shifts the two images to maximize the correlation value between the two images. The distance from the object shown in each small area is calculated from the amount of deviation when.
[0138]
The minimum distance selection unit 45 selects the smallest one of the distances of the small areas calculated by the distance calculation unit 44.
[0139]
If the distance of the small area selected by the minimum distance selection unit 45 is equal to or smaller than a predetermined threshold, the distance determination unit 46 determines that the person is protruding from the image because the distance is too close.
[0140]
FIG. 14 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 14, first, the first and second imaging units 41 and 42 respectively capture images and send them to the small region correlation calculation unit 43 (step D1). It is assumed that the first imaging unit 41 and the second imaging unit 42 are activated at the same time, and images taken t-th after the video camera is activated are im1 (t) and im2 (t), respectively.
[0141]
Next, the small area correlation calculation unit 43 calculates correlation values in the small areas 96a, 96b, 96c, and 96d of the images im1 (t) and im2 (t), and the distance calculation unit 44 calculates the small areas. The distance between the video camera and the object in 96a, 96b, 96c, 96d is calculated (step D2). The calculation method of the correlation value and the distance used at this time is the same method as in the third embodiment.
[0142]
Next, the distance determination unit 46 determines whether or not the shortest distance among the distances in each small region is equal to or less than a predetermined threshold th (step D3). As in the third embodiment, the threshold th is calculated in advance from the size of the object (here, a person), the focal length of the lens, and the size of the image. It is what I left. If the distance is equal to or smaller than the threshold th, the distance determination unit 46 detects that the person is protruding from the image (step D4).
[0143]
After step D4 or when the distance is not less than or equal to the threshold th in step D3, the image processing device 40 increments “t” by one (step D5) and returns to step D1.
[0144]
【The invention's effect】
According to the present invention, the inter-frame difference calculating means calculates the difference of each pixel indicating the change of the image from the images continuously taken by the imaging means, and the image is calculated in the region near the upper, lower, left and right sides of the image. If the change is large, the determination means determines that the object is protruding from the image, so that it is possible to automatically detect that the object has protruded from the image due to deviation in the vertical and horizontal directions.
[0145]
In addition, the inter-frame difference calculating means calculates the difference of each pixel indicating the change of the image from the images continuously captured by the imaging means, and the area dividing means divides the image into a plurality of divided areas. If the selection means selects a divided area that is most likely to be an object, and the determination means is based on the image of the divided area that is most likely to be an object, if the change in the image is large in areas near the top, bottom, left, and right sides of the image, Since it is determined that the object protrudes from the image, it is possible to automatically and reliably detect the protrusion of the object from the image.
[0146]
Further, from the image captured by the imaging unit, the distance calculating unit calculates the distance to the object captured at the center of the image, which is highly likely to be an object, and the reliability determining unit is calculated. When the reliability of the distance is obtained, and as a result, the reliability is high and the distance is too close, the determination means determines that the object is protruding from the image, so the object is too close and protrudes from the image. Can be automatically detected.
[0147]
Further, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. The distance to the object is calculated from the amount of deviation between the two images. As a result, when the distance is too close, the determination means determines that the object protrudes from the image. It is possible to automatically detect that the image protrudes from the image.
[0148]
Further, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. From the amount of deviation between the two images, the distance to the object is calculated by using the object in each small area at the center of the image and having the smallest distance as a target. However, since it is determined that the object protrudes from the image, it can be automatically and reliably detected that the object protrudes from the image because the object is too close.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment.
FIG. 2 is a diagram illustrating an upper region in an image.
FIG. 3 is a diagram illustrating a left region in an image.
FIG. 4 is a diagram illustrating a right region in an image.
FIG. 5 is a diagram illustrating a lower region in an image.
FIG. 6 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment.
FIG. 7 is a block diagram showing a configuration of an image processing apparatus according to a second embodiment of the present invention.
FIG. 8 is a flowchart illustrating an operation of the image processing apparatus according to the second embodiment.
FIG. 9 is a diagram for explaining a region dividing method;
FIG. 10 is a block diagram illustrating a configuration of an image processing apparatus according to a third embodiment.
FIG. 11 is a flowchart illustrating an operation of the image processing apparatus according to the third embodiment.
FIG. 12 is a diagram showing an image center portion in an image.
FIG. 13 is a block diagram illustrating a configuration of an image processing apparatus according to a fourth embodiment.
FIG. 14 is a flowchart illustrating an operation of the image processing apparatus according to the fourth embodiment.
FIG. 15 is a diagram illustrating each small region in the center of an image in the image.
[Explanation of symbols]
10, 20, 30 Image processing apparatus
11, 21 Imaging unit
12, 22 Difference calculation unit between frames
13, 23 Binarization part
14, 26 Image upper pixel part
15, 27 Image right side pixel number counting part
16, 28 Image left pixel count section
17, 29 Image lower pixel count section
18,210 Judgment part
24 Area division part
25 Area selection part
31, 41 First imaging unit
32, 42 Second imaging unit
33 Image center correlation calculation unit
34 Reliability Judgment Department
35, 44 Distance calculator
36, 46 Distance judgment part
43 Small region correlation calculator
45 Minimum distance selector
90 images
91 Upper area
92 Left area
93 Right area
94 Lower area
95,96 Image center
96a, 96b, 96c, 96d Small area
A1-A17, B1-B19, C1-C7 steps

Claims (3)

人物の撮影画像からのはみ出しを検知する画像処理装置であって、
前記人物を含む画像を連続して取得する撮像手段と、
前記撮像手段で取得された画像間の各画素の差分を算出するフレーム間差分算出手段と、
前記画像の縦方向の画素列毎に、前記フレーム間差分算出手段で算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割する領域分割手段と、
前記領域分割手段によって得られた前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択する領域選択手段と、
前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断する判断手段と、を有する画像処理装置。
An image processing device for detecting a protrusion of a person from a captured image,
Imaging means for continuously acquiring images including the person;
Inter-frame difference calculating means for calculating a difference of each pixel between images acquired by the imaging means;
For each pixel row in the vertical direction of the image, a pixel closest to the upper end of the image among pixels having a difference value calculated by the inter-frame difference calculation means equal to or greater than a predetermined value is obtained, and the pixel row obtained for each pixel row is obtained. An area dividing unit that draws a horizontal curve through the pixels and divides the image area vertically into a plurality of divided areas at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak;
A region selecting unit that selects a divided region having the largest number of pixels having a difference value equal to or larger than a predetermined value among the plurality of divided regions obtained by the region dividing unit as a person region in which the person exists; ,
Determining means for determining that the person protrudes from the image if there are more pixels than the predetermined threshold value near the image edge of the image within the person area, An image processing apparatus.
撮影画像を処理する画像処理装置において、人物の前記撮影画像からのはみ出しを検知するためのはみ出し検知方法であって、
前記人物を含む画像を連続して取得するステップと、
前記取得された画像間の各画素の差分を算出するステップと、
前記画像の縦方向の画素列毎に、前記算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割するステップと、
前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択するステップと、
前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断するステップと、を有するはみ出し検知方法。
In an image processing apparatus for processing a captured image, a protrusion detection method for detecting protrusion of a person from the captured image,
Continuously acquiring images including the person;
Calculating a difference of each pixel between the acquired images;
For each pixel column in the vertical direction of the image, a pixel closest to the upper end of the image among the pixels having the calculated difference value equal to or larger than a predetermined value is obtained, and the pixel obtained for each pixel column is divided in the horizontal direction. Dividing the region of the image vertically into a plurality of divided regions at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak;
Selecting a divided area having the largest number of pixels having a difference value equal to or greater than a predetermined value among the plurality of divided areas as a person area where the person exists;
Determining that the person protrudes from the image if there are more pixels than the predetermined threshold value near the image edge of the image within the person region, the difference value being greater than or equal to a predetermined value; Protruding detection method.
撮影画像を処理するコンピュータにて実行する、人物の前記撮影画像からのはみ出しを検知するためのはみ出し検知プログラムであって、
前記人物を含む画像を連続して取得する手順と、
前記取得された画像間の各画素の差分を算出する手順と、
前記画像の縦方向の画素列毎に、前記算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割する手順と、
前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択する手順と、
前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断する手順と、をコンピュータに実行させるためのはみ出し検知プログラム。
A protrusion detection program for detecting protrusion of a person from the captured image, which is executed by a computer that processes the captured image,
A procedure for continuously acquiring images including the person;
Calculating a difference of each pixel between the acquired images;
For each pixel column in the vertical direction of the image, a pixel closest to the upper end of the image among the pixels having the calculated difference value equal to or larger than a predetermined value is obtained, and the pixel obtained for each pixel column is divided in the horizontal direction. A step of dividing the region of the image vertically into a plurality of divided regions at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak;
A procedure for selecting a divided area having the largest number of pixels having a difference value equal to or greater than a predetermined value as the person area where the person exists, among the plurality of divided areas;
A procedure for determining that the person protrudes from the image if there are more pixels than the predetermined threshold value near the image edge of the image within the person region. A protrusion detection program to be executed by a computer.
JP2002132715A 2002-05-08 2002-05-08 Image processing apparatus, protrusion detection method and program for image processing apparatus Expired - Fee Related JP3894038B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002132715A JP3894038B2 (en) 2002-05-08 2002-05-08 Image processing apparatus, protrusion detection method and program for image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002132715A JP3894038B2 (en) 2002-05-08 2002-05-08 Image processing apparatus, protrusion detection method and program for image processing apparatus

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2006212110A Division JP2006309799A (en) 2006-08-03 2006-08-03 Image processing device, protrusion detection method for it, and program
JP2006288659A Division JP4530175B2 (en) 2006-10-24 2006-10-24 Image processing apparatus, protrusion detection method and program for image processing apparatus

Publications (2)

Publication Number Publication Date
JP2003323621A JP2003323621A (en) 2003-11-14
JP3894038B2 true JP3894038B2 (en) 2007-03-14

Family

ID=29544606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002132715A Expired - Fee Related JP3894038B2 (en) 2002-05-08 2002-05-08 Image processing apparatus, protrusion detection method and program for image processing apparatus

Country Status (1)

Country Link
JP (1) JP3894038B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4172507B2 (en) 2006-07-13 2008-10-29 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4201809B2 (en) 2006-11-13 2008-12-24 三洋電機株式会社 Camera shake correction apparatus and method, and imaging apparatus
WO2012124055A1 (en) 2011-03-15 2012-09-20 富士通フロンテック株式会社 Imaging device, imaging method and imaging program
CN113805571B (en) * 2020-05-29 2024-03-12 苏州科瓴精密机械科技有限公司 Robot walking control method, system, robot and readable storage medium

Also Published As

Publication number Publication date
JP2003323621A (en) 2003-11-14

Similar Documents

Publication Publication Date Title
KR101142316B1 (en) Image selection device and method for selecting image
JP6509027B2 (en) Object tracking device, optical apparatus, imaging device, control method of object tracking device, program
EP1710747A1 (en) Method for extracting person candidate area in image, person candidate area extraction system, person candidate area extraction program, method for judging top and bottom of person image, system for judging top and bottom, and program for judging top and bottom
JP6579950B2 (en) Image analysis apparatus, program, and method for detecting person appearing in captured image of camera
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
JP5484184B2 (en) Image processing apparatus, image processing method, and program
JP2005228042A (en) Face identification device, face identification method, and face identification program
US11132538B2 (en) Image processing apparatus, image processing system, and image processing method
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
US11315360B2 (en) Live facial recognition system and method
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP2009123081A (en) Face detection method and photographing apparatus
JP2008035301A (en) Mobile body tracing apparatus
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
JP3894038B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
JP7268725B2 (en) Image processing device, image processing method, and image processing program
US20070223820A1 (en) Image capturing apparatus and face area extraction method
JP2011071925A (en) Mobile tracking apparatus and method
JP4530175B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
CN116456187A (en) Method, device, equipment and storage medium for calculating focus value
JP3625442B2 (en) Object detection method, object detection apparatus, and object detection program
JP2006309799A (en) Image processing device, protrusion detection method for it, and program
US20210203838A1 (en) Image processing apparatus and method, and image capturing apparatus
JP2013179614A (en) Imaging apparatus
JP2013210778A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061204

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131222

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees