JP3894038B2 - Image processing apparatus, protrusion detection method and program for image processing apparatus - Google Patents
Image processing apparatus, protrusion detection method and program for image processing apparatus Download PDFInfo
- Publication number
- JP3894038B2 JP3894038B2 JP2002132715A JP2002132715A JP3894038B2 JP 3894038 B2 JP3894038 B2 JP 3894038B2 JP 2002132715 A JP2002132715 A JP 2002132715A JP 2002132715 A JP2002132715 A JP 2002132715A JP 3894038 B2 JP3894038 B2 JP 3894038B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- pixel
- unit
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、人物の動画像を撮影する画像処理装置に関し、特に、撮影された画像から人物がはみ出していることを検知する画像処理装置に関する。
【0002】
【従来の技術】
動画像を記録として残すために、ビデオカメラのような画像撮影装置で動画像を撮影することがある。動画像を記録として残すための画像撮影装置で撮影される画像には人物や人物の顔が含まれることが多い。そして、人物やその顔は、画像撮影装置で撮影される画像から、はみ出さないことが望ましい。しかし、動画像を撮影するとき、撮影される人物は静止しているとは限らず、通常は絶えず動いている。したがって、人物や顔が視野からはみ出すことが考えられる。そのため、ビデオカメラの撮影方向や撮影範囲は人物の動きに合わせて修正されることが望ましい。
【0003】
従来、画像撮影装置により動画像を撮影するとき、視野から人物がはみ出さないように、または、はみ出した人物を再び視野内に入れるように、画像撮影装置を操作している操作者が、撮影対象である人物の動きに合わせてパンやチルトを行い、撮影方向を調整していた。特開平01−243673号公報に記載された従来のビデオカメラは、パンまたはチルトをするための駆動装置をグリップ内に有している。そのため、従来のビデオカメラの操作者は、電動雲台装置を用いなくとも、パンまたはチルトを容易に行うことができた。
【0004】
【発明が解決しようとする課題】
近年では、ビデオカメラで撮影された動画像から人物やその顔を認識する画像認識装置が、セキュリティ確保のための人物認証や、防犯カメラで撮影された犯人像を用いた犯人捜査などに応用されている。
【0005】
画像認識装置には、ビデオカメラで撮影された人物の画像と、予め記録しておいた人物の画像とを比較することにより、人物を認識するものがある。例えば、特開2000−331167号公報に記載された従来の顔画像照合装置は、2つの顔画像を照合して顔画像に現れている2つの顔の一致度を評価する。従来の顔画像照合装置は、まず、顔画像に現れている顔の大きさおよび各顔画像内における顔の位置を一致させるために、顔画像を正規化する。次に、顔画像照合装置は、所定のマスクデータに基づいて2つの顔画像の所定領域をマスクすることにより顔領域を抽出する。次に、顔画像照合装置は、各顔画像を必要に応じてモノクロ画像に変換する。さらに、顔画像照合装置は、各顔画像の階調を落とした後に照合する。このようにして、従来の画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識する。
【0006】
しかし、ビデオカメラは、レンズ系の画像取得可能範囲と、光電変換装置から出力可能な画像の大きさとに制約を受けるので、ビデオカメラで撮影できる画像には有限の視野が存在する。画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識するので、人物や顔を正常に認識するためには、人物や顔が視野内にあることが条件となる。
【0007】
しかし、ビデオカメラで人物を含む動画像を撮影するとき、人物は必ずしも静止しているわけではない。したがって、画像認識装置の認識対象である人物は、常に、ビデオカメラの視野内にあるとは限らない。そのため、画像認識装置では、ビデオカメラの撮影方向や撮影範囲を人物の動きに合わせて修正することが望まれる。
【0008】
撮影方向や撮影範囲を修正する方法としては、従来、ビデオカメラの操作者が、撮影対象である人物の動きを見て、それに合わせてパンやチルトを行うという方法しかなかった。
【0009】
しかし、セキュリティ確保のための人物認証や防犯カメラに応用される画像認識装置は、操作者が常時操作しているものではなく、無人でも動作する必要がある。そのため、従来の画像認識装置は、人物を認識することができないとき、それが画像からのはみ出しによるか否か知ることができなかった。そのため、従来の画像認識装置は、画像から人物やその顔がはみ出しているとき、撮影方向や撮影範囲を自動的に修正することができず、また、人物が画像からはみ出したことを警告することもできなかった。
【0010】
そのため、従来の画像認識装置は、人物やその顔が画像に入るであろう適当な範囲を固定的に撮影するように設置され、できるだけ人物が画像からはみ出さないようにする程度であった。
【0011】
本発明の目的は、ビデオカメラで撮影された画像から人物または人物の顔がはみ出したことを検知できる画像処理装置、そのはみ出し検知方法およびプログラムを提供することである。
【0012】
【課題を解決するための手段】
上記目的を達成するために、本発明の画像処理装置は、人物の撮影画像からのはみ出しを検知する画像処理装置であって、前記人物を含む画像を連続して取得する撮像手段と、前記撮像手段で取得された画像間の各画素の差分を算出するフレーム間差分算出手段と、前記画像の縦方向の画素列毎に、前記フレーム間差分算出手段で算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割する領域分割手段と、前記領域分割手段によって得られた前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択する領域選択手段と、前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断する判断手段と、を有している。
【0057】
【発明の実施の形態】
本発明の実施形態について図面を参照して詳細に説明する。
(第1の実施形態)
本発明の第1の実施形態は、画像の上下左右の部分の画像の変化から、人物が画像からはみ出したことを検出する画像処理装置である。
【0058】
図1は、第1の実施形態の画像処理装置の構成を示すブロック図である。図1を参照すると、画像処理装置10は、撮像部11、フレーム間差分算出部12、二値化部13、画像上部画素数部14、画像右部画素数カウント部15、画像左部画素数カウント部16、画像下部画素数カウント部17および判断部18を有している。
【0059】
撮像部11は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。
【0060】
フレーム間差分算出部12は、撮像部11でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。
【0061】
二値化部13は、フレーム間差分算出部12で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。
【0062】
第1の実施形態では、撮像部11で撮影される画像の上下左右の各辺付近の部分が上部領域、下部領域、左部領域、右部領域とされている。図2は画像90の中の上部領域91を示し、図3は左部領域92を示し、図4は右部領域93を示し、図5は下部領域94を示している。
【0063】
画像上部画素数カウント部14は、上部領域91内の画素のうち、二値化部13で差分閾値以上とされた画素の数、すなわち“1”に二値化された画素の数をカウントする。
【0064】
画像右部画素数カウント部15は、右部領域93内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
【0065】
画像左部画素数カウント部16は、左部領域92内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
【0066】
画像下部画素数カウント部17は、下部領域94内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
【0067】
判断部18は、画像上部画素数カウント部14のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部18は、画像右部画素数カウント部15のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部18は、画像左部画素数カウント部16のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部18は、画像下部画素数カウント部17のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。
【0068】
図6は、本実施形態の画像処理装置の動作を示すフローチャートである。図6を参照すると、まず、撮像部11が画像を撮影し、フレーム間差分算出部12に送る(ステップA1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。
【0069】
次に、フレーム間差分算出部12は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップA2)。
【0070】
次に、フレーム間差分画像算出部13は、画像im(t)を過去の画像としてメモリに保存する(ステップA3)。それとともに、フレーム間差分画像算出部13は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。
【0071】
次に、二値化部14は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップA4)。このとき、二値化部14は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部14は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。
【0072】
次に、画像上部画素数カウント部14は、二値化画像bin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップA5)。ここでは、そのカウント値をa(t)とする。
【0073】
次に、画像右部画素数カウント部15は、二値化画像bin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップA6)。ここでは、そのカウント値をb(t)とする。
【0074】
次に、画像左部画素数カウント部16は、二値化画像bin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップA7)。ここでは、そのカウント値をc(t)とする。
【0075】
次に、画像下部画素数カウント部17は、二値化画像bin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップA8)。ここでは、そのカウント値をd(t)とする。
【0076】
次に、判定部18は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップA9)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部18は、人物が画像の上にはみ出していることを検知する(ステップA10)。
【0077】
次に、判定部18は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップA11)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部18は、人物が画像の右にはみ出していることを検知する(ステップA12)。
【0078】
次に、判定部18は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップA13)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部18は、人物が画像の左にはみ出していることを検知する(ステップA14)。
【0079】
次に、判定部18は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップA15)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部18は、人物が画像の下にはみ出していることを検知する(ステップA16)。
【0080】
以上の動作を終了すると、画像処理装置10は、“t”を1つインクリメントし(ステップA17)、ステップA1に戻る。
【0081】
以上説明したように、本実施形態の画像処理装置10は、最新の画像と過去の画像との差分をフレーム間差分算出部12によって算出し、二値化部13によって差分を二値化して所定以上に変化したか否か求め、画像上部、右部、左部または下部画素数カウント部14、15、16、17によって、所定以上に変化した画素の数を上下左右の領域毎にカウントし、判断部18によって、各領域のカウント値を閾値と比較してカウント値が閾値を超えた領域において画像から人物がはみ出したと判断するので、画像変化が大きいためにカウント値が閾値を超えた領域を検出することにより、画像からの人物のはみ出しを自動的に検知することができる。
【0082】
なお、本実施形態では、撮像部11がモノクロ画像を撮影する場合を例示したが、本発明はこれに限定されるものではなく、カラー画像であってもよい。撮像部11で撮影されるのがカラー画像である場合、例えば、フレーム間差分算出部12は、各画素値をRGBの3色を要素とするベクトルで表わし、過去の画像の画素とベクトルの差分を求める。そして、二値化部13は、フレーム間差分算出部12で求められた差分ベクトルの大きさを差分閾値と比較することにより、二値化画像を生成してもよい。
【0083】
また、本実施形態では、画像からのはみ出しを検知する対象物が人物である場合を例示したが、本発明はこれに限定されるものではない。連続的に撮影したとき、移動しうる物体であれば、どのようなものであってもよい。
【0084】
また、本実施形態で用いられた、過去の画像の数、各閾値、上下左右部の各領域の大きさなどのパラメータを調整することにより、画像処理装置がはみ出しを検知する精度を向上させることができる。
(第2の実施形態)
図7は、本発明の第2の実施形態の画像処理装置の構成を示すブロック図である。図7を参照すると、画像処理装置20は、撮像部21、フレーム間差分算出部22、二値化部23、領域分割部24、領域選択部25、画像上部画素数カウント部26、画像右部画素数カウント部27、画像左部画素数カウント部28、画像下部画素数カウント部29および判断部210を有している。
【0085】
撮像部21は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。
【0086】
フレーム間差分算出部22は、撮像部21でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。
【0087】
二値化部23は、フレーム間差分算出部22で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。
【0088】
領域分割部24は、画像を複数の分割領域に分割する。画像を複数の分割領域に分割する方法については後述する。
【0089】
領域選択部25は、領域分割部24で分割された複数の分割領域の中から、最も人物らしい分割領域を選択し、さらに、選択された分割領域に応じて二値化画像を変換する。最も人物らしい分割領域を選択する方法と、二値化画像を変換する方法については後述する。
【0090】
第2の実施形態では、第1の実施形態と同様、図2〜図5に示された上部、右部、左部、下部領域93、94、95、96が定められている。
【0091】
画像上部画素数カウント部26は、領域選択部25で変換された二値化画像において、上部領域91内で画素値が“1”である画素の数をカウントする。
【0092】
画像右部画素数カウント部27は、領域選択部25で変換された二値化画像において、右部領域93内で画素値が“1”である画素の数をカウントする。
【0093】
画像左部画素数カウント部28は、領域選択部25で変換された二値化画像において、左部領域92内で画素値が“1”である画素の数をカウントする。
【0094】
画像下部画素数カウント部29は、領域選択部25で変換された二値化画像において、下部領域94内で画素値が“1”である画素の数をカウントする。
【0095】
判断部210は、画像上部画素数カウント部26のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部210は、画像右部画素数カウント部27のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部210は、画像左部画素数カウント部28のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部210は、画像下部画素数カウント部29のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。
【0096】
図8は、本実施形態の画像処理装置の動作を示すフローチャートである。図8を参照すると、まず、撮像部21が画像を撮影し、フレーム間差分算出部22に送る(ステップB1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。
【0097】
次に、フレーム間差分算出部22は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップB2)。
【0098】
次に、フレーム間差分画像算出部22は、画像im(t)を過去の画像としてメモリに保存する(ステップB3)。それとともに、フレーム間差分画像算出部22は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。
【0099】
次に、二値化部23は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップB4)。このとき、二値化部23は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部23は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。
【0100】
次に、領域分割部24は、二値化部23で得られた二値化画像bin(t)を複数の分割領域に分割する(ステップB5)。
【0101】
領域分割部24による領域分割の方法の一例について説明する。図9は、領域分割の方法について説明するための図である。図9に示すように、二値化画像bin(t)の横方向をX軸(右向きが正)とし、縦方向をY軸(下向きが正)とし、画像の左上の画素から右にx番目で、下にy番目の画素の画素値をv(x,y)とする。
【0102】
図9(a)のような二値化画像bin(t)が得られると、図9(b)に示すように、画像を構成する全てのxについて、v(x,y)が1となる最小のyの値を求める。次に、得られたyの値が、xの変化に対して極大となる点(極大点)と、画像下辺に到達する点(下辺接点)とを求め、極大点および下辺接点を通る垂直な線で画像を複数の分割領域に分割する。
【0103】
また、他の領域分割の方法の例として、同じ画素値(“1”または“0”)を有し、互いに連結している画素をグループ化して1つの分割領域とする方法が考えられる。つまり、画素値“1”の画素が連結している部分(画素値“1”のひとかたまり)が1つの分割領域とされ、同様に、画素値“0”の画素がつながっている部分(画素値“0”のひとかたまり)が1つの分割領域とされる。
【0104】
次に、領域選択部25は、領域分割部24で得られた各分割領域から最も人物らしい分割領域を選択する。そして、領域選択部25は、その分割領域内ではbin(t)と同じ値であり、それ以外の分割領域では“0”となるように変換された二値化画像sbin(t)を作成する(ステップB6)。
【0105】
領域選択部25による、最も人物らしい分割領域を選択する方法の一例として、領域分割部24で得られた分割領域の中で、画素値が“1”となる画素の数が最も多い分割領域を選択するという方法が考えられる。
【0106】
次に、画像上部画素数カウント部26は、変換された二値化画像sbin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップB7)。ここでは、そのカウント値をa(t)とする。
【0107】
次に、画像右部画素数カウント部27は、変換された二値化画像sbin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップB8)。ここでは、そのカウント値をb(t)とする。
【0108】
次に、画像左部画素数カウント部28は、変換された二値化画像sbin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップB9)。ここでは、そのカウント値をc(t)とする。
【0109】
次に、画像下部画素数カウント部29は、変換された二値化画像sbin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップB10)。ここでは、そのカウント値をd(t)とする。
【0110】
次に、判定部210は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップB11)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部210は、人物が画像の上にはみ出していることを検知する(ステップB12)。
【0111】
次に、判定部210は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップB13)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部210は、人物が画像の右にはみ出していることを検知する(ステップB14)。
【0112】
次に、判定部210は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップB15)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部210は、人物が画像の左にはみ出していることを検知する(ステップB16)。
【0113】
次に、判定部210は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップB17)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部210は、人物が画像の下にはみ出していることを検知する(ステップB18)。
【0114】
以上の動作を終了すると、画像処理装置20は、“t”を1つインクリメントし(ステップB19)、ステップB1に戻る。
(第3の実施形態)
第3の実施形態は、人物がビデオカメラに近すぎて画像からはみ出していることを検出する画像処理装置である。
【0115】
図10は、第3の実施形態の画像処理装置の構成を示すブロック図である。図10を参照すると、画像処理装置30は、第1の撮像部31、第2の撮像部32、画像中央部相関算出部33、信頼性判断部34、距離算出部35および距離判断部36を有している。
【0116】
第1の撮像部31は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。
【0117】
第2の撮像部32は、第1の撮像部31と同様に、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部32の画像を撮影する視野は、第1の撮像部31の視野と重複する部分を有し、かつ、第1の撮像部31の視野との相対的な位置関係が固定されている。
【0118】
画像中央部相関算出部33は、第1の撮像部31と第2の撮像部32からほぼ同時に得られる画像の画像中央部95(図12参照)での相関値を計算する。
【0119】
信頼性判断部34は、画像中央部相関計算部33で得られた相関値の座標位置に対する変化がなだらかであれば、信頼性が低いと判断し、変化が急であれば、信頼性が高いと判断する。
【0120】
距離算出部35は、第1の撮像部31と第2の撮像部32の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、画像中央部95に映っている物体との距離を算出する。
【0121】
距離判断部36は、距離算出部35で得られた距離が所定の閾値以下であり、かつ信頼性判断部34で信頼性が高いと判断されていれば、距離が近すぎて画像から人物がはみ出していると判断する。
【0122】
図11は、本実施形態の画像処理装置の動作を示すフローチャートである。図11を参照すると、まず、第1および第2の撮像部31、32がそれぞれ画像を撮像し、画像中央部相関算出部33に送る(ステップC1)。第1の撮像部31と第2の撮像部32とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。
【0123】
次に、画像中央部相関算出部33は、画像im1(t)と画像im2(t)の画像中央部95での相関値corr(x)を算出する(ステップC2)。
【0124】
相関値の算出法の一例を説明する。
【0125】
ここで、画像im1(t)の横方向をX軸(右向きが正)縦方向をY軸(下向きが正)とし、画像のもっとも左上の画素から右にx番目で、下にy番目の画素値をv1(x,y)とする。画像im2(t)についても同様にv2(x,y)を定義する。また、画像中央部95は図12に示されたように設定されているとする。
【0126】
そして、画像中央部95の座標値の集合をCとすると、相関値は corr(x)=Σ_{(t,s)¥in C}|v1(t−x,s)−v2(t,s)|などと計算できる。
【0127】
次に、信頼性判断部34は、相関値corr(x)の変化がなだらかであるか否か判定する(ステップC3)。
【0128】
相関値corr(x)がなだらかであるか否かの判定方法の一例について説明する。相関値corr(x)が最大となるxをx1とする。このとき、画像中央部95の全域において、corr(x1)−corr(x1−g)<thc1かつcorr(x1)−corr(x1+g)<thc2ならばcorr(x)がなだらかであると判断し、そうでなけれななだらかでないと判断する。
【0129】
相関値corr(t)の変化がなだらかでなければ、距離算出部35が、第1の撮像部31と第2の撮像部32の位置関係と、相関値corr(x)が最大となるxの値とから距離d(t)を求める(ステップC4)。距離の算出方法は従来からよく知られた方法によればよい。例えば、文献「3次元ビジョン」(徐、辻著、共立出版(1998))などに記載された方法を用いることで実現できる。
【0130】
次に、距離判定部36は、距離d(t)が所定の閾値thより大きいか否か判定する(ステップC5)。閾値thは、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離d(t)が閾値th以下であれば、距離判定部36は、人物が画像からはみ出していると検知する(ステップC6)。
【0131】
ステップC6の後、ステップC5において距離d(t)が閾値thより大きかったとき、または、ステップC3において変化がなだらかであったとき、画像処理装置30は、“t”を1つインクリメントし(ステップC7)、ステップC1に戻る。
【0132】
以上説明したように、本実施形態の画像処理装置30は、第1および第2の撮像部31、32によって、互いにずれた2つの画像を同時に撮影し、画像中央部相関算出部33によって、2つの画像の画像中央部95での相関値を算出し、信頼性判断部34によって、相関値から信頼性が高いか低いか判定し、信頼性が高い場合に、距離算出部35によって、ビデオカメラと人物との距離を算出し、距離判定部36によって、距離が近ければ画像から人物がはみ出していると判断されるので、距離が近すぎることによる、画像からの人物のはみ出しを自動的に検知することができる。
【0133】
なお、本実施形態では、画像からのはみ出しを検知する対象が人物である場合を例示したが、本発明はこれに限定されるものではない。ある程度の大きさが想定できるものであれば、どのようなものであってもよい。
(第4の実施形態)
図13は、本発明の第4の実施形態の画像処理装置の構成を示すブロック図である。図13を参照すると、画像処理装置40は、第1の撮像部41、第2の撮像部42、小領域相関算出部43、距離算出部44、最小距離選択部45および距離判断部46を有している。
【0134】
第1の撮像部41は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。
【0135】
第2の撮像部42は、第1の撮像部41と同様、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野と重複する部分を有し、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野との相対的な位置関係が固定されている。
【0136】
小領域相関部43は、第1の撮像部41と第2の撮像部42からほぼ同時に得られる画像の画像中央部96の複数の小領域96a、96b、96c、96dでのそれぞれの相関値を計算する(図15参照)。
【0137】
距離算出部44は、各小領域96a、96b、96c、96dについて、第1の撮像部41と第2の撮像部42の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、各小領域に映っている物体との距離を算出する。
【0138】
最小距離選択部45は、距離算出部44で算出された各小領域の距離のうち、最小のものを選択する。
【0139】
距離判断部46は、最小距離選択部45で選択された小領域の距離が所定の閾値以下であれば、距離が近すぎて画像から人物がはみだしていると判断する。
【0140】
図14は、本実施形態の画像処理装置の動作を示すフローチャートである。図14を参照すると、まず、第1および第2の撮像部41、42がそれぞれ画像を撮像し、小領域相関算出部43に送る(ステップD1)。第1の撮像部41と第2の撮像部42とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。
【0141】
次に、小領域相関算出部43は、画像im1(t)と画像im2(t)の各小領域96a、96b、96c、96dでの相関値を算出し、距離算出部44は、各小領域96a、96b、96c、96dにおける、ビデオカメラと物体との距離を算出する(ステップD2)。このとき用いられる、相関値および距離の算出方法は第3の実施形態と同様の方法である。
【0142】
次に、距離判定部46は、各小領域における距離のうち、最も短いものが所定の閾値th以下であるか否か判定する(ステップD3)。閾値thは、第3の実施形態と同様に、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離が閾値th以下であれば、距離判定部46は、人物が画像からはみ出していると検知する(ステップD4)。
【0143】
ステップD4の後、または、ステップD3において距離が閾値th以下でなかったとき、画像処理装置40は、“t”を1つインクリメントし(ステップD5)、ステップD1に戻る。
【0144】
【発明の効果】
本発明によれば、撮像手段で連続的に撮影された画像から、フレーム間差分算出手段が、画像の変化を示す各画素の差分を算出し、画像の上下左右の辺に近い領域で画像の変化が大きければ、判断手段が、対象物が画像からはみ出していると判断するので、上下左右にずれたことにより画像から対象物がはみ出したことを自動的に検知することができる。
【0145】
また、撮像手段で連続的に撮影された画像から、フレーム間差分算出手段が、画像の変化を示す各画素の差分を算出し、領域分割手段が、画像を複数の分割領域に分割し、領域選択手段が、最も対象物らしい分割領域を選択し、判断手段が、最も対象物らしい分割領域の画像に基づいて、画像の上下左右の辺に近い領域で画像の変化が大きければ、判断手段が、対象物が画像からはみ出していると判断するので、画像からの対象物のはみ出しを自動的に確実に検知することができる。
【0146】
また、撮像手段で撮影された画像から、距離算出手段が、対象物である可能性の高い、その画像の中央に撮影された物体までの距離を算出し、信頼性判断手段が、算出された距離の信頼性を求め、その結果、信頼性が高く、かつ、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断するので、対象物が近すぎるために画像からはみ出したことを自動的に検知することができる。
【0147】
また、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断するので、対象物が近すぎるために画像からはみ出したことを自動的に検知することができる。
【0148】
また、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、画像中央部の各小領域にある物体で、距離が最小のものを対象物として、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断するので、対象物が近すぎるために画像からはみ出したことを自動的に確実に検知することができる。
【図面の簡単な説明】
【図1】第1の実施形態の画像処理装置の構成を示すブロック図である。
【図2】画像の中の上部領域を示す図である。
【図3】画像の中の左部領域を示す図である。
【図4】画像の中の右部領域を示す図である。
【図5】画像の中の下部領域を示す図である。
【図6】第1の実施形態の画像処理装置の動作を示すフローチャートである。
【図7】本発明の第2の実施形態の画像処理装置の構成を示すブロック図である。
【図8】第2の実施形態の画像処理装置の動作を示すフローチャートである。
【図9】領域分割の方法について説明するための図である。
【図10】第3の実施形態の画像処理装置の構成を示すブロック図である。
【図11】第3の実施形態の画像処理装置の動作を示すフローチャートである。
【図12】画像の中の画像中央部を示す図である。
【図13】第4の実施形態の画像処理装置の構成を示すブロック図である。
【図14】第4の実施形態の画像処理装置の動作を示すフローチャートである。
【図15】画像の中の画像中央部の各小領域を示す図である。
【符号の説明】
10,20,30 画像処理装置
11,21 撮像部
12,22 フレーム間差分算出部
13,23 二値化部
14,26 画像上部画素数部
15,27 画像右部画素数カウント部
16,28 画像左部画素数カウント部
17,29 画像下部画素数カウント部
18,210 判断部
24 領域分割部
25 領域選択部
31,41 第1の撮像部
32,42 第2の撮像部
33 画像中央部相関算出部
34 信頼性判断部
35,44 距離算出部
36,46 距離判断部
43 小領域相関算出部
45 最小距離選択部
90 画像
91 上部領域
92 左部領域
93 右部領域
94 下部領域
95,96 画像中央部
96a,96b,96c,96d 小領域
A1〜A17,B1〜B19,C1〜C7 ステップ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that captures a moving image of a person, and more particularly, to an image processing apparatus that detects that a person protrudes from a captured image.
[0002]
[Prior art]
In order to leave a moving image as a record, a moving image may be captured by an image capturing device such as a video camera. An image captured by an image capturing device for leaving a moving image as a record often includes a person or a person's face. It is desirable that the person and his / her face do not protrude from the image captured by the image capturing device. However, when shooting a moving image, the person to be shot is not always stationary, and usually moves constantly. Therefore, it is conceivable that a person or face protrudes from the field of view. Therefore, it is desirable that the shooting direction and shooting range of the video camera be corrected according to the movement of the person.
[0003]
Conventionally, when a moving image is shot by an image shooting device, an operator who operates the image shooting device takes a picture so that the person does not protrude from the field of view or the person who has protruded is placed in the field of view again. The shooting direction was adjusted by panning and tilting according to the movement of the target person. A conventional video camera described in Japanese Patent Laid-Open No. 01-243673 has a driving device for panning or tilting in a grip. Therefore, an operator of a conventional video camera can easily perform panning or tilting without using an electric pan head device.
[0004]
[Problems to be solved by the invention]
In recent years, image recognition devices that recognize people and their faces from moving images taken with a video camera have been applied to human authentication for security and criminal investigations using criminal images taken with a security camera. ing.
[0005]
Some image recognition apparatuses recognize a person by comparing an image of a person photographed by a video camera with an image of a person recorded in advance. For example, a conventional face image matching device described in Japanese Patent Application Laid-Open No. 2000-331167 compares two face images and evaluates the degree of coincidence between two faces appearing in the face image. A conventional face image matching device first normalizes a face image in order to match the size of the face appearing in the face image and the position of the face in each face image. Next, the face image matching device extracts a face area by masking a predetermined area of two face images based on predetermined mask data. Next, the face image collation device converts each face image into a monochrome image as necessary. Furthermore, the face image collation device collates after reducing the gradation of each face image. In this way, the conventional image recognition apparatus recognizes a person or a face from an image taken with a video camera.
[0006]
However, since a video camera is restricted by the lens system image acquisition range and the size of an image that can be output from the photoelectric conversion device, there is a finite field of view in an image that can be captured by the video camera. Since the image recognition apparatus recognizes a person or face from an image taken by a video camera, the person or face must be in the field of view in order to recognize the person or face normally.
[0007]
However, when shooting a moving image including a person with a video camera, the person is not necessarily stationary. Therefore, the person who is the recognition target of the image recognition apparatus is not always in the field of view of the video camera. Therefore, it is desired that the image recognition apparatus corrects the shooting direction and shooting range of the video camera in accordance with the movement of the person.
[0008]
As a method for correcting the shooting direction and the shooting range, there has conventionally been a method in which an operator of a video camera observes the movement of a person to be shot and pans or tilts accordingly.
[0009]
However, an image recognition apparatus applied to personal authentication and security camera for ensuring security is not always operated by an operator, and needs to operate even without an operator. Therefore, when the conventional image recognition apparatus cannot recognize a person, it cannot know whether or not it is due to the protrusion from the image. For this reason, conventional image recognition devices cannot automatically correct the shooting direction or shooting range when a person or their face protrudes from the image, and warn that a person protrudes from the image. I couldn't.
[0010]
For this reason, the conventional image recognition apparatus is installed so as to fixedly shoot an appropriate range in which a person and his / her face will enter the image, so that the person does not protrude from the image as much as possible.
[0011]
An object of the present invention is to provide an image processing apparatus that can detect that a person or a person's face protrudes from an image taken by a video camera, and a protrusion detection method and program thereof.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, an image processing apparatus of the present invention is provided. The person An image processing apparatus for detecting an overhang from a captured image of an object, the image processing unit continuously acquiring images including the person, and a frame for calculating a difference of each pixel between the images acquired by the image capturing unit For each pixel column in the vertical direction of the image, a difference value calculated by the inter-frame difference calculation unit is determined to obtain a pixel closest to the upper end of the image among pixels having a predetermined value or more, and the pixel A horizontal curve is drawn by connecting the pixels obtained for each column, and the image area is vertically divided into a plurality of divided areas at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak. And a divided area having the largest number of pixels having a difference value equal to or larger than a predetermined value among the plurality of divided areas obtained by the area dividing means as a person area where the person exists Area selection means to select and previous Determining means for determining that the person protrudes from the image if there are more pixels than the predetermined threshold near the image edge of the image within the person area, the difference value being greater than or equal to a predetermined value; Have.
[0057]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
The first embodiment of the present invention is an image processing device that detects that a person protrudes from an image based on changes in the image of the upper, lower, left, and right portions of the image.
[0058]
FIG. 1 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment. Referring to FIG. 1, the
[0059]
The
[0060]
The inter-frame difference calculation unit 12 receives the image digitized by the
[0061]
The
[0062]
In the first embodiment, the portions near the upper, lower, left, and right sides of the image captured by the
[0063]
The image upper pixel number counting unit 14 counts the number of pixels in the
[0064]
The image right pixel
[0065]
The image left pixel
[0066]
The image lower pixel
[0067]
If the count value of the upper image pixel count unit 14 is larger than a predetermined upper count threshold value, the
[0068]
FIG. 6 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 6, first, the
[0069]
Next, the inter-frame difference calculation unit 12 calculates a difference between each pixel of the latest image im (t) and each pixel of the past image stored in the memory, and each difference is set as the value of each pixel. The difference image diff (t) to be generated is generated (step A2).
[0070]
Next, the inter-frame difference
[0071]
Next, the binarizing unit 14 compares the value of each pixel (the above-described difference) of the difference image diff (t) with the difference threshold value, binarizes the difference image diff (t), and binarizes the binarized image bin. Conversion into (t) (step A4). At this time, the binarization unit 14 sets the pixel value to “1” when the value of each pixel is equal to or greater than the difference threshold. Also, the binarization unit 14 sets the pixel value to “0” when the value of each pixel is smaller than the difference threshold.
[0072]
Next, the image upper pixel number counting unit 14 counts the number of pixels having a pixel value “1” in the
[0073]
Next, the image right pixel
[0074]
Next, the image left pixel
[0075]
Next, the image lower pixel
[0076]
Next, the
[0077]
Next, the
[0078]
Next, the
[0079]
Next, the
[0080]
When the above operation is completed, the
[0081]
As described above, the
[0082]
In the present embodiment, the case where the
[0083]
Further, in the present embodiment, the case where the object for detecting the protrusion from the image is a person is exemplified, but the present invention is not limited to this. Any object can be used as long as it can move when continuously photographed.
[0084]
In addition, by adjusting parameters such as the number of past images, each threshold, and the size of each of the upper, lower, left, and right areas used in the present embodiment, the accuracy with which the image processing apparatus detects the protrusion is improved. Can do.
(Second Embodiment)
FIG. 7 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. Referring to FIG. 7, the
[0085]
The
[0086]
The inter-frame
[0087]
The
[0088]
The
[0089]
The
[0090]
In the second embodiment, similarly to the first embodiment, the upper, right, left, and
[0091]
The image upper pixel
[0092]
The image right pixel
[0093]
The image left pixel
[0094]
The image lower pixel
[0095]
If the count value of the image upper pixel
[0096]
FIG. 8 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 8, first, the
[0097]
Next, the inter-frame
[0098]
Next, the inter-frame difference
[0099]
Next, the
[0100]
Next, the
[0101]
An example of a region dividing method by the
[0102]
When a binarized image bin (t) as shown in FIG. 9A is obtained, as shown in FIG. 9B, v (x, y) becomes 1 for all x constituting the image. Find the minimum y value. Next, a point at which the obtained y value becomes a maximum with respect to the change of x (maximum point) and a point reaching the lower side of the image (lower side contact) are obtained, and a perpendicular passing through the maximum point and the lower side contact is obtained. The image is divided into a plurality of divided areas by lines.
[0103]
As another example of the region dividing method, a method in which pixels having the same pixel value (“1” or “0”) and connected to each other are grouped into one divided region can be considered. That is, a portion where pixels having a pixel value “1” are connected (a group of pixel values “1”) is defined as one divided region, and similarly, a portion where pixels having a pixel value “0” are connected (pixel value). A group of “0”) is defined as one divided area.
[0104]
Next, the
[0105]
As an example of a method for selecting a region most likely to be a person by the
[0106]
Next, the image upper pixel
[0107]
Next, the image right pixel
[0108]
Next, the image left pixel
[0109]
Next, the image lower pixel
[0110]
Next, the
[0111]
Next, the
[0112]
Next, the
[0113]
Next, the
[0114]
When the above operation is completed, the
(Third embodiment)
The third embodiment is an image processing apparatus that detects that a person is too close to a video camera and protrudes from an image.
[0115]
FIG. 10 is a block diagram illustrating a configuration of the image processing apparatus according to the third embodiment. Referring to FIG. 10, the
[0116]
The
[0117]
Similar to the
[0118]
The image center
[0119]
The
[0120]
The
[0121]
If the distance obtained by the
[0122]
FIG. 11 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 11, first, the first and
[0123]
Next, the image center part
[0124]
An example of a correlation value calculation method will be described.
[0125]
Here, the horizontal direction of the image im1 (t) is the X axis (rightward is positive), the vertical direction is the Y axis (downward is positive), and the xth pixel to the right and the yth pixel to the right from the upper left pixel of the image. Let the value be v1 (x, y). Similarly, v2 (x, y) is defined for the image im2 (t). Further, it is assumed that the
[0126]
If the set of coordinate values of the image
[0127]
Next, the
[0128]
An example of a method for determining whether or not the correlation value corr (x) is gentle will be described. Let x1 be the x that maximizes the correlation value corr (x). At this time, if corr (x1) −corr (x1−g) <thc1 and corr (x1) −corr (x1 + g) <thc2 in the entire area of the image
[0129]
If the change in the correlation value corr (t) is not gentle, the
[0130]
Next, the
[0131]
After Step C6, when the distance d (t) is larger than the threshold th in Step C5 or when the change is gentle in Step C3, the
[0132]
As described above, the
[0133]
In the present embodiment, the case where the target for detecting the protrusion from the image is a person, but the present invention is not limited to this. Any thing can be used as long as a certain size can be assumed.
(Fourth embodiment)
FIG. 13 is a block diagram showing a configuration of an image processing apparatus according to the fourth embodiment of the present invention. Referring to FIG. 13, the
[0134]
The
[0135]
Similar to the
[0136]
The small
[0137]
For each of the
[0138]
The minimum
[0139]
If the distance of the small area selected by the minimum
[0140]
FIG. 14 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 14, first, the first and
[0141]
Next, the small area
[0142]
Next, the
[0143]
After step D4 or when the distance is not less than or equal to the threshold th in step D3, the
[0144]
【The invention's effect】
According to the present invention, the inter-frame difference calculating means calculates the difference of each pixel indicating the change of the image from the images continuously taken by the imaging means, and the image is calculated in the region near the upper, lower, left and right sides of the image. If the change is large, the determination means determines that the object is protruding from the image, so that it is possible to automatically detect that the object has protruded from the image due to deviation in the vertical and horizontal directions.
[0145]
In addition, the inter-frame difference calculating means calculates the difference of each pixel indicating the change of the image from the images continuously captured by the imaging means, and the area dividing means divides the image into a plurality of divided areas. If the selection means selects a divided area that is most likely to be an object, and the determination means is based on the image of the divided area that is most likely to be an object, if the change in the image is large in areas near the top, bottom, left, and right sides of the image, Since it is determined that the object protrudes from the image, it is possible to automatically and reliably detect the protrusion of the object from the image.
[0146]
Further, from the image captured by the imaging unit, the distance calculating unit calculates the distance to the object captured at the center of the image, which is highly likely to be an object, and the reliability determining unit is calculated. When the reliability of the distance is obtained, and as a result, the reliability is high and the distance is too close, the determination means determines that the object is protruding from the image, so the object is too close and protrudes from the image. Can be automatically detected.
[0147]
Further, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. The distance to the object is calculated from the amount of deviation between the two images. As a result, when the distance is too close, the determination means determines that the object protrudes from the image. It is possible to automatically detect that the image protrudes from the image.
[0148]
Further, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. From the amount of deviation between the two images, the distance to the object is calculated by using the object in each small area at the center of the image and having the smallest distance as a target. However, since it is determined that the object protrudes from the image, it can be automatically and reliably detected that the object protrudes from the image because the object is too close.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment.
FIG. 2 is a diagram illustrating an upper region in an image.
FIG. 3 is a diagram illustrating a left region in an image.
FIG. 4 is a diagram illustrating a right region in an image.
FIG. 5 is a diagram illustrating a lower region in an image.
FIG. 6 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment.
FIG. 7 is a block diagram showing a configuration of an image processing apparatus according to a second embodiment of the present invention.
FIG. 8 is a flowchart illustrating an operation of the image processing apparatus according to the second embodiment.
FIG. 9 is a diagram for explaining a region dividing method;
FIG. 10 is a block diagram illustrating a configuration of an image processing apparatus according to a third embodiment.
FIG. 11 is a flowchart illustrating an operation of the image processing apparatus according to the third embodiment.
FIG. 12 is a diagram showing an image center portion in an image.
FIG. 13 is a block diagram illustrating a configuration of an image processing apparatus according to a fourth embodiment.
FIG. 14 is a flowchart illustrating an operation of the image processing apparatus according to the fourth embodiment.
FIG. 15 is a diagram illustrating each small region in the center of an image in the image.
[Explanation of symbols]
10, 20, 30 Image processing apparatus
11, 21 Imaging unit
12, 22 Difference calculation unit between frames
13, 23 Binarization part
14, 26 Image upper pixel part
15, 27 Image right side pixel number counting part
16, 28 Image left pixel count section
17, 29 Image lower pixel count section
18,210 Judgment part
24 Area division part
25 Area selection part
31, 41 First imaging unit
32, 42 Second imaging unit
33 Image center correlation calculation unit
34 Reliability Judgment Department
35, 44 Distance calculator
36, 46 Distance judgment part
43 Small region correlation calculator
45 Minimum distance selector
90 images
91 Upper area
92 Left area
93 Right area
94 Lower area
95,96 Image center
96a, 96b, 96c, 96d Small area
A1-A17, B1-B19, C1-C7 steps
Claims (3)
前記人物を含む画像を連続して取得する撮像手段と、
前記撮像手段で取得された画像間の各画素の差分を算出するフレーム間差分算出手段と、
前記画像の縦方向の画素列毎に、前記フレーム間差分算出手段で算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割する領域分割手段と、
前記領域分割手段によって得られた前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択する領域選択手段と、
前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断する判断手段と、を有する画像処理装置。An image processing device for detecting a protrusion of a person from a captured image,
Imaging means for continuously acquiring images including the person;
Inter-frame difference calculating means for calculating a difference of each pixel between images acquired by the imaging means;
For each pixel row in the vertical direction of the image, a pixel closest to the upper end of the image among pixels having a difference value calculated by the inter-frame difference calculation means equal to or greater than a predetermined value is obtained, and the pixel row obtained for each pixel row is obtained. An area dividing unit that draws a horizontal curve through the pixels and divides the image area vertically into a plurality of divided areas at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak;
A region selecting unit that selects a divided region having the largest number of pixels having a difference value equal to or larger than a predetermined value among the plurality of divided regions obtained by the region dividing unit as a person region in which the person exists; ,
Determining means for determining that the person protrudes from the image if there are more pixels than the predetermined threshold value near the image edge of the image within the person area, An image processing apparatus.
前記人物を含む画像を連続して取得するステップと、
前記取得された画像間の各画素の差分を算出するステップと、
前記画像の縦方向の画素列毎に、前記算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割するステップと、
前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択するステップと、
前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断するステップと、を有するはみ出し検知方法。In an image processing apparatus for processing a captured image, a protrusion detection method for detecting protrusion of a person from the captured image,
Continuously acquiring images including the person;
Calculating a difference of each pixel between the acquired images;
For each pixel column in the vertical direction of the image, a pixel closest to the upper end of the image among the pixels having the calculated difference value equal to or larger than a predetermined value is obtained, and the pixel obtained for each pixel column is divided in the horizontal direction. Dividing the region of the image vertically into a plurality of divided regions at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak;
Selecting a divided area having the largest number of pixels having a difference value equal to or greater than a predetermined value among the plurality of divided areas as a person area where the person exists;
Determining that the person protrudes from the image if there are more pixels than the predetermined threshold value near the image edge of the image within the person region, the difference value being greater than or equal to a predetermined value; Protruding detection method.
前記人物を含む画像を連続して取得する手順と、
前記取得された画像間の各画素の差分を算出する手順と、
前記画像の縦方向の画素列毎に、前記算出された差分の値が所定値以上の画素の中で最も画像上端に近い画素を求め、前記画素列毎に求めた該画素をむすんで横方向の曲線を描き、該曲線が画像下端に達する点と該曲線が下向きのピークとなる点とで前記画像の領域を縦に複数の分割領域に分割する手順と、
前記複数の分割領域の中で、前記差分の値が所定値以上の画素の数が最も多い分割領域を、前記人物の存在する人物領域として選択する手順と、
前記人物領域内で前記画像の画像端付近に、前記差分の値が所定値以上である画素が所定の閾値より多く存在すれば、前記人物が前記画像からはみ出していると判断する手順と、をコンピュータに実行させるためのはみ出し検知プログラム。A protrusion detection program for detecting protrusion of a person from the captured image, which is executed by a computer that processes the captured image,
A procedure for continuously acquiring images including the person;
Calculating a difference of each pixel between the acquired images;
For each pixel column in the vertical direction of the image, a pixel closest to the upper end of the image among the pixels having the calculated difference value equal to or larger than a predetermined value is obtained, and the pixel obtained for each pixel column is divided in the horizontal direction. A step of dividing the region of the image vertically into a plurality of divided regions at a point where the curve reaches the lower end of the image and a point where the curve reaches a downward peak;
A procedure for selecting a divided area having the largest number of pixels having a difference value equal to or greater than a predetermined value as the person area where the person exists, among the plurality of divided areas;
A procedure for determining that the person protrudes from the image if there are more pixels than the predetermined threshold value near the image edge of the image within the person region. A protrusion detection program to be executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002132715A JP3894038B2 (en) | 2002-05-08 | 2002-05-08 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002132715A JP3894038B2 (en) | 2002-05-08 | 2002-05-08 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006212110A Division JP2006309799A (en) | 2006-08-03 | 2006-08-03 | Image processing device, protrusion detection method for it, and program |
JP2006288659A Division JP4530175B2 (en) | 2006-10-24 | 2006-10-24 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003323621A JP2003323621A (en) | 2003-11-14 |
JP3894038B2 true JP3894038B2 (en) | 2007-03-14 |
Family
ID=29544606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002132715A Expired - Fee Related JP3894038B2 (en) | 2002-05-08 | 2002-05-08 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3894038B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4172507B2 (en) | 2006-07-13 | 2008-10-29 | ソニー株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM |
JP4201809B2 (en) | 2006-11-13 | 2008-12-24 | 三洋電機株式会社 | Camera shake correction apparatus and method, and imaging apparatus |
JP5866337B2 (en) | 2011-03-15 | 2016-02-17 | 富士通フロンテック株式会社 | Imaging apparatus, imaging method, and imaging program |
CN113805571B (en) * | 2020-05-29 | 2024-03-12 | 苏州科瓴精密机械科技有限公司 | Robot walking control method, system, robot and readable storage medium |
-
2002
- 2002-05-08 JP JP2002132715A patent/JP3894038B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003323621A (en) | 2003-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101142316B1 (en) | Image selection device and method for selecting image | |
JP6509027B2 (en) | Object tracking device, optical apparatus, imaging device, control method of object tracking device, program | |
EP1710747A1 (en) | Method for extracting person candidate area in image, person candidate area extraction system, person candidate area extraction program, method for judging top and bottom of person image, system for judging top and bottom, and program for judging top and bottom | |
US9258481B2 (en) | Object area tracking apparatus, control method, and program of the same | |
JP5484184B2 (en) | Image processing apparatus, image processing method, and program | |
US11132538B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP2005228042A (en) | Face identification device, face identification method, and face identification program | |
JP5693094B2 (en) | Image processing apparatus, image processing method, and computer program | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
JP7268725B2 (en) | Image processing device, image processing method, and image processing program | |
JP2017117244A (en) | Image analysis device for detecting a person displayed in photographic image of camera | |
US11315360B2 (en) | Live facial recognition system and method | |
JP4667508B2 (en) | Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program | |
JP2008035301A (en) | Mobile body tracing apparatus | |
JP5395650B2 (en) | Subject area extraction device and control method thereof, subject tracking device, and program | |
JP3894038B2 (en) | Image processing apparatus, protrusion detection method and program for image processing apparatus | |
US7835552B2 (en) | Image capturing apparatus and face area extraction method | |
JP2011071925A (en) | Mobile tracking apparatus and method | |
JP4530175B2 (en) | Image processing apparatus, protrusion detection method and program for image processing apparatus | |
CN116456187A (en) | Method, device, equipment and storage medium for calculating focus value | |
JP3625442B2 (en) | Object detection method, object detection apparatus, and object detection program | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP2006309799A (en) | Image processing device, protrusion detection method for it, and program | |
US20210203838A1 (en) | Image processing apparatus and method, and image capturing apparatus | |
JP5777389B2 (en) | Image processing apparatus, image processing system, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20041216 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20041216 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060606 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060830 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061204 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091222 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101222 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101222 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111222 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111222 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121222 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121222 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131222 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |