JP2007104696A - Image processing device and protruded image detection method and program thereof - Google Patents
Image processing device and protruded image detection method and program thereof Download PDFInfo
- Publication number
- JP2007104696A JP2007104696A JP2006288659A JP2006288659A JP2007104696A JP 2007104696 A JP2007104696 A JP 2007104696A JP 2006288659 A JP2006288659 A JP 2006288659A JP 2006288659 A JP2006288659 A JP 2006288659A JP 2007104696 A JP2007104696 A JP 2007104696A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- imaging unit
- imaging
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、人物の動画像を撮影する画像処理装置に関し、特に、撮影された画像から人物がはみ出していることを検知する画像処理装置に関する。 The present invention relates to an image processing apparatus that captures a moving image of a person, and more particularly, to an image processing apparatus that detects that a person protrudes from a captured image.
動画像を記録として残すために、ビデオカメラのような画像撮影装置で動画像を撮影することがある。動画像を記録として残すための画像撮影装置で撮影される画像には人物や人物の顔が含まれることが多い。そして、人物やその顔は、画像撮影装置で撮影される画像から、はみ出さないことが望ましい。しかし、動画像を撮影するとき、撮影される人物は静止しているとは限らず、通常は絶えず動いている。したがって、人物や顔が視野からはみ出すことが考えられる。そのため、ビデオカメラの撮影方向や撮影範囲は人物の動きに合わせて修正されることが望ましい。 In order to leave a moving image as a record, a moving image may be captured by an image capturing device such as a video camera. An image captured by an image capturing device for leaving a moving image as a record often includes a person or a person's face. It is desirable that the person and his / her face do not protrude from the image captured by the image capturing device. However, when shooting a moving image, the person to be shot is not always stationary, and usually moves constantly. Therefore, it is conceivable that a person or face protrudes from the field of view. Therefore, it is desirable that the shooting direction and shooting range of the video camera be corrected according to the movement of the person.
従来、画像撮影装置により動画像を撮影するとき、視野から人物がはみ出さないように、または、はみ出した人物を再び視野内に入れるように、画像撮影装置を操作している操作者が、撮影対象である人物の動きに合わせてパンやチルトを行い、撮影方向を調整していた。特許文献1に記載された従来のビデオカメラは、パンまたはチルトをするための駆動装置をグリップ内に有している。そのため、従来のビデオカメラの操作者は、電動雲台装置を用いなくとも、パンまたはチルトを容易に行うことができた。
近年では、ビデオカメラで撮影された動画像から人物やその顔を認識する画像認識装置が、セキュリティ確保のための人物認証や、防犯カメラで撮影された犯人像を用いた犯人捜査などに応用されている。 In recent years, image recognition devices that recognize people and their faces from moving images taken with a video camera have been applied to human authentication for security and criminal investigations using criminal images taken with a security camera. ing.
画像認識装置には、ビデオカメラで撮影された人物の画像と、予め記録しておいた人物の画像とを比較することにより、人物を認識するものがある。例えば、特開2000−331167号公報に記載された従来の顔画像照合装置は、2つの顔画像を照合して顔画像に現れている2つの顔の一致度を評価する。従来の顔画像照合装置は、まず、顔画像に現れている顔の大きさおよび各顔画像内における顔の位置を一致させるために、顔画像を正規化する。次に、顔画像照合装置は、所定のマスクデータに基づいて2つの顔画像の所定領域をマスクすることにより顔領域を抽出する。次に、顔画像照合装置は、各顔画像を必要に応じてモノクロ画像に変換する。さらに、顔画像照合装置は、各顔画像の階調を落とした後に照合する。このようにして、従来の画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識する。 Some image recognition apparatuses recognize a person by comparing an image of a person photographed by a video camera with an image of a person recorded in advance. For example, a conventional face image matching device described in Japanese Patent Application Laid-Open No. 2000-331167 compares two face images and evaluates the degree of coincidence between two faces appearing in the face image. A conventional face image matching device first normalizes a face image in order to match the size of the face appearing in the face image and the position of the face in each face image. Next, the face image matching device extracts a face area by masking a predetermined area of two face images based on predetermined mask data. Next, the face image collation device converts each face image into a monochrome image as necessary. Furthermore, the face image collation device collates after reducing the gradation of each face image. In this way, the conventional image recognition apparatus recognizes a person or a face from an image taken with a video camera.
しかし、ビデオカメラは、レンズ系の画像取得可能範囲と、光電変換装置から出力可能な画像の大きさとに制約を受けるので、ビデオカメラで撮影できる画像には有限の視野が存在する。画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識するので、人物や顔を正常に認識するためには、人物や顔が視野内にあることが条件となる。 However, since a video camera is restricted by the lens system image acquisition range and the size of an image that can be output from the photoelectric conversion device, there is a finite field of view in an image that can be captured by the video camera. Since the image recognition apparatus recognizes a person or face from an image taken by a video camera, the person or face must be in the field of view in order to recognize the person or face normally.
しかし、ビデオカメラで人物を含む動画像を撮影するとき、人物は必ずしも静止しているわけではない。したがって、画像認識装置の認識対象である人物は、常に、ビデオカメラの視野内にあるとは限らない。そのため、画像認識装置では、ビデオカメラの撮影方向や撮影範囲を人物の動きに合わせて修正することが望まれる。 However, when shooting a moving image including a person with a video camera, the person is not necessarily stationary. Therefore, the person who is the recognition target of the image recognition apparatus is not always in the field of view of the video camera. Therefore, it is desired that the image recognition apparatus corrects the shooting direction and shooting range of the video camera in accordance with the movement of the person.
撮影方向や撮影範囲を修正する方法としては、従来、ビデオカメラの操作者が、撮影対象である人物の動きを見て、それに合わせてパンやチルトを行うという方法しかなかった。 As a method for correcting the shooting direction and the shooting range, there has conventionally been a method in which an operator of a video camera observes the movement of a person to be shot and pans or tilts accordingly.
しかし、セキュリティ確保のための人物認証や防犯カメラに応用される画像認識装置は、操作者が常時操作しているものではなく、無人でも動作する必要がある。そのため、従来の画像認識装置は、人物を認識することができないとき、それが画像からのはみ出しによるか否か知ることができなかった。そのため、従来の画像認識装置は、画像から人物やその顔がはみ出しているとき、撮影方向や撮影範囲を自動的に修正することができず、また、人物が画像からはみ出したことを警告することもできなかった。 However, an image recognition apparatus applied to personal authentication and security camera for ensuring security is not always operated by an operator, and needs to operate even without an operator. Therefore, when the conventional image recognition apparatus cannot recognize a person, it cannot know whether or not it is due to the protrusion from the image. For this reason, conventional image recognition devices cannot automatically correct the shooting direction or shooting range when a person or their face protrudes from the image, and warn that a person protrudes from the image. I couldn't.
そのため、従来の画像認識装置は、人物やその顔が画像に入るであろう適当な範囲を固定的に撮影するように設置され、できるだけ人物が画像からはみ出さないようにする程度であった。 For this reason, the conventional image recognition apparatus is installed so as to fixedly shoot an appropriate range in which a person and his / her face will enter the image, so that the person does not protrude from the image as much as possible.
本発明の目的は、ビデオカメラで撮影された画像から人物がはみ出したことを検知できる画像処理装置、そのはみ出し検知方法およびプログラムを提供することである。 An object of the present invention is to provide an image processing apparatus capable of detecting that a person protrudes from an image photographed by a video camera, and a protrusion detection method and program thereof.
上記目的を達成するために、本発明の画像処理装置は、撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する撮像手段と、
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出する距離算出手段と、
前記距離算出手段で求められる距離の信頼性が所定値以上に高いか否か判定する信頼性判断手段と、
前記距離算出手段で得られた前記距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有している。
In order to achieve the above object, an image processing apparatus of the present invention is an image processing apparatus that detects protrusion of an image of an object to be photographed.
Imaging means for acquiring an image including the object;
When an image is acquired by the imaging unit, a distance calculation unit that calculates a distance from the imaging unit to an object that is reflected in the center of the image;
Reliability determination means for determining whether or not the reliability of the distance obtained by the distance calculation means is higher than a predetermined value;
Distance determination for determining that the object is protruding from the image when the distance obtained by the distance calculation means is less than or equal to a predetermined threshold value and the reliability determination means determines that the reliability is high. Means.
したがって、撮像手段で撮影された画像から、距離算出手段が、対象物である可能性の高い、その画像の中央に撮影された物体までの距離を算出し、信頼性判断手段が、算出された距離の信頼性を求め、その結果、信頼性が高く、かつ、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断する。 Therefore, the distance calculation means calculates the distance to the object photographed at the center of the image, which is highly likely to be an object, from the image captured by the imaging means, and the reliability determination means is calculated. The reliability of the distance is obtained, and as a result, when the reliability is high and the distance is too close, the determination unit determines that the object is protruding from the image.
なお、前記所定値および前記閾値が、変更可能に設定されるパラメータであってもよい。 The predetermined value and the threshold value may be parameters that can be changed.
本発明の他の画像処理装置は、撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出する画像中央部相関算出手段と、
前記画像中央部相関算出手段で得られた前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断する信頼性判断手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出する距離算出手段と、
前記距離算出手段で得られた距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有している。
Another image processing apparatus of the present invention is an image processing apparatus that detects a protrusion from an image of an object to be photographed,
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
An image center part correlation calculating means for calculating a correlation value at an image center part of images simultaneously obtained by the first image pickup means and the second image pickup means;
Reliability determination means for determining that the reliability is high if the change in the correlation value obtained by the image center correlation calculation means is greater than a predetermined change rate;
From the positional relationship between the first imaging means and the second imaging means and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, Distance calculating means for calculating the distance of;
Distance determining means for determining that the object is protruding from the image when the distance obtained by the distance calculating means is less than or equal to a predetermined threshold value and the reliability determining means determines that the reliability is high. And have.
したがって、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断する。 Therefore, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. The distance to the object is calculated from the amount of deviation between the two images, and as a result, when the distance is too close, the determination means determines that the object protrudes from the image.
なお、前記変化率および前記閾値が、変更可能に設定されるパラメータであってもよい。 The change rate and the threshold may be parameters that can be changed.
本発明の更に他の画像処理装置は、撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出する小領域相関算出手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出する距離算出手段と、
前記距離算出手段により算出された、前記各小領域における距離のうち最小のものを選択する最小距離選択手段と、
前記最小距離選択手段で得られた最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有している。
Still another image processing apparatus according to the present invention is an image processing apparatus that detects a protrusion from an image of an object to be photographed.
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
A small area correlation calculating means for calculating a correlation value in each of a plurality of small areas in an image central portion of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of the two images obtained by shifting the two images is maximized to the object reflected in each of the small areas Distance calculating means for calculating the distances of
Minimum distance selection means for selecting the smallest of the distances in each of the small regions calculated by the distance calculation means;
Distance determining means for determining that the object protrudes from the image if the minimum distance obtained by the minimum distance selecting means is less than or equal to a predetermined threshold value;
したがって、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、画像中央部の各小領域にある物体で、距離が最小のものを対象物として、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断する。 Therefore, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. Based on the amount of deviation between the two images, the distance to the object is calculated by using the object in each small area at the center of the image with the smallest distance as the object. However, it is determined that the object protrudes from the image.
なお、前記閾値が、変更可能に設定されるパラメータであってもよい。 Note that the threshold may be a parameter that can be changed.
本発明によれば、対象物が近すぎるために画像からはみ出したことを自動的に検知することができる。 According to the present invention, since an object is too close, it can be automatically detected that the object protrudes from the image.
本発明の実施形態について図面を参照して詳細に説明する。
(第1の実施形態)
本発明の第1の実施形態は、画像の上下左右の部分の画像の変化から、人物が画像からはみ出したことを検出する画像処理装置である。
Embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
The first embodiment of the present invention is an image processing device that detects that a person protrudes from an image based on changes in the image of the upper, lower, left, and right portions of the image.
図1は、第1の実施形態の画像処理装置の構成を示すブロック図である。図1を参照すると、画像処理装置10は、撮像部11、フレーム間差分算出部12、二値化部13、画像上部画素数部14、画像右部画素数カウント部15、画像左部画素数カウント部16、画像下部画素数カウント部17および判断部18を有している。
FIG. 1 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment. Referring to FIG. 1, the
撮像部11は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。 The imaging unit 11 is, for example, a video camera, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel. In the present embodiment, it is assumed that the captured image is a monochrome image as an example. Therefore, the data for each pixel is indicated by a numerical value representing luminance.
フレーム間差分算出部12は、撮像部11でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。
The inter-frame
二値化部13は、フレーム間差分算出部12で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。
The
第1の実施形態では、撮像部11で撮影される画像の上下左右の各辺付近の部分が上部領域、下部領域、左部領域、右部領域とされている。図2は画像90の中の上部領域91を示し、図3は左部領域92を示し、図4は右部領域93を示し、図5は下部領域94を示している。
In the first embodiment, the portions near the upper, lower, left, and right sides of the image captured by the imaging unit 11 are defined as an upper region, a lower region, a left region, and a right region. 2 shows an
画像上部画素数カウント部14は、上部領域91内の画素のうち、二値化部13で差分閾値以上とされた画素の数、すなわち“1”に二値化された画素の数をカウントする。
The image upper pixel number counting unit 14 counts the number of pixels in the
画像右部画素数カウント部15は、右部領域93内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
The image right pixel
画像左部画素数カウント部16は、左部領域92内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
The image left pixel
画像下部画素数カウント部17は、下部領域94内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。
The image lower pixel
判断部18は、画像上部画素数カウント部14のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部18は、画像右部画素数カウント部15のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部18は、画像左部画素数カウント部16のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部18は、画像下部画素数カウント部17のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。
If the count value of the upper image pixel count unit 14 is larger than a predetermined upper count threshold value, the
図6は、本実施形態の画像処理装置の動作を示すフローチャートである。図6を参照すると、まず、撮像部11が画像を撮影し、フレーム間差分算出部12に送る(ステップA1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。 FIG. 6 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 6, first, the imaging unit 11 captures an image and sends the image to the inter-frame difference calculation unit 12 (step A1). Here, it is assumed that an image captured t-th after the video camera of the imaging unit 11 is activated is im (t).
次に、フレーム間差分算出部12は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップA2)。
Next, the inter-frame
次に、フレーム間差分画像算出部13は、画像im(t)を過去の画像としてメモリに保存する(ステップA3)。それとともに、フレーム間差分画像算出部13は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。
Next, the inter-frame difference
次に、二値化部14は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップA4)。このとき、二値化部14は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部14は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。 Next, the binarizing unit 14 compares the value of each pixel (the above-described difference) of the difference image diff (t) with the difference threshold value, binarizes the difference image diff (t), and binarizes the binarized image bin. Conversion into (t) (step A4). At this time, the binarization unit 14 sets the pixel value to “1” when the value of each pixel is equal to or greater than the difference threshold. Also, the binarization unit 14 sets the pixel value to “0” when the value of each pixel is smaller than the difference threshold.
次に、画像上部画素数カウント部14は、二値化画像bin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップA5)。ここでは、そのカウント値をa(t)とする。
Next, the image upper pixel number counting unit 14 counts the number of pixels having a pixel value “1” in the
次に、画像右部画素数カウント部15は、二値化画像bin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップA6)。ここでは、そのカウント値をb(t)とする。
Next, the image right pixel
次に、画像左部画素数カウント部16は、二値化画像bin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップA7)。ここでは、そのカウント値をc(t)とする。
Next, the image left pixel
次に、画像下部画素数カウント部17は、二値化画像bin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップA8)。ここでは、そのカウント値をd(t)とする。
Next, the image lower pixel
次に、判定部18は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップA9)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部18は、人物が画像の上にはみ出していることを検知する(ステップA10)。
Next, the
次に、判定部18は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップA11)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部18は、人物が画像の右にはみ出していることを検知する(ステップA12)。
Next, the
次に、判定部18は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップA13)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部18は、人物が画像の左にはみ出していることを検知する(ステップA14)。
Next, the
次に、判定部18は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップA15)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部18は、人物が画像の下にはみ出していることを検知する(ステップA16)。
Next, the
以上の動作を終了すると、画像処理装置10は、“t”を1つインクリメントし(ステップA17)、ステップA1に戻る。
When the above operation is completed, the
以上説明したように、本実施形態の画像処理装置10は、最新の画像と過去の画像との差分をフレーム間差分算出部12によって算出し、二値化部13によって差分を二値化して所定以上に変化したか否か求め、画像上部、右部、左部または下部画素数カウント部14、15、16、17によって、所定以上に変化した画素の数を上下左右の領域毎にカウントし、判断部18によって、各領域のカウント値を閾値と比較してカウント値が閾値を超えた領域において画像から人物がはみ出したと判断するので、画像変化が大きいためにカウント値が閾値を超えた領域を検出することにより、画像からの人物のはみ出しを自動的に検知することができる。
As described above, the
なお、本実施形態では、撮像部11がモノクロ画像を撮影する場合を例示したが、本発明はこれに限定されるものではなく、カラー画像であってもよい。撮像部11で撮影されるのがカラー画像である場合、例えば、フレーム間差分算出部12は、各画素値をRGBの3色を要素とするベクトルで表わし、過去の画像の画素とベクトルの差分を求める。そして、二値化部13は、フレーム間差分算出部12で求められた差分ベクトルの大きさを差分閾値と比較することにより、二値化画像を生成してもよい。
In the present embodiment, the case where the imaging unit 11 captures a monochrome image has been illustrated, but the present invention is not limited to this and may be a color image. When a color image is captured by the imaging unit 11, for example, the inter-frame
また、本実施形態では、画像からのはみ出しを検知する対象物が人物である場合を例示したが、本発明はこれに限定されるものではない。連続的に撮影したとき、移動しうる物体であれば、どのようなものであってもよい。 Further, in the present embodiment, the case where the object for detecting the protrusion from the image is a person is exemplified, but the present invention is not limited to this. Any object can be used as long as it can move when continuously photographed.
また、本実施形態で用いられた、過去の画像の数、各閾値、上下左右部の各領域の大きさなどのパラメータを調整することにより、画像処理装置がはみ出しを検知する精度を向上させることができる。
(第2の実施形態)
図7は、本発明の第2の実施形態の画像処理装置の構成を示すブロック図である。図7を参照すると、画像処理装置20は、撮像部21、フレーム間差分算出部22、二値化部23、領域分割部24、領域選択部25、画像上部画素数カウント部26、画像右部画素数カウント部27、画像左部画素数カウント部28、画像下部画素数カウント部29および判断部210を有している。
In addition, by adjusting parameters such as the number of past images, each threshold, and the size of each of the upper, lower, left, and right areas used in the present embodiment, the accuracy with which the image processing apparatus detects the protrusion is improved. Can do.
(Second Embodiment)
FIG. 7 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. Referring to FIG. 7, the
撮像部21は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。
The
フレーム間差分算出部22は、撮像部21でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。
The inter-frame
二値化部23は、フレーム間差分算出部22で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。
The
領域分割部24は、画像を複数の分割領域に分割する。画像を複数の分割領域に分割する方法については後述する。
The
領域選択部25は、領域分割部24で分割された複数の分割領域の中から、最も人物らしい分割領域を選択し、さらに、選択された分割領域に応じて二値化画像を変換する。最も人物らしい分割領域を選択する方法と、二値化画像を変換する方法については後述する。
The
第2の実施形態では、第1の実施形態と同様、図2〜図5に示された上部、右部、左部、下部領域93、94、95、96が定められている。
In the second embodiment, the upper, right, left, and
画像上部画素数カウント部26は、領域選択部25で変換された二値化画像において、上部領域91内で画素値が“1”である画素の数をカウントする。
The image upper pixel
画像右部画素数カウント部27は、領域選択部25で変換された二値化画像において、右部領域93内で画素値が“1”である画素の数をカウントする。
The image right pixel
画像左部画素数カウント部28は、領域選択部25で変換された二値化画像において、左部領域92内で画素値が“1”である画素の数をカウントする。
The image left pixel
画像下部画素数カウント部29は、領域選択部25で変換された二値化画像において、下部領域94内で画素値が“1”である画素の数をカウントする。
The image lower pixel
判断部210は、画像上部画素数カウント部26のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部210は、画像右部画素数カウント部27のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部210は、画像左部画素数カウント部28のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部210は、画像下部画素数カウント部29のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。
If the count value of the image upper pixel
図8は、本実施形態の画像処理装置の動作を示すフローチャートである。図8を参照すると、まず、撮像部21が画像を撮影し、フレーム間差分算出部22に送る(ステップB1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。
FIG. 8 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 8, first, the
次に、フレーム間差分算出部22は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップB2)。
Next, the inter-frame
次に、フレーム間差分画像算出部22は、画像im(t)を過去の画像としてメモリに保存する(ステップB3)。それとともに、フレーム間差分画像算出部22は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。
Next, the inter-frame difference
次に、二値化部23は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップB4)。このとき、二値化部23は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部23は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。
Next, the
次に、領域分割部24は、二値化部23で得られた二値化画像bin(t)を複数の分割領域に分割する(ステップB5)。
Next, the
領域分割部24による領域分割の方法の一例について説明する。図9は、領域分割の方法について説明するための図である。図9に示すように、二値化画像bin(t)の横方向をX軸(右向きが正)とし、縦方向をY軸(下向きが正)とし、画像の左上の画素から右にx番目で、下にy番目の画素の画素値をv(x,y)とする。
An example of a region dividing method by the
図9(a)のような二値化画像bin(t)が得られると、図9(b)に示すように、画像を構成する全てのxについて、v(x,y)が1となる最小のyの値を求める。次に、得られたyの値が、xの変化に対して極大となる点(極大点)と、画像下辺に到達する点(下辺接点)とを求め、極大点および下辺接点を通る垂直な線で画像を複数の分割領域に分割する。 When a binarized image bin (t) as shown in FIG. 9A is obtained, as shown in FIG. 9B, v (x, y) becomes 1 for all x constituting the image. Find the minimum y value. Next, a point at which the obtained y value becomes maximum with respect to the change of x (maximum point) and a point reaching the lower side of the image (lower side contact point) are obtained, and a perpendicular passing through the maximum point and the lower side contact point is obtained. The image is divided into a plurality of divided areas by lines.
また、他の領域分割の方法の例として、同じ画素値(“1”または“0”)を有し、互いに連結している画素をグループ化して1つの分割領域とする方法が考えられる。つまり、画素値“1”の画素が連結している部分(画素値“1”のひとかたまり)が1つの分割領域とされ、同様に、画素値“0”の画素がつながっている部分(画素値“0”のひとかたまり)が1つの分割領域とされる。 As another example of the region dividing method, a method in which pixels having the same pixel value (“1” or “0”) and connected to each other are grouped into one divided region can be considered. That is, a portion where pixels having a pixel value “1” are connected (a group of pixel values “1”) is defined as one divided region, and similarly, a portion where pixels having a pixel value “0” are connected (pixel value). A group of “0”) is defined as one divided area.
次に、領域選択部25は、領域分割部24で得られた各分割領域から最も人物らしい分割領域を選択する。そして、領域選択部25は、その分割領域内ではbin(t)と同じ値であり、それ以外の分割領域では“0”となるように変換された二値化画像sbin(t)を作成する(ステップB6)。
Next, the
領域選択部25による、最も人物らしい分割領域を選択する方法の一例として、領域分割部24で得られた分割領域の中で、画素値が“1”となる画素の数が最も多い分割領域を選択するという方法が考えられる。
As an example of a method for selecting a region most likely to be a person by the
次に、画像上部画素数カウント部26は、変換された二値化画像sbin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップB7)。ここでは、そのカウント値をa(t)とする。
Next, the image upper pixel
次に、画像右部画素数カウント部27は、変換された二値化画像sbin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップB8)。ここでは、そのカウント値をb(t)とする。
Next, the image right pixel
次に、画像左部画素数カウント部28は、変換された二値化画像sbin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップB9)。ここでは、そのカウント値をc(t)とする。
Next, the image left pixel
次に、画像下部画素数カウント部29は、変換された二値化画像sbin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップB10)。ここでは、そのカウント値をd(t)とする。
Next, the image lower pixel
次に、判定部210は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップB11)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部210は、人物が画像の上にはみ出していることを検知する(ステップB12)。
Next, the
次に、判定部210は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップB13)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部210は、人物が画像の右にはみ出していることを検知する(ステップB14)。
Next, the
次に、判定部210は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップB15)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部210は、人物が画像の左にはみ出していることを検知する(ステップB16)。
Next, the
次に、判定部210は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップB17)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部210は、人物が画像の下にはみ出していることを検知する(ステップB18)。
Next, the
以上の動作を終了すると、画像処理装置20は、“t”を1つインクリメントし(ステップB19)、ステップB1に戻る。
(第3の実施形態)
第3の実施形態は、人物がビデオカメラに近すぎて画像からはみ出していることを検出する画像処理装置である。
When the above operation is completed, the
(Third embodiment)
The third embodiment is an image processing apparatus that detects that a person is too close to a video camera and protrudes from an image.
図10は、第3の実施形態の画像処理装置の構成を示すブロック図である。図10を参照すると、画像処理装置30は、第1の撮像部31、第2の撮像部32、画像中央部相関算出部33、信頼性判断部34、距離算出部35および距離判断部36を有している。
FIG. 10 is a block diagram illustrating a configuration of the image processing apparatus according to the third embodiment. Referring to FIG. 10, the
第1の撮像部31は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。
The
第2の撮像部32は、第1の撮像部31と同様に、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部32の画像を撮影する視野は、第1の撮像部31の視野と重複する部分を有し、かつ、第1の撮像部31の視野との相対的な位置関係が固定されている。
Similar to the
画像中央部相関算出部33は、第1の撮像部31と第2の撮像部32からほぼ同時に得られる画像の画像中央部95(図12参照)での相関値を計算する。
The image center
信頼性判断部34は、画像中央部相関計算部33で得られた相関値の座標位置に対する変化がなだらかであれば、信頼性が低いと判断し、変化が急であれば、信頼性が高いと判断する。
The
距離算出部35は、第1の撮像部31と第2の撮像部32の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、画像中央部95に映っている物体との距離を算出する。
The
距離判断部36は、距離算出部35で得られた距離が所定の閾値以下であり、かつ信頼性判断部34で信頼性が高いと判断されていれば、距離が近すぎて画像から人物がはみ出していると判断する。
If the distance obtained by the
図11は、本実施形態の画像処理装置の動作を示すフローチャートである。図11を参照すると、まず、第1および第2の撮像部31、32がそれぞれ画像を撮像し、画像中央部相関算出部33に送る(ステップC1)。第1の撮像部31と第2の撮像部32とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。
FIG. 11 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 11, first, the first and
次に、画像中央部相関算出部33は、画像im1(t)と画像im2(t)の画像中央部95での相関値corr(x)を算出する(ステップC2)。
Next, the image center part
相関値の算出法の一例を説明する。 An example of a correlation value calculation method will be described.
ここで、画像im1(t)の横方向をX軸(右向きが正)縦方向をY軸(下向きが正)とし、画像のもっとも左上の画素から右にx番目で、下にy番目の画素値をv1(x,y)とする。画像im2(t)についても同様にv2(x,y)を定義する。また、画像中央部95は図12に示されたように設定されているとする。
Here, the horizontal direction of the image im1 (t) is the X axis (rightward is positive), the vertical direction is the Y axis (downward is positive), and the xth pixel to the right and the yth pixel to the right from the upper left pixel of the image. Let the value be v1 (x, y). Similarly, v2 (x, y) is defined for the image im2 (t). Further, it is assumed that the
そして、画像中央部95の座標値の集合をCとすると、相関値は corr(x)=Σ_{(t,s)¥in C}|v1(t−x,s)−v2(t,s)|などと計算できる。
If the set of coordinate values of the image
次に、信頼性判断部34は、相関値corr(x)の変化がなだらかであるか否か判定する(ステップC3)。
Next, the
相関値corr(x)がなだらかであるか否かの判定方法の一例について説明する。相関値corr(x)が最大となるxをx1とする。このとき、画像中央部95の全域において、corr(x1)−corr(x1−g)<thc1かつcorr(x1)−corr(x1+g)<thc2ならばcorr(x)がなだらかであると判断し、そうでなければなだらかでないと判断する。
An example of a method for determining whether or not the correlation value corr (x) is gentle will be described. Let x1 be the x that maximizes the correlation value corr (x). At this time, if corr (x1) −corr (x1−g) <thc1 and corr (x1) −corr (x1 + g) <thc2 in the entire area of the image
相関値corr(t)の変化がなだらかでなければ、距離算出部35が、第1の撮像部31と第2の撮像部32の位置関係と、相関値corr(x)が最大となるxの値とから距離d(t)を求める(ステップC4)。距離の算出方法は従来からよく知られた方法によればよい。例えば、文献「3次元ビジョン」(徐、辻著、共立出版(1998))などに記載された方法を用いることで実現できる。
If the change in the correlation value corr (t) is not gentle, the
次に、距離判定部36は、距離d(t)が所定の閾値thより大きいか否か判定する(ステップC5)。閾値thは、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離d(t)が閾値th以下であれば、距離判定部36は、人物が画像からはみ出していると検知する(ステップC6)。
Next, the
ステップC6の後、ステップC5において距離d(t)が閾値thより大きかったとき、または、ステップC3において変化がなだらかであったとき、画像処理装置30は、“t”を1つインクリメントし(ステップC7)、ステップC1に戻る。
After Step C6, when the distance d (t) is larger than the threshold th in Step C5 or when the change is gentle in Step C3, the
以上説明したように、本実施形態の画像処理装置30は、第1および第2の撮像部31、32によって、互いにずれた2つの画像を同時に撮影し、画像中央部相関算出部33によって、2つの画像の画像中央部95での相関値を算出し、信頼性判断部34によって、相関値から信頼性が高いか低いか判定し、信頼性が高い場合に、距離算出部35によって、ビデオカメラと人物との距離を算出し、距離判定部36によって、距離が近ければ画像から人物がはみ出していると判断されるので、距離が近すぎることによる、画像からの人物のはみ出しを自動的に検知することができる。
As described above, the
なお、本実施形態では、画像からのはみ出しを検知する対象が人物である場合を例示したが、本発明はこれに限定されるものではない。ある程度の大きさが想定できるものであれば、どのようなものであってもよい。
(第4の実施形態)
図13は、本発明の第4の実施形態の画像処理装置の構成を示すブロック図である。図13を参照すると、画像処理装置40は、第1の撮像部41、第2の撮像部42、小領域相関算出部43、距離算出部44、最小距離選択部45および距離判断部46を有している。
In the present embodiment, the case where the target for detecting the protrusion from the image is a person, but the present invention is not limited to this. Any thing can be used as long as a certain size can be assumed.
(Fourth embodiment)
FIG. 13 is a block diagram showing a configuration of an image processing apparatus according to the fourth embodiment of the present invention. Referring to FIG. 13, the
第1の撮像部41は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。
The
第2の撮像部42は、第1の撮像部41と同様、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野と重複する部分を有し、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野との相対的な位置関係が固定されている。
Similar to the
小領域相関部43は、第1の撮像部41と第2の撮像部42からほぼ同時に得られる画像の画像中央部96の複数の小領域96a、96b、96c、96dでのそれぞれの相関値を計算する(図15参照)。
The small
距離算出部44は、各小領域96a、96b、96c、96dについて、第1の撮像部41と第2の撮像部42の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、各小領域に映っている物体との距離を算出する。
For each of the
最小距離選択部45は、距離算出部44で算出された各小領域の距離のうち、最小のものを選択する。
The minimum
距離判断部46は、最小距離選択部45で選択された小領域の距離が所定の閾値以下であれば、距離が近すぎて画像から人物がはみだしていると判断する。
If the distance of the small area selected by the minimum
図14は、本実施形態の画像処理装置の動作を示すフローチャートである。図14を参照すると、まず、第1および第2の撮像部41、42がそれぞれ画像を撮像し、小領域相関算出部43に送る(ステップD1)。第1の撮像部41と第2の撮像部42とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。
FIG. 14 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 14, first, the first and
次に、小領域相関算出部43は、画像im1(t)と画像im2(t)の各小領域96a、96b、96c、96dでの相関値を算出し、距離算出部44は、各小領域96a、96b、96c、96dにおける、ビデオカメラと物体との距離を算出する(ステップD2)。このとき用いられる、相関値および距離の算出方法は第3の実施形態と同様の方法である。
Next, the small area
次に、距離判定部46は、各小領域における距離のうち、最も短いものが所定の閾値th以下であるか否か判定する(ステップD3)。閾値thは、第3の実施形態と同様に、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離が閾値th以下であれば、距離判定部46は、人物が画像からはみ出していると検知する(ステップD4)。
Next, the
ステップD4の後、または、ステップD3において距離が閾値th以下でなかったとき、画像処理装置40は、“t”を1つインクリメントし(ステップD5)、ステップD1に戻る。
After step D4 or when the distance is not less than or equal to the threshold th in step D3, the
10,20,30 画像処理装置
11,21 撮像部
12,22 フレーム間差分算出部
13,23 二値化部
14,26 画像上部画素数部
15,27 画像右部画素数カウント部
16,28 画像左部画素数カウント部
17,29 画像下部画素数カウント部
18,210 判断部
24 領域分割部
25 領域選択部
31,41 第1の撮像部
32,42 第2の撮像部
33 画像中央部相関算出部
34 信頼性判断部
35,44 距離算出部
36,46 距離判断部
43 小領域相関算出部
45 最小距離選択部
90 画像
91 上部領域
92 左部領域
93 右部領域
94 下部領域
95,96 画像中央部
96a,96b,96c,96d 小領域
A1〜A17,B1〜B19,C1〜C7 ステップ
10, 20, 30
Claims (18)
前記対象物を含む画像を取得する撮像手段と、
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出する距離算出手段と、
前記距離算出手段で求められる距離の信頼性が所定値以上に高いか否か判定する信頼性判断手段と、
前記距離算出手段で得られた前記距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有する画像処理装置。 An image processing apparatus for detecting an overhang from an image of a shooting object,
Imaging means for acquiring an image including the object;
When an image is acquired by the imaging unit, a distance calculation unit that calculates a distance from the imaging unit to an object that is reflected in the center of the image;
Reliability determination means for determining whether or not the reliability of the distance obtained by the distance calculation means is higher than a predetermined value;
Distance determination for determining that the object is protruding from the image when the distance obtained by the distance calculation means is less than or equal to a predetermined threshold value and the reliability determination means determines that the reliability is high. And an image processing apparatus.
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出する画像中央部相関算出手段と、
前記画像中央部相関算出手段で得られた前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断する信頼性判断手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出する距離算出手段と、
前記距離算出手段で得られた距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有する画像処理装置。 An image processing apparatus for detecting an overhang from an image of a shooting object,
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
An image center part correlation calculating means for calculating a correlation value at an image center part of images simultaneously obtained by the first image pickup means and the second image pickup means;
Reliability determination means for determining that the reliability is high if the change in the correlation value obtained by the image center correlation calculation means is greater than a predetermined change rate;
From the positional relationship between the first imaging means and the second imaging means and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, Distance calculating means for calculating the distance of;
Distance determining means for determining that the object is protruding from the image when the distance obtained by the distance calculating means is less than or equal to a predetermined threshold value and the reliability determining means determines that the reliability is high. An image processing apparatus.
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出する小領域相関算出手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出する距離算出手段と、
前記距離算出手段により算出された、前記各小領域における距離のうち最小のものを選択する最小距離選択手段と、
前記最小距離選択手段で得られた最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有する画像処理装置。 An image processing apparatus for detecting an overhang from an image of a shooting object,
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
A small area correlation calculating means for calculating a correlation value in each of a plurality of small areas in an image central portion of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of the two images obtained by shifting the two images is maximized to the object reflected in each of the small areas Distance calculating means for calculating the distances of
Minimum distance selection means for selecting the smallest of the distances in each of the small regions calculated by the distance calculation means;
An image processing apparatus comprising: a distance determining unit that determines that the object is protruding from the image if the minimum distance obtained by the minimum distance selecting unit is equal to or less than a predetermined threshold value.
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出するステップと、
前記距離の信頼性が所定値以上に高いか否か判定するステップと、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断するステップを有するはみ出し検知方法。 A protrusion detection method of an image processing apparatus for detecting protrusion of an object to be photographed from images continuously acquired by an imaging means,
When an image is acquired by the imaging unit, a step of calculating a distance from the imaging unit to an object reflected in an image center part of the image;
Determining whether the reliability of the distance is higher than a predetermined value;
A protrusion detection method comprising a step of determining that the object protrudes from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出するステップと、
前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断するステップと、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出するステップと、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断するステップとを有するはみ出し検知方法。 Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. An image processing method for detecting a protrusion from an image of a subject to be photographed using an image,
Calculating a correlation value at an image central portion of images simultaneously obtained by the first imaging means and the second imaging means;
Determining that the reliability is high if the change in the correlation value is greater than a predetermined rate of change;
From the positional relationship between the first imaging means and the second imaging means, and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, the object reflected in the center of the image and Calculating the distance of
And a step of determining that the object is protruding from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出するステップと、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出するステップと、
前記各小領域における距離のうち最小のものを選択するステップと、
選択された最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断するステップとを有するはみ出し検知方法。 Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. An image processing method for detecting a protrusion of an object to be imaged from an image using an image,
Calculating respective correlation values in a plurality of small regions at the center of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of the two images obtained by shifting the two images is maximized to the object reflected in each of the small areas Calculating each of the distances,
Selecting the smallest of the distances in each of the subregions;
And a step of determining that the object is protruding from the image if the selected minimum distance is equal to or smaller than a predetermined threshold.
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出する処理と、
前記距離の信頼性が所定値以上に高いか否か判定する処理と、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する処理を有するはみ出し検知プログラム。 A projecting detection program for causing a computer to detect projecting of an object to be photographed from images continuously acquired by an imaging means,
When an image is acquired by the imaging unit, a process of calculating a distance from the imaging unit to an object reflected in the center of the image of the image;
A process of determining whether or not the reliability of the distance is higher than a predetermined value;
An overflow detection program comprising a process of determining that the object is protruding from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出する処理と、
前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断する処理と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出する処理と、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する処理とを有するはみ出し検知プログラム。 Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. A protrusion detection program for causing a computer to detect protrusion from an image of an object to be photographed using an image,
Processing for calculating a correlation value at an image central portion of images simultaneously obtained by the first imaging means and the second imaging means;
If the change in the correlation value is greater than a predetermined rate of change, a process for determining that the reliability is high;
From the positional relationship between the first imaging means and the second imaging means and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, Processing to calculate the distance of
A protrusion detection program comprising: a process for determining that the object protrudes from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出する処理と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出する処理と、
前記各小領域における距離のうち最小のものを選択する処理と、
選択された最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断する処理とを有するはみ出し検知プログラム。 Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. A protrusion detection program for causing a computer to detect protrusion from an image of an object to be photographed using an image,
Processing for calculating respective correlation values in a plurality of small regions in the image central portion of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of the two images obtained by shifting the two images is maximized to the object reflected in each of the small areas A process for calculating the distances of
A process of selecting the smallest of the distances in each of the small areas;
A protrusion detection program including a process of determining that the object protrudes from the image if the selected minimum distance is equal to or less than a predetermined threshold.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006288659A JP4530175B2 (en) | 2006-10-24 | 2006-10-24 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006288659A JP4530175B2 (en) | 2006-10-24 | 2006-10-24 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002132715A Division JP3894038B2 (en) | 2002-05-08 | 2002-05-08 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007104696A true JP2007104696A (en) | 2007-04-19 |
JP4530175B2 JP4530175B2 (en) | 2010-08-25 |
Family
ID=38031093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006288659A Expired - Fee Related JP4530175B2 (en) | 2006-10-24 | 2006-10-24 | Image processing apparatus, protrusion detection method and program for image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4530175B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015156045A1 (en) * | 2014-04-07 | 2015-10-15 | ソニー株式会社 | Image processing device, image-capturing device, and image-capturing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0315808A (en) * | 1989-06-13 | 1991-01-24 | Minolta Camera Co Ltd | Camera |
JPH05268513A (en) * | 1992-01-22 | 1993-10-15 | Konica Corp | Video camera for photographing of person's face |
JP2000149017A (en) * | 1998-11-17 | 2000-05-30 | Sony Corp | Image processing device, method and supply medium thereof |
JP2000156849A (en) * | 1998-06-29 | 2000-06-06 | Toshiba Corp | Portable information terminal equipment |
JP2006309799A (en) * | 2006-08-03 | 2006-11-09 | Nec Corp | Image processing device, protrusion detection method for it, and program |
-
2006
- 2006-10-24 JP JP2006288659A patent/JP4530175B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0315808A (en) * | 1989-06-13 | 1991-01-24 | Minolta Camera Co Ltd | Camera |
JPH05268513A (en) * | 1992-01-22 | 1993-10-15 | Konica Corp | Video camera for photographing of person's face |
JP2000156849A (en) * | 1998-06-29 | 2000-06-06 | Toshiba Corp | Portable information terminal equipment |
JP2000149017A (en) * | 1998-11-17 | 2000-05-30 | Sony Corp | Image processing device, method and supply medium thereof |
JP2006309799A (en) * | 2006-08-03 | 2006-11-09 | Nec Corp | Image processing device, protrusion detection method for it, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015156045A1 (en) * | 2014-04-07 | 2015-10-15 | ソニー株式会社 | Image processing device, image-capturing device, and image-capturing method |
Also Published As
Publication number | Publication date |
---|---|
JP4530175B2 (en) | 2010-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6509027B2 (en) | Object tracking device, optical apparatus, imaging device, control method of object tracking device, program | |
JP6049448B2 (en) | Subject area tracking device, control method thereof, and program | |
JP6579950B2 (en) | Image analysis apparatus, program, and method for detecting person appearing in captured image of camera | |
JP2016100696A (en) | Image processing device, image processing method, and image processing system | |
JP5693094B2 (en) | Image processing apparatus, image processing method, and computer program | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
US10404912B2 (en) | Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium | |
JP2011234314A (en) | Image processing apparatus, image processing method and program | |
CN109313806A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP7268725B2 (en) | Image processing device, image processing method, and image processing program | |
KR101324250B1 (en) | optical axis error compensation method using image processing, the method of the same, and the zoom camera provided for the compensation function of the optical axis error | |
JP5839796B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP5395650B2 (en) | Subject area extraction device and control method thereof, subject tracking device, and program | |
CN107958202B (en) | Human body detection apparatus, control method of human body detection apparatus, and storage medium | |
US12002279B2 (en) | Image processing apparatus and method, and image capturing apparatus | |
JP3894038B2 (en) | Image processing apparatus, protrusion detection method and program for image processing apparatus | |
JP2011071925A (en) | Mobile tracking apparatus and method | |
JP4530175B2 (en) | Image processing apparatus, protrusion detection method and program for image processing apparatus | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP3625442B2 (en) | Object detection method, object detection apparatus, and object detection program | |
JP2006309799A (en) | Image processing device, protrusion detection method for it, and program | |
JP2013210778A (en) | Imaging apparatus | |
JP5777389B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP5247419B2 (en) | Imaging apparatus and subject tracking method | |
JP2019192155A (en) | Image processing device, photographing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100519 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100601 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130618 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |