JP2006309799A - Image processing device, protrusion detection method for it, and program - Google Patents

Image processing device, protrusion detection method for it, and program Download PDF

Info

Publication number
JP2006309799A
JP2006309799A JP2006212110A JP2006212110A JP2006309799A JP 2006309799 A JP2006309799 A JP 2006309799A JP 2006212110 A JP2006212110 A JP 2006212110A JP 2006212110 A JP2006212110 A JP 2006212110A JP 2006309799 A JP2006309799 A JP 2006309799A
Authority
JP
Japan
Prior art keywords
image
distance
imaging unit
imaging
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006212110A
Other languages
Japanese (ja)
Inventor
Junichi Funada
純一 船田
Miki Sato
幹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006212110A priority Critical patent/JP2006309799A/en
Publication of JP2006309799A publication Critical patent/JP2006309799A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device capable of detecting protrusion of a person or a face of the person from an image captured by a video camera, a protrusion detection method, and program. <P>SOLUTION: An image including an object is acquired by imaging means 31 and 32. When the image is acquired by the imaging means 31 and 32, a distance calculation means 35 calculates a distance from the imaging means 31 and 32 to an object captured in the image center part of the image. A reliability determination means 34 determines whether reliability of the distance found by the distance calculation means 35 is higher than a predetermined value or not. A distance determination means 36 determines protrusion of the object from the image when the distance acquired by the distance calculation means 35 is a predetermined threshold value or less while high reliability is determined by the reliability determination means 34. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人物の動画像を撮影する画像処理装置に関し、特に、撮影された画像から人物がはみ出していることを検知する画像処理装置に関する。   The present invention relates to an image processing apparatus that captures a moving image of a person, and more particularly, to an image processing apparatus that detects that a person protrudes from a captured image.

動画像を記録として残すために、ビデオカメラのような画像撮影装置で動画像を撮影することがある。動画像を記録として残すための画像撮影装置で撮影される画像には人物や人物の顔が含まれることが多い。そして、人物やその顔は、画像撮影装置で撮影される画像から、はみ出さないことが望ましい。しかし、動画像を撮影するとき、撮影される人物は静止しているとは限らず、通常は絶えず動いている。したがって、人物や顔が視野からはみ出すことが考えられる。そのため、ビデオカメラの撮影方向や撮影範囲は人物の動きに合わせて修正されることが望ましい。   In order to leave a moving image as a record, a moving image may be captured by an image capturing device such as a video camera. An image captured by an image capturing device for leaving a moving image as a record often includes a person or a person's face. It is desirable that the person and his / her face do not protrude from the image captured by the image capturing device. However, when shooting a moving image, the person to be shot is not always stationary, and usually moves constantly. Therefore, it is conceivable that a person or face protrudes from the field of view. Therefore, it is desirable that the shooting direction and shooting range of the video camera be corrected according to the movement of the person.

従来、画像撮影装置により動画像を撮影するとき、視野から人物がはみ出さないように、または、はみ出した人物を再び視野内に入れるように、画像撮影装置を操作している操作者が、撮影対象である人物の動きに合わせてパンやチルトを行い、撮影方向を調整していた。特許文献1に記載された従来のビデオカメラは、パンまたはチルトをするための駆動装置をグリップ内に有している。そのため、従来のビデオカメラの操作者は、電動雲台装置を用いなくとも、パンまたはチルトを容易に行うことができた。
特開平01−243673号公報
Conventionally, when a moving image is shot by an image shooting device, an operator who operates the image shooting device takes a picture so that the person does not protrude from the field of view or the person who has protruded is placed in the field of view again. The shooting direction was adjusted by panning and tilting according to the movement of the target person. The conventional video camera described in Patent Document 1 has a driving device for panning or tilting in a grip. Therefore, an operator of a conventional video camera can easily perform panning or tilting without using an electric pan head device.
Japanese Patent Laid-Open No. 01-243673

近年では、ビデオカメラで撮影された動画像から人物やその顔を認識する画像認識装置が、セキュリティ確保のための人物認証や、防犯カメラで撮影された犯人像を用いた犯人捜査などに応用されている。   In recent years, image recognition devices that recognize people and their faces from moving images taken with a video camera have been applied to human authentication for security and criminal investigations using criminal images taken with a security camera. ing.

画像認識装置には、ビデオカメラで撮影された人物の画像と、予め記録しておいた人物の画像とを比較することにより、人物を認識するものがある。例えば、特開2000−331167号公報に記載された従来の顔画像照合装置は、2つの顔画像を照合して顔画像に現れている2つの顔の一致度を評価する。従来の顔画像照合装置は、まず、顔画像に現れている顔の大きさおよび各顔画像内における顔の位置を一致させるために、顔画像を正規化する。次に、顔画像照合装置は、所定のマスクデータに基づいて2つの顔画像の所定領域をマスクすることにより顔領域を抽出する。次に、顔画像照合装置は、各顔画像を必要に応じてモノクロ画像に変換する。さらに、顔画像照合装置は、各顔画像の階調を落とした後に照合する。このようにして、従来の画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識する。   Some image recognition apparatuses recognize a person by comparing an image of a person photographed by a video camera with an image of a person recorded in advance. For example, a conventional face image matching device described in Japanese Patent Application Laid-Open No. 2000-331167 compares two face images and evaluates the degree of coincidence between two faces appearing in the face image. A conventional face image matching device first normalizes a face image in order to match the size of the face appearing in the face image and the position of the face in each face image. Next, the face image matching device extracts a face area by masking a predetermined area of two face images based on predetermined mask data. Next, the face image collation device converts each face image into a monochrome image as necessary. Furthermore, the face image collation device collates after reducing the gradation of each face image. In this way, the conventional image recognition apparatus recognizes a person or a face from an image taken with a video camera.

しかし、ビデオカメラは、レンズ系の画像取得可能範囲と、光電変換装置から出力可能な画像の大きさとに制約を受けるので、ビデオカメラで撮影できる画像には有限の視野が存在する。画像認識装置は、ビデオカメラで撮影された画像から人物や顔を認識するので、人物や顔を正常に認識するためには、人物や顔が視野内にあることが条件となる。   However, since a video camera is restricted by the lens system image acquisition range and the size of an image that can be output from the photoelectric conversion device, there is a finite field of view in an image that can be captured by the video camera. Since the image recognition apparatus recognizes a person or face from an image taken by a video camera, the person or face must be in the field of view in order to recognize the person or face normally.

しかし、ビデオカメラで人物を含む動画像を撮影するとき、人物は必ずしも静止しているわけではない。したがって、画像認識装置の認識対象である人物は、常に、ビデオカメラの視野内にあるとは限らない。そのため、画像認識装置では、ビデオカメラの撮影方向や撮影範囲を人物の動きに合わせて修正することが望まれる。   However, when shooting a moving image including a person with a video camera, the person is not necessarily stationary. Therefore, the person who is the recognition target of the image recognition apparatus is not always in the field of view of the video camera. Therefore, it is desired that the image recognition apparatus corrects the shooting direction and shooting range of the video camera in accordance with the movement of the person.

撮影方向や撮影範囲を修正する方法としては、従来、ビデオカメラの操作者が、撮影対象である人物の動きを見て、それに合わせてパンやチルトを行うという方法しかなかった。   As a method for correcting the shooting direction and the shooting range, there has conventionally been a method in which an operator of a video camera observes the movement of a person to be shot and pans or tilts accordingly.

しかし、セキュリティ確保のための人物認証や防犯カメラに応用される画像認識装置は、操作者が常時操作しているものではなく、無人でも動作する必要がある。そのため、従来の画像認識装置は、人物を認識することができないとき、それが画像からのはみ出しによるか否か知ることができなかった。そのため、従来の画像認識装置は、画像から人物やその顔がはみ出しているとき、撮影方向や撮影範囲を自動的に修正することができず、また、人物が画像からはみ出したことを警告することもできなかった。   However, an image recognition apparatus applied to personal authentication and security camera for ensuring security is not always operated by an operator, and needs to operate even without an operator. Therefore, when the conventional image recognition apparatus cannot recognize a person, it cannot know whether or not it is due to the protrusion from the image. For this reason, conventional image recognition devices cannot automatically correct the shooting direction or shooting range when a person or their face protrudes from the image, and warn that a person protrudes from the image. I couldn't.

そのため、従来の画像認識装置は、人物やその顔が画像に入るであろう適当な範囲を固定的に撮影するように設置され、できるだけ人物が画像からはみ出さないようにする程度であった。   For this reason, the conventional image recognition apparatus is installed so as to fixedly shoot an appropriate range in which a person and his / her face will enter the image, so that the person does not protrude from the image as much as possible.

本発明の目的は、ビデオカメラで撮影された画像から人物がはみ出したことを検知できる画像処理装置、そのはみ出し検知方法およびプログラムを提供することである。   An object of the present invention is to provide an image processing apparatus capable of detecting that a person protrudes from an image photographed by a video camera, and a protrusion detection method and program thereof.

上記目的を達成するために、本発明の画像処理装置は、撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する撮像手段と、
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出する距離算出手段と、
前記距離算出手段で求められる距離の信頼性が所定値以上に高いか否か判定する信頼性判断手段と、
前記距離算出手段で得られた前記距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有している。
In order to achieve the above object, an image processing apparatus of the present invention is an image processing apparatus that detects protrusion of an image of an object to be photographed.
Imaging means for acquiring an image including the object;
When an image is acquired by the imaging unit, a distance calculation unit that calculates a distance from the imaging unit to an object that is reflected in the center of the image;
Reliability determination means for determining whether or not the reliability of the distance obtained by the distance calculation means is higher than a predetermined value;
Distance determination for determining that the object is protruding from the image when the distance obtained by the distance calculation means is less than or equal to a predetermined threshold value and the reliability determination means determines that the reliability is high. Means.

したがって、撮像手段で撮影された画像から、距離算出手段が、対象物である可能性の高い、その画像の中央に撮影された物体までの距離を算出し、信頼性判断手段が、算出された距離の信頼性を求め、その結果、信頼性が高く、かつ、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断する。   Therefore, the distance calculation means calculates the distance to the object photographed at the center of the image, which is highly likely to be an object, from the image captured by the imaging means, and the reliability determination means is calculated. The reliability of the distance is obtained, and as a result, when the reliability is high and the distance is too close, the determination unit determines that the object is protruding from the image.

なお、前記所定値および前記閾値が、変更可能に設定されるパラメータであってもよい。   The predetermined value and the threshold value may be parameters that can be changed.

本発明の他の画像処理装置は、撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出する画像中央部相関算出手段と、
前記画像中央部相関算出手段で得られた前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断する信頼性判断手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出する距離算出手段と、
前記距離算出手段で得られた距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有している。
Another image processing apparatus of the present invention is an image processing apparatus that detects a protrusion from an image of an object to be photographed,
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
An image center part correlation calculating means for calculating a correlation value at an image center part of images simultaneously obtained by the first image pickup means and the second image pickup means;
Reliability determination means for determining that the reliability is high if the change in the correlation value obtained by the image center correlation calculation means is greater than a predetermined change rate;
From the positional relationship between the first imaging means and the second imaging means and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, Distance calculating means for calculating the distance of;
Distance determining means for determining that the object is protruding from the image when the distance obtained by the distance calculating means is less than or equal to a predetermined threshold value and the reliability determining means determines that the reliability is high. And have.

したがって、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断する。   Therefore, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. The distance to the object is calculated from the amount of deviation between the two images, and as a result, when the distance is too close, the determination means determines that the object protrudes from the image.

なお、前記変化率および前記閾値が、変更可能に設定されるパラメータであってもよい。   The change rate and the threshold may be parameters that can be changed.

本発明の更に他の画像処理装置は、撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出する小領域相関算出手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出する距離算出手段と、
前記距離算出手段により算出された、前記各小領域における距離のうち最小のものを選択する最小距離選択手段と、
前記最小距離選択手段で得られた最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有している。
Still another image processing apparatus according to the present invention is an image processing apparatus that detects a protrusion from an image of an object to be photographed.
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
A small area correlation calculating means for calculating respective correlation values in a plurality of small areas in an image central portion of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of two images obtained by shifting two images is maximized, to the object reflected in each of the small areas Distance calculating means for calculating the distances of
Minimum distance selection means for selecting a minimum one of the distances in each of the small areas calculated by the distance calculation means;
Distance determining means for determining that the object is protruding from the image if the minimum distance obtained by the minimum distance selecting means is equal to or less than a predetermined threshold value;

したがって、第1および第2の撮像手段で撮影された、互いにずれた2つの画像から、画像中央部相関算出手段が、それらの画像の相関値を算出し、距離算出手段が、相関値により分かる2つの画像のずれ量から、画像中央部の各小領域にある物体で、距離が最小のものを対象物として、対象物までの距離を算出し、その結果、距離が近すぎるとき、判断手段が、対象物が画像からはみ出していると判断する。   Therefore, the image center correlation calculation means calculates the correlation value of these images from the two images taken by the first and second imaging means and shifted from each other, and the distance calculation means knows from the correlation value. Based on the amount of deviation between the two images, the distance to the object is calculated by using the object in each small area at the center of the image with the smallest distance as the object. However, it is determined that the object protrudes from the image.

なお、前記閾値が、変更可能に設定されるパラメータであってもよい。   Note that the threshold may be a parameter that can be changed.

本発明によれば、対象物が近すぎるために画像からはみ出したことを自動的に検知することができる。   According to the present invention, since an object is too close, it can be automatically detected that the object protrudes from the image.

本発明の実施形態について図面を参照して詳細に説明する。
(第1の実施形態)
本発明の第1の実施形態は、画像の上下左右の部分の画像の変化から、人物が画像からはみ出したことを検出する画像処理装置である。
Embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
The first embodiment of the present invention is an image processing device that detects that a person protrudes from an image based on changes in the image of the upper, lower, left, and right portions of the image.

図1は、第1の実施形態の画像処理装置の構成を示すブロック図である。図1を参照すると、画像処理装置10は、撮像部11、フレーム間差分算出部12、二値化部13、画像上部画素数部14、画像右部画素数カウント部15、画像左部画素数カウント部16、画像下部画素数カウント部17および判断部18を有している。   FIG. 1 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment. Referring to FIG. 1, the image processing apparatus 10 includes an imaging unit 11, an inter-frame difference calculation unit 12, a binarization unit 13, an image upper pixel number unit 14, an image right pixel count unit 15, and an image left pixel number. A count unit 16, an image lower pixel number count unit 17, and a determination unit 18 are included.

撮像部11は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。   The imaging unit 11 is, for example, a video camera, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel. In the present embodiment, it is assumed that the captured image is a monochrome image as an example. Therefore, the data for each pixel is indicated by a numerical value representing luminance.

フレーム間差分算出部12は、撮像部11でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。   The inter-frame difference calculation unit 12 receives the image digitized by the imaging unit 11 and stores a predetermined number of past images in a memory (not shown), and stores the latest image and the past image stored in the memory. The difference from each image is calculated for each pixel. The difference of each pixel is a difference between the luminance of the pixel in the latest image and the luminance of the pixel in the past image. The number of past images stored in the memory is at least one, and may be plural, for example, set to be changeable as a parameter.

二値化部13は、フレーム間差分算出部12で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。   The binarization unit 13 compares the difference of each pixel calculated by the inter-frame difference calculation unit 12 with a predetermined difference threshold value, and binarizes it according to the magnitude of the threshold value. Note that the difference between the pixels being larger than the difference threshold indicates that the pixel has a large difference from the past image, that is, the change of the pixel is large. Here, the difference of each pixel is binarized to “1” when it is equal to or greater than the difference threshold, and is binarized to “0” when it is smaller than the difference threshold.

第1の実施形態では、撮像部11で撮影される画像の上下左右の各辺付近の部分が上部領域、下部領域、左部領域、右部領域とされている。図2は画像90の中の上部領域91を示し、図3は左部領域92を示し、図4は右部領域93を示し、図5は下部領域94を示している。   In the first embodiment, the portions near the upper, lower, left, and right sides of the image captured by the imaging unit 11 are defined as an upper region, a lower region, a left region, and a right region. 2 shows an upper area 91 in the image 90, FIG. 3 shows a left area 92, FIG. 4 shows a right area 93, and FIG. 5 shows a lower area 94.

画像上部画素数カウント部14は、上部領域91内の画素のうち、二値化部13で差分閾値以上とされた画素の数、すなわち“1”に二値化された画素の数をカウントする。   The image upper pixel number counting unit 14 counts the number of pixels in the upper region 91 that are equal to or higher than the difference threshold by the binarizing unit 13, that is, the number of pixels binarized to “1”. .

画像右部画素数カウント部15は、右部領域93内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。   The image right pixel count counting unit 15 counts the number of pixels in the right region 93 that are equal to or greater than the difference threshold by the binarization unit 13.

画像左部画素数カウント部16は、左部領域92内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。   The image left pixel number counting unit 16 counts the number of pixels in the left region 92 that are equal to or greater than the difference threshold by the binarization unit 13.

画像下部画素数カウント部17は、下部領域94内の画素のうち、二値化部13で差分閾値以上とされた画素の数をカウントする。   The image lower pixel number counting unit 17 counts the number of pixels in the lower region 94 that are equal to or greater than the difference threshold by the binarizing unit 13.

判断部18は、画像上部画素数カウント部14のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部18は、画像右部画素数カウント部15のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部18は、画像左部画素数カウント部16のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部18は、画像下部画素数カウント部17のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。   If the count value of the upper image pixel count unit 14 is larger than a predetermined upper count threshold value, the determination unit 18 determines that a person is protruding from the image. The determination unit 18 determines that the person protrudes to the right of the image if the count value of the image right pixel number counting unit 15 is greater than a predetermined right part count threshold. The determination unit 18 determines that the person protrudes to the left of the image if the count value of the image left pixel number counting unit 16 is larger than a predetermined left part count threshold value. If the count value of the image lower pixel number counting unit 17 is larger than a predetermined lower count threshold value, the determining unit 18 determines that the person protrudes below the image.

図6は、本実施形態の画像処理装置の動作を示すフローチャートである。図6を参照すると、まず、撮像部11が画像を撮影し、フレーム間差分算出部12に送る(ステップA1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。   FIG. 6 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 6, first, the imaging unit 11 captures an image and sends the image to the inter-frame difference calculation unit 12 (step A1). Here, it is assumed that an image captured t-th after the video camera of the imaging unit 11 is activated is im (t).

次に、フレーム間差分算出部12は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップA2)。   Next, the inter-frame difference calculation unit 12 calculates a difference between each pixel of the latest image im (t) and each pixel of the past image stored in the memory, and each difference is set as the value of each pixel. The difference image diff (t) to be generated is generated (step A2).

次に、フレーム間差分画像算出部13は、画像im(t)を過去の画像としてメモリに保存する(ステップA3)。それとともに、フレーム間差分画像算出部13は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。   Next, the inter-frame difference image calculation unit 13 stores the image im (t) in the memory as a past image (step A3). At the same time, the inter-frame difference image calculation unit 13 discards one oldest past image stored in the memory.

次に、二値化部14は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップA4)。このとき、二値化部14は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部14は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。   Next, the binarizing unit 14 compares the value of each pixel (the above-described difference) of the difference image diff (t) with the difference threshold value, binarizes the difference image diff (t), and binarizes the binarized image bin. Conversion into (t) (step A4). At this time, the binarization unit 14 sets the pixel value to “1” when the value of each pixel is equal to or greater than the difference threshold. Also, the binarization unit 14 sets the pixel value to “0” when the value of each pixel is smaller than the difference threshold.

次に、画像上部画素数カウント部14は、二値化画像bin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップA5)。ここでは、そのカウント値をa(t)とする。   Next, the image upper pixel number counting unit 14 counts the number of pixels having a pixel value “1” in the upper region 91 of the binarized image bin (t) (step A5). Here, the count value is a (t).

次に、画像右部画素数カウント部15は、二値化画像bin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップA6)。ここでは、そのカウント値をb(t)とする。   Next, the image right pixel number counting unit 15 counts the number of pixels having a pixel value “1” in the right region 92 of the binarized image bin (t) (step A6). Here, the count value is b (t).

次に、画像左部画素数カウント部16は、二値化画像bin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップA7)。ここでは、そのカウント値をc(t)とする。   Next, the image left pixel number counting unit 16 counts the number of pixels having a pixel value “1” in the left region 93 of the binarized image bin (t) (step A7). Here, the count value is c (t).

次に、画像下部画素数カウント部17は、二値化画像bin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップA8)。ここでは、そのカウント値をd(t)とする。   Next, the image lower pixel number counting unit 17 counts the number of pixels having a pixel value “1” in the lower region 94 of the binarized image bin (t) (step A8). Here, the count value is d (t).

次に、判定部18は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップA9)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部18は、人物が画像の上にはみ出していることを検知する(ステップA10)。   Next, the determination unit 18 determines whether or not the count value a (t) is larger than the upper count threshold th1 (step A9). If the count value a (t) is larger than the upper count threshold th1, the determination unit 18 detects that a person protrudes from the image (step A10).

次に、判定部18は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップA11)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部18は、人物が画像の右にはみ出していることを検知する(ステップA12)。   Next, the determination unit 18 determines whether or not the count value b (t) is greater than the right count threshold th2 (step A11). If the count value b (t) is larger than the right part count threshold th2, the determination part 18 detects that a person protrudes to the right of the image (step A12).

次に、判定部18は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップA13)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部18は、人物が画像の左にはみ出していることを検知する(ステップA14)。   Next, the determination unit 18 determines whether or not the count value c (t) is greater than the left count threshold th3 (step A13). If the count value c (t) is larger than the right part count threshold th3, the determination unit 18 detects that the person protrudes to the left of the image (step A14).

次に、判定部18は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップA15)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部18は、人物が画像の下にはみ出していることを検知する(ステップA16)。   Next, the determination unit 18 determines whether or not the count value d (t) is greater than the lower count threshold th4 (step A15). If the count value d (t) is larger than the right part count threshold th4, the determination unit 18 detects that a person protrudes under the image (step A16).

以上の動作を終了すると、画像処理装置10は、“t”を1つインクリメントし(ステップA17)、ステップA1に戻る。   When the above operation is completed, the image processing apparatus 10 increments “t” by one (step A17), and returns to step A1.

以上説明したように、本実施形態の画像処理装置10は、最新の画像と過去の画像との差分をフレーム間差分算出部12によって算出し、二値化部13によって差分を二値化して所定以上に変化したか否か求め、画像上部、右部、左部または下部画素数カウント部14、15、16、17によって、所定以上に変化した画素の数を上下左右の領域毎にカウントし、判断部18によって、各領域のカウント値を閾値と比較してカウント値が閾値を超えた領域において画像から人物がはみ出したと判断するので、画像変化が大きいためにカウント値が閾値を超えた領域を検出することにより、画像からの人物のはみ出しを自動的に検知することができる。   As described above, the image processing apparatus 10 according to the present embodiment calculates the difference between the latest image and the past image by the inter-frame difference calculation unit 12, and binarizes the difference by the binarization unit 13. The number of pixels that have changed more than a predetermined number is counted for each of the upper, lower, left, and right areas by determining whether or not the above has changed, by the upper, right, left, or lower pixel count units 14, 15, 16, and 17 The determination unit 18 compares the count value of each region with the threshold value and determines that a person has protruded from the image in the region where the count value exceeds the threshold value. Therefore, the region where the count value exceeds the threshold value due to a large image change is determined. By detecting this, it is possible to automatically detect the protrusion of a person from the image.

なお、本実施形態では、撮像部11がモノクロ画像を撮影する場合を例示したが、本発明はこれに限定されるものではなく、カラー画像であってもよい。撮像部11で撮影されるのがカラー画像である場合、例えば、フレーム間差分算出部12は、各画素値をRGBの3色を要素とするベクトルで表わし、過去の画像の画素とベクトルの差分を求める。そして、二値化部13は、フレーム間差分算出部12で求められた差分ベクトルの大きさを差分閾値と比較することにより、二値化画像を生成してもよい。   In the present embodiment, the case where the imaging unit 11 captures a monochrome image has been illustrated, but the present invention is not limited to this and may be a color image. When a color image is captured by the imaging unit 11, for example, the inter-frame difference calculation unit 12 represents each pixel value as a vector whose elements are RGB three colors, and the difference between the pixel of the past image and the vector. Ask for. And the binarization part 13 may produce | generate a binarized image by comparing the magnitude | size of the difference vector calculated | required by the interframe difference calculation part 12 with a difference threshold value.

また、本実施形態では、画像からのはみ出しを検知する対象物が人物である場合を例示したが、本発明はこれに限定されるものではない。連続的に撮影したとき、移動しうる物体であれば、どのようなものであってもよい。   Further, in the present embodiment, the case where the object for detecting the protrusion from the image is a person is exemplified, but the present invention is not limited to this. Any object can be used as long as it can move when continuously photographed.

また、本実施形態で用いられた、過去の画像の数、各閾値、上下左右部の各領域の大きさなどのパラメータを調整することにより、画像処理装置がはみ出しを検知する精度を向上させることができる。
(第2の実施形態)
図7は、本発明の第2の実施形態の画像処理装置の構成を示すブロック図である。図7を参照すると、画像処理装置20は、撮像部21、フレーム間差分算出部22、二値化部23、領域分割部24、領域選択部25、画像上部画素数カウント部26、画像右部画素数カウント部27、画像左部画素数カウント部28、画像下部画素数カウント部29および判断部210を有している。
In addition, by adjusting parameters such as the number of past images, each threshold, and the size of each of the upper, lower, left, and right areas used in the present embodiment, the accuracy with which the image processing apparatus detects the protrusion is improved. Can do.
(Second Embodiment)
FIG. 7 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. Referring to FIG. 7, the image processing apparatus 20 includes an imaging unit 21, an inter-frame difference calculation unit 22, a binarization unit 23, an area division unit 24, an area selection unit 25, an image upper pixel number counting unit 26, and an image right part. A pixel number counting unit 27, an image left pixel number counting unit 28, an image lower pixel number counting unit 29, and a determination unit 210 are provided.

撮像部21は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。本実施形態では、撮影される画像は、一例としてモノクロ画像であるとする。したがって、画素毎のデータは輝度を表わす数値で示される。   The imaging unit 21 is a video camera, for example, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel. In the present embodiment, it is assumed that the captured image is a monochrome image as an example. Therefore, the data for each pixel is indicated by a numerical value representing luminance.

フレーム間差分算出部22は、撮像部21でデジタル化された画像を入力とし、過去の所定数の画像をメモリ(不図示)に保存するとともに、最新の画像とメモリに保存されている過去の各画像との差分を画素毎に算出する。各画素の差分は、最新の画像におけるその画素の輝度と、過去の画像におけるその画素の輝度との差である。メモリに保存される過去の画像の数は少なくとも1つであり、複数であってもよく、例えば、パラメータとして変更可能に設定されている。   The inter-frame difference calculation unit 22 receives an image digitized by the imaging unit 21 and stores a predetermined number of past images in a memory (not shown), and stores the latest image and the past image stored in the memory. The difference from each image is calculated for each pixel. The difference of each pixel is a difference between the luminance of the pixel in the latest image and the luminance of the pixel in the past image. The number of past images stored in the memory is at least one, and may be plural, for example, set to be changeable as a parameter.

二値化部23は、フレーム間差分算出部22で算出された各画素の差分を、予め定められた差分閾値と比較し、閾値との大小により二値化する。なお、各画素の差分が差分閾値より大きいことは、その画素は過去の画像との差分が大きいことを示し、すなわち、その画素の変化が大きいことを意味する。ここでは、各画素の差分は、差分閾値以上のとき“1”に二値化され、差分閾値より小さいとき“0”に二値化されることとする。   The binarization unit 23 compares the difference of each pixel calculated by the inter-frame difference calculation unit 22 with a predetermined difference threshold value, and binarizes the difference based on the magnitude of the threshold value. Note that the difference between the pixels being larger than the difference threshold indicates that the pixel has a large difference from the past image, that is, the change of the pixel is large. Here, the difference of each pixel is binarized to “1” when it is equal to or greater than the difference threshold, and is binarized to “0” when it is smaller than the difference threshold.

領域分割部24は、画像を複数の分割領域に分割する。画像を複数の分割領域に分割する方法については後述する。   The area dividing unit 24 divides the image into a plurality of divided areas. A method for dividing an image into a plurality of divided regions will be described later.

領域選択部25は、領域分割部24で分割された複数の分割領域の中から、最も人物らしい分割領域を選択し、さらに、選択された分割領域に応じて二値化画像を変換する。最も人物らしい分割領域を選択する方法と、二値化画像を変換する方法については後述する。   The area selection unit 25 selects a divided area that is most likely to be a person from among a plurality of divided areas divided by the area dividing unit 24, and further converts the binarized image according to the selected divided area. The method for selecting the most likely divided area and the method for converting the binarized image will be described later.

第2の実施形態では、第1の実施形態と同様、図2〜図5に示された上部、右部、左部、下部領域93、94、95、96が定められている。   In the second embodiment, the upper, right, left, and lower regions 93, 94, 95, and 96 shown in FIGS. 2 to 5 are defined as in the first embodiment.

画像上部画素数カウント部26は、領域選択部25で変換された二値化画像において、上部領域91内で画素値が“1”である画素の数をカウントする。   The image upper pixel number counting unit 26 counts the number of pixels having a pixel value “1” in the upper region 91 in the binarized image converted by the region selecting unit 25.

画像右部画素数カウント部27は、領域選択部25で変換された二値化画像において、右部領域93内で画素値が“1”である画素の数をカウントする。   The image right pixel count counting unit 27 counts the number of pixels having a pixel value “1” in the right region 93 in the binarized image converted by the region selection unit 25.

画像左部画素数カウント部28は、領域選択部25で変換された二値化画像において、左部領域92内で画素値が“1”である画素の数をカウントする。   The image left pixel number counting unit 28 counts the number of pixels having a pixel value “1” in the left region 92 in the binarized image converted by the region selecting unit 25.

画像下部画素数カウント部29は、領域選択部25で変換された二値化画像において、下部領域94内で画素値が“1”である画素の数をカウントする。   The image lower pixel number counting unit 29 counts the number of pixels having a pixel value “1” in the lower region 94 in the binarized image converted by the region selecting unit 25.

判断部210は、画像上部画素数カウント部26のカウント値が、予め定められた上部カウント閾値より大きければ、人物が画像の上にはみ出していると判断する。また、判断部210は、画像右部画素数カウント部27のカウント値が、予め定められた右部カウント閾値より大きければ、人物が画像の右にはみ出していると判断する。判断部210は、画像左部画素数カウント部28のカウント値が、予め定められた左部カウント閾値より大きければ、人物が画像の左にはみ出していると判断する。判断部210は、画像下部画素数カウント部29のカウント値が、予め定められた下部カウント閾値より大きければ、人物が画像の下にはみ出していると判断する。   If the count value of the image upper pixel number counting unit 26 is larger than a predetermined upper count threshold value, the determining unit 210 determines that a person protrudes from the image. Further, the determination unit 210 determines that the person protrudes to the right of the image if the count value of the image right pixel number counting unit 27 is larger than a predetermined right part count threshold. The determination unit 210 determines that the person protrudes to the left of the image if the count value of the image left pixel number counting unit 28 is larger than a predetermined left part count threshold value. If the count value of the image lower pixel number counting unit 29 is larger than a predetermined lower count threshold value, the determining unit 210 determines that the person is protruding below the image.

図8は、本実施形態の画像処理装置の動作を示すフローチャートである。図8を参照すると、まず、撮像部21が画像を撮影し、フレーム間差分算出部22に送る(ステップB1)。ここで、撮像部11のビデオカメラが起動してからt番目に撮影された画像をim(t)とする。   FIG. 8 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 8, first, the imaging unit 21 captures an image and sends it to the inter-frame difference calculation unit 22 (step B1). Here, it is assumed that an image captured t-th after the video camera of the imaging unit 11 is activated is im (t).

次に、フレーム間差分算出部22は、最新の画像im(t)の各画素と、メモリに保存されている過去の画像の各画素との差分を算出し、各差分を各画素の値とする差分画像diff(t)を生成する(ステップB2)。   Next, the inter-frame difference calculation unit 22 calculates a difference between each pixel of the latest image im (t) and each pixel of the past image stored in the memory, and each difference is set as the value of each pixel. The difference image diff (t) to be generated is generated (step B2).

次に、フレーム間差分画像算出部22は、画像im(t)を過去の画像としてメモリに保存する(ステップB3)。それとともに、フレーム間差分画像算出部22は、メモリに保存されていた最も古い過去の画像を1つ廃棄する。   Next, the inter-frame difference image calculation unit 22 stores the image im (t) in the memory as a past image (step B3). At the same time, the inter-frame difference image calculation unit 22 discards one oldest past image stored in the memory.

次に、二値化部23は、差分画像diff(t)の各画素の値(上述された差分)を差分閾値と比較して二値化し、差分画像diff(t)を二値化画像bin(t)に変換する(ステップB4)。このとき、二値化部23は、各画素の値が差分閾値以上のとき、その画素値を“1”とする。また、二値化部23は、各画素の値が差分閾値より小さいとき、その画素値を“0”とする。   Next, the binarization unit 23 binarizes the value of each pixel of the difference image diff (t) (difference described above) with the difference threshold value, and binarizes the difference image diff (t). Conversion to (t) (step B4). At this time, the binarization unit 23 sets the pixel value to “1” when the value of each pixel is equal to or greater than the difference threshold. The binarization unit 23 sets the pixel value to “0” when the value of each pixel is smaller than the difference threshold.

次に、領域分割部24は、二値化部23で得られた二値化画像bin(t)を複数の分割領域に分割する(ステップB5)。   Next, the region dividing unit 24 divides the binarized image bin (t) obtained by the binarizing unit 23 into a plurality of divided regions (step B5).

領域分割部24による領域分割の方法の一例について説明する。図9は、領域分割の方法について説明するための図である。図9に示すように、二値化画像bin(t)の横方向をX軸(右向きが正)とし、縦方向をY軸(下向きが正)とし、画像の左上の画素から右にx番目で、下にy番目の画素の画素値をv(x,y)とする。   An example of a region dividing method by the region dividing unit 24 will be described. FIG. 9 is a diagram for explaining a region dividing method. As shown in FIG. 9, the horizontal direction of the binarized image bin (t) is the X axis (rightward is positive), the vertical direction is Y axis (downward is positive), and the xth pixel from the upper left pixel of the image to the right Then, let the pixel value of the yth pixel be v (x, y) below.

図9(a)のような二値化画像bin(t)が得られると、図9(b)に示すように、画像を構成する全てのxについて、v(x,y)が1となる最小のyの値を求める。次に、得られたyの値が、xの変化に対して極大となる点(極大点)と、画像下辺に到達する点(下辺接点)とを求め、極大点および下辺接点を通る垂直な線で画像を複数の分割領域に分割する。   When a binarized image bin (t) as shown in FIG. 9A is obtained, as shown in FIG. 9B, v (x, y) becomes 1 for all x constituting the image. Find the minimum y value. Next, a point at which the obtained y value becomes maximum with respect to the change of x (maximum point) and a point reaching the lower side of the image (lower side contact point) are obtained, and a perpendicular passing through the maximum point and the lower side contact point is obtained. The image is divided into a plurality of divided areas by lines.

また、他の領域分割の方法の例として、同じ画素値(“1”または“0”)を有し、互いに連結している画素をグループ化して1つの分割領域とする方法が考えられる。つまり、画素値“1”の画素が連結している部分(画素値“1”のひとかたまり)が1つの分割領域とされ、同様に、画素値“0”の画素がつながっている部分(画素値“0”のひとかたまり)が1つの分割領域とされる。   As another example of the region dividing method, a method in which pixels having the same pixel value (“1” or “0”) and connected to each other are grouped into one divided region can be considered. That is, a portion where pixels having a pixel value “1” are connected (a group of pixel values “1”) is defined as one divided region, and similarly, a portion where pixels having a pixel value “0” are connected (pixel value). A group of “0”) is defined as one divided area.

次に、領域選択部25は、領域分割部24で得られた各分割領域から最も人物らしい分割領域を選択する。そして、領域選択部25は、その分割領域内ではbin(t)と同じ値であり、それ以外の分割領域では“0”となるように変換された二値化画像sbin(t)を作成する(ステップB6)。   Next, the area selection unit 25 selects a divided area that is most likely to be a person from the divided areas obtained by the area dividing unit 24. Then, the area selection unit 25 creates a binarized image sbin (t) that is converted so as to have the same value as bin (t) in the divided area and “0” in the other divided areas. (Step B6).

領域選択部25による、最も人物らしい分割領域を選択する方法の一例として、領域分割部24で得られた分割領域の中で、画素値が“1”となる画素の数が最も多い分割領域を選択するという方法が考えられる。   As an example of a method for selecting a region most likely to be a person by the region selection unit 25, among the divided regions obtained by the region dividing unit 24, a divided region having the largest number of pixels having a pixel value “1” is selected. A method of selecting is conceivable.

次に、画像上部画素数カウント部26は、変換された二値化画像sbin(t)の上部領域91内で、画素値が“1”である画素の数をカウントする(ステップB7)。ここでは、そのカウント値をa(t)とする。   Next, the image upper pixel number counting unit 26 counts the number of pixels having a pixel value “1” in the upper region 91 of the converted binary image sbin (t) (step B7). Here, the count value is a (t).

次に、画像右部画素数カウント部27は、変換された二値化画像sbin(t)の右部領域92内で、画素値が“1”である画素の数をカウントする(ステップB8)。ここでは、そのカウント値をb(t)とする。   Next, the image right pixel number counting unit 27 counts the number of pixels having a pixel value “1” in the right region 92 of the converted binarized image sbin (t) (step B8). . Here, the count value is b (t).

次に、画像左部画素数カウント部28は、変換された二値化画像sbin(t)の左部領域93内で、画素値が“1”である画素の数をカウントする(ステップB9)。ここでは、そのカウント値をc(t)とする。   Next, the image left pixel number counting unit 28 counts the number of pixels having a pixel value “1” in the left region 93 of the converted binarized image sbin (t) (step B9). . Here, the count value is c (t).

次に、画像下部画素数カウント部29は、変換された二値化画像sbin(t)の下部領域94内で、画素値が“1”である画素の数をカウントする(ステップB10)。ここでは、そのカウント値をd(t)とする。   Next, the image lower pixel number counting unit 29 counts the number of pixels having a pixel value “1” in the lower region 94 of the converted binary image sbin (t) (step B10). Here, the count value is d (t).

次に、判定部210は、カウント値a(t)が上部カウント閾値th1より大きいか否か判定する(ステップB11)。カウント値a(t)が上部カウント閾値th1より大きければ、判定部210は、人物が画像の上にはみ出していることを検知する(ステップB12)。   Next, the determination unit 210 determines whether or not the count value a (t) is greater than the upper count threshold th1 (step B11). If the count value a (t) is larger than the upper count threshold th1, the determination unit 210 detects that a person protrudes from the image (step B12).

次に、判定部210は、カウント値b(t)が右部カウント閾値th2より大きいか否か判定する(ステップB13)。カウント値b(t)が右部カウント閾値th2より大きければ、判定部210は、人物が画像の右にはみ出していることを検知する(ステップB14)。   Next, the determination unit 210 determines whether or not the count value b (t) is greater than the right count threshold th2 (step B13). If the count value b (t) is larger than the right-side count threshold th2, the determination unit 210 detects that a person protrudes to the right of the image (step B14).

次に、判定部210は、カウント値c(t)が左部カウント閾値th3より大きいか否か判定する(ステップB15)。カウント値c(t)が右部カウント閾値th3より大きければ、判定部210は、人物が画像の左にはみ出していることを検知する(ステップB16)。   Next, the determination unit 210 determines whether or not the count value c (t) is greater than the left count threshold th3 (step B15). If the count value c (t) is greater than the right count threshold th3, the determination unit 210 detects that a person protrudes to the left of the image (step B16).

次に、判定部210は、カウント値d(t)が下部カウント閾値th4より大きいか否か判定する(ステップB17)。カウント値d(t)が右部カウント閾値th4より大きければ、判定部210は、人物が画像の下にはみ出していることを検知する(ステップB18)。   Next, the determination unit 210 determines whether or not the count value d (t) is greater than the lower count threshold th4 (step B17). If the count value d (t) is larger than the right count threshold th4, the determination unit 210 detects that a person is protruding below the image (step B18).

以上の動作を終了すると、画像処理装置20は、“t”を1つインクリメントし(ステップB19)、ステップB1に戻る。
(第3の実施形態)
第3の実施形態は、人物がビデオカメラに近すぎて画像からはみ出していることを検出する画像処理装置である。
When the above operation is completed, the image processing apparatus 20 increments “t” by 1 (step B19), and returns to step B1.
(Third embodiment)
The third embodiment is an image processing apparatus that detects that a person is too close to a video camera and protrudes from an image.

図10は、第3の実施形態の画像処理装置の構成を示すブロック図である。図10を参照すると、画像処理装置30は、第1の撮像部31、第2の撮像部32、画像中央部相関算出部33、信頼性判断部34、距離算出部35および距離判断部36を有している。   FIG. 10 is a block diagram illustrating a configuration of the image processing apparatus according to the third embodiment. Referring to FIG. 10, the image processing device 30 includes a first imaging unit 31, a second imaging unit 32, an image center part correlation calculation unit 33, a reliability determination unit 34, a distance calculation unit 35, and a distance determination unit 36. Have.

第1の撮像部31は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。   The first imaging unit 31 is, for example, a video camera, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel.

第2の撮像部32は、第1の撮像部31と同様に、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部32の画像を撮影する視野は、第1の撮像部31の視野と重複する部分を有し、かつ、第1の撮像部31の視野との相対的な位置関係が固定されている。   Similar to the first imaging unit 31, the second imaging unit 32 continuously captures images one after another, digitizes the captured images, and obtains data for each pixel. In addition, the field of view for capturing the image of the second imaging unit 32 has a portion that overlaps the field of view of the first imaging unit 31 and has a relative positional relationship with the field of view of the first imaging unit 31. It is fixed.

画像中央部相関算出部33は、第1の撮像部31と第2の撮像部32からほぼ同時に得られる画像の画像中央部95(図12参照)での相関値を計算する。   The image center correlation calculation unit 33 calculates a correlation value at the image center 95 (see FIG. 12) of images obtained from the first imaging unit 31 and the second imaging unit 32 almost simultaneously.

信頼性判断部34は、画像中央部相関計算部33で得られた相関値の座標位置に対する変化がなだらかであれば、信頼性が低いと判断し、変化が急であれば、信頼性が高いと判断する。   The reliability determination unit 34 determines that the reliability is low if the change of the correlation value obtained by the image center portion correlation calculation unit 33 with respect to the coordinate position is gentle, and if the change is sudden, the reliability is high. Judge.

距離算出部35は、第1の撮像部31と第2の撮像部32の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、画像中央部95に映っている物体との距離を算出する。   The distance calculation unit 35 calculates the central portion of the image from the positional relationship between the first imaging unit 31 and the second imaging unit 32 and the shift amount when the correlation value between the two images is maximized by shifting the two images. The distance to the object shown in 95 is calculated.

距離判断部36は、距離算出部35で得られた距離が所定の閾値以下であり、かつ信頼性判断部34で信頼性が高いと判断されていれば、距離が近すぎて画像から人物がはみ出していると判断する。   If the distance obtained by the distance calculating unit 35 is equal to or less than a predetermined threshold and the reliability determining unit 34 determines that the reliability is high, the distance determining unit 36 is too close to detect the person from the image. Judge that it protrudes.

図11は、本実施形態の画像処理装置の動作を示すフローチャートである。図11を参照すると、まず、第1および第2の撮像部31、32がそれぞれ画像を撮像し、画像中央部相関算出部33に送る(ステップC1)。第1の撮像部31と第2の撮像部32とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。   FIG. 11 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 11, first, the first and second imaging units 31 and 32 respectively capture images and send them to the image center correlation calculation unit 33 (step C1). Assume that the first imaging unit 31 and the second imaging unit 32 are activated at the same time, and images taken t-th after the video camera is activated are im1 (t) and im2 (t), respectively.

次に、画像中央部相関算出部33は、画像im1(t)と画像im2(t)の画像中央部95での相関値corr(x)を算出する(ステップC2)。   Next, the image center part correlation calculating unit 33 calculates the correlation value corr (x) at the image center part 95 of the images im1 (t) and im2 (t) (step C2).

相関値の算出法の一例を説明する。   An example of a correlation value calculation method will be described.

ここで、画像im1(t)の横方向をX軸(右向きが正)縦方向をY軸(下向きが正)とし、画像のもっとも左上の画素から右にx番目で、下にy番目の画素値をv1(x,y)とする。画像im2(t)についても同様にv2(x,y)を定義する。また、画像中央部95は図12に示されたように設定されているとする。   Here, the horizontal direction of the image im1 (t) is the X axis (rightward is positive), the vertical direction is the Y axis (downward is positive), and the xth pixel to the right and the yth pixel to the right from the upper left pixel of the image. Let the value be v1 (x, y). Similarly, v2 (x, y) is defined for the image im2 (t). Further, it is assumed that the image center portion 95 is set as shown in FIG.

そして、画像中央部95の座標値の集合をCとすると、相関値は corr(x)=Σ_{(t,s)¥in C}|v1(t−x,s)−v2(t,s)|などと計算できる。   If the set of coordinate values of the image central portion 95 is C, the correlation value is corr (x) = Σ _ {(t, s) ¥ in C} | v1 (t−x, s) −v2 (t, s ) |

次に、信頼性判断部34は、相関値corr(x)の変化がなだらかであるか否か判定する(ステップC3)。   Next, the reliability determination unit 34 determines whether or not the change in the correlation value corr (x) is gentle (step C3).

相関値corr(x)がなだらかであるか否かの判定方法の一例について説明する。相関値corr(x)が最大となるxをx1とする。このとき、画像中央部95の全域において、corr(x1)−corr(x1−g)<thc1かつcorr(x1)−corr(x1+g)<thc2ならばcorr(x)がなだらかであると判断し、そうでなけれななだらかでないと判断する。   An example of a method for determining whether or not the correlation value corr (x) is gentle will be described. Let x1 be the x that maximizes the correlation value corr (x). At this time, if corr (x1) −corr (x1−g) <thc1 and corr (x1) −corr (x1 + g) <thc2 in the entire area of the image central portion 95, it is determined that corr (x) is gentle. It is judged that it is not gentle.

相関値corr(t)の変化がなだらかでなければ、距離算出部35が、第1の撮像部31と第2の撮像部32の位置関係と、相関値corr(x)が最大となるxの値とから距離d(t)を求める(ステップC4)。距離の算出方法は従来からよく知られた方法によればよい。例えば、文献「3次元ビジョン」(徐、辻著、共立出版(1998))などに記載された方法を用いることで実現できる。   If the change in the correlation value corr (t) is not gentle, the distance calculation unit 35 determines the positional relationship between the first imaging unit 31 and the second imaging unit 32 and the x of the correlation value corr (x) that maximizes the correlation value corr (x). The distance d (t) is obtained from the value (step C4). The method for calculating the distance may be a well-known method. For example, it can be realized by using a method described in the document “3D Vision” (Xu, Tsuji, Kyoritsu Publishing (1998)).

次に、距離判定部36は、距離d(t)が所定の閾値thより大きいか否か判定する(ステップC5)。閾値thは、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離d(t)が閾値th以下であれば、距離判定部36は、人物が画像からはみ出していると検知する(ステップC6)。   Next, the distance determination unit 36 determines whether or not the distance d (t) is greater than a predetermined threshold th (step C5). The threshold th is calculated in advance from the size of the object (here, a person), the focal length of the lens, and the size of the image, the distance that the object will protrude from the image. If the distance d (t) is less than or equal to the threshold th, the distance determination unit 36 detects that a person is protruding from the image (step C6).

ステップC6の後、ステップC5において距離d(t)が閾値thより大きかったとき、または、ステップC3において変化がなだらかであったとき、画像処理装置30は、“t”を1つインクリメントし(ステップC7)、ステップC1に戻る。   After Step C6, when the distance d (t) is larger than the threshold th in Step C5 or when the change is gentle in Step C3, the image processing apparatus 30 increments “t” by one (Step C7), returning to step C1.

以上説明したように、本実施形態の画像処理装置30は、第1および第2の撮像部31、32によって、互いにずれた2つの画像を同時に撮影し、画像中央部相関算出部33によって、2つの画像の画像中央部95での相関値を算出し、信頼性判断部34によって、相関値から信頼性が高いか低いか判定し、信頼性が高い場合に、距離算出部35によって、ビデオカメラと人物との距離を算出し、距離判定部36によって、距離が近ければ画像から人物がはみ出していると判断されるので、距離が近すぎることによる、画像からの人物のはみ出しを自動的に検知することができる。   As described above, the image processing apparatus 30 according to the present embodiment simultaneously captures two images that are shifted from each other with the first and second imaging units 31 and 32, and the image center portion correlation calculation unit 33 performs 2 The correlation value at the image central portion 95 of the two images is calculated, and the reliability determination unit 34 determines whether the reliability is high or low. If the reliability is high, the distance calculation unit 35 causes the video camera And the distance determination unit 36 automatically determines that the person protrudes from the image if the distance is too short. can do.

なお、本実施形態では、画像からのはみ出しを検知する対象が人物である場合を例示したが、本発明はこれに限定されるものではない。ある程度の大きさが想定できるものであれば、どのようなものであってもよい。
(第4の実施形態)
図13は、本発明の第4の実施形態の画像処理装置の構成を示すブロック図である。図13を参照すると、画像処理装置40は、第1の撮像部41、第2の撮像部42、小領域相関算出部43、距離算出部44、最小距離選択部45および距離判断部46を有している。
In the present embodiment, the case where the target for detecting the protrusion from the image is a person, but the present invention is not limited to this. Any thing can be used as long as a certain size can be assumed.
(Fourth embodiment)
FIG. 13 is a block diagram showing a configuration of an image processing apparatus according to the fourth embodiment of the present invention. Referring to FIG. 13, the image processing apparatus 40 includes a first imaging unit 41, a second imaging unit 42, a small region correlation calculation unit 43, a distance calculation unit 44, a minimum distance selection unit 45, and a distance determination unit 46. is doing.

第1の撮像部41は、例えばビデオカメラであり、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。   The first imaging unit 41 is, for example, a video camera, and continuously captures images one after another and digitizes the captured images to obtain data for each pixel.

第2の撮像部42は、第1の撮像部41と同様、次々と連続して画像を撮影し、撮影した画像をデジタル化して画素毎のデータを求める。また、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野と重複する部分を有し、第2の撮像部42の画像を撮影する視野は、第1の撮像部41の視野との相対的な位置関係が固定されている。   Similar to the first image capturing unit 41, the second image capturing unit 42 continuously captures images, digitizes the captured images, and obtains data for each pixel. The field of view for capturing the image of the second imaging unit 42 has a portion that overlaps the field of view of the first imaging unit 41, and the field of view for capturing the image of the second imaging unit 42 is the first imaging. The relative positional relationship with the visual field of the part 41 is fixed.

小領域相関部43は、第1の撮像部41と第2の撮像部42からほぼ同時に得られる画像の画像中央部96の複数の小領域96a、96b、96c、96dでのそれぞれの相関値を計算する(図15参照)。   The small area correlation unit 43 calculates the correlation values in the plurality of small areas 96 a, 96 b, 96 c, and 96 d of the image center part 96 of the image obtained from the first imaging unit 41 and the second imaging unit 42 almost simultaneously. Calculate (see FIG. 15).

距離算出部44は、各小領域96a、96b、96c、96dについて、第1の撮像部41と第2の撮像部42の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量とから、各小領域に映っている物体との距離を算出する。   For each of the small regions 96a, 96b, 96c, and 96d, the distance calculation unit 44 shifts the position of the first image capturing unit 41 and the second image capturing unit 42 and shifts the two images to maximize the correlation value between the two images. The distance from the object shown in each small area is calculated from the amount of deviation when.

最小距離選択部45は、距離算出部44で算出された各小領域の距離のうち、最小のものを選択する。   The minimum distance selection unit 45 selects the smallest one of the distances of the small areas calculated by the distance calculation unit 44.

距離判断部46は、最小距離選択部45で選択された小領域の距離が所定の閾値以下であれば、距離が近すぎて画像から人物がはみだしていると判断する。   If the distance of the small area selected by the minimum distance selection unit 45 is equal to or less than a predetermined threshold, the distance determination unit 46 determines that the person is out of the image because the distance is too close.

図14は、本実施形態の画像処理装置の動作を示すフローチャートである。図14を参照すると、まず、第1および第2の撮像部41、42がそれぞれ画像を撮像し、小領域相関算出部43に送る(ステップD1)。第1の撮像部41と第2の撮像部42とは同時に起動されるものとし、ビデオカメラが起動してからt番目に撮影された画像をそれぞれim1(t)、im2(t)とする。   FIG. 14 is a flowchart showing the operation of the image processing apparatus of this embodiment. Referring to FIG. 14, first, the first and second imaging units 41 and 42 respectively capture images and send them to the small region correlation calculation unit 43 (step D1). It is assumed that the first imaging unit 41 and the second imaging unit 42 are activated at the same time, and images taken t-th after the video camera is activated are im1 (t) and im2 (t), respectively.

次に、小領域相関算出部43は、画像im1(t)と画像im2(t)の各小領域96a、96b、96c、96dでの相関値を算出し、距離算出部44は、各小領域96a、96b、96c、96dにおける、ビデオカメラと物体との距離を算出する(ステップD2)。このとき用いられる、相関値および距離の算出方法は第3の実施形態と同様の方法である。   Next, the small area correlation calculation unit 43 calculates correlation values in the small areas 96a, 96b, 96c, and 96d of the images im1 (t) and im2 (t), and the distance calculation unit 44 calculates the small areas. The distance between the video camera and the object in 96a, 96b, 96c, 96d is calculated (step D2). The calculation method of the correlation value and the distance used at this time is the same method as in the third embodiment.

次に、距離判定部46は、各小領域における距離のうち、最も短いものが所定の閾値th以下であるか否か判定する(ステップD3)。閾値thは、第3の実施形態と同様に、対象物(ここでは人物)のサイズと、レンズの焦点距離と、画像の大きさから、対象物が画像からはみ出すであろう距離を予め算出しておいたものである。距離が閾値th以下であれば、距離判定部46は、人物が画像からはみ出していると検知する(ステップD4)。   Next, the distance determination unit 46 determines whether or not the shortest distance among the distances in each small region is equal to or less than a predetermined threshold th (step D3). As in the third embodiment, the threshold th is calculated in advance from the size of the object (here, a person), the focal length of the lens, and the size of the image. It is what I left. If the distance is equal to or smaller than the threshold th, the distance determination unit 46 detects that the person is protruding from the image (step D4).

ステップD4の後、または、ステップD3において距離が閾値th以下でなかったとき、画像処理装置40は、“t”を1つインクリメントし(ステップD5)、ステップD1に戻る。   After step D4 or when the distance is not less than or equal to the threshold th in step D3, the image processing device 40 increments “t” by one (step D5) and returns to step D1.

第1の実施形態の画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 画像の中の上部領域を示す図である。It is a figure which shows the upper area | region in an image. 画像の中の左部領域を示す図である。It is a figure which shows the left part area | region in an image. 画像の中の右部領域を示す図である。It is a figure which shows the right part area | region in an image. 画像の中の下部領域を示す図である。It is a figure which shows the lower area | region in an image. 第1の実施形態の画像処理装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment. 本発明の第2の実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of the 2nd Embodiment of this invention. 第2の実施形態の画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus of 2nd Embodiment. 領域分割の方法について説明するための図である。It is a figure for demonstrating the method of area | region division. 第3の実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 3rd Embodiment. 第3の実施形態の画像処理装置の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the image processing apparatus according to the third embodiment. 画像の中の画像中央部を示す図である。It is a figure which shows the image center part in an image. 第4の実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 4th Embodiment. 第4の実施形態の画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus of 4th Embodiment. 画像の中の画像中央部の各小領域を示す図である。It is a figure which shows each small area | region of the image center part in an image.

符号の説明Explanation of symbols

10,20,30 画像処理装置
11,21 撮像部
12,22 フレーム間差分算出部
13,23 二値化部
14,26 画像上部画素数部
15,27 画像右部画素数カウント部
16,28 画像左部画素数カウント部
17,29 画像下部画素数カウント部
18,210 判断部
24 領域分割部
25 領域選択部
31,41 第1の撮像部
32,42 第2の撮像部
33 画像中央部相関算出部
34 信頼性判断部
35,44 距離算出部
36,46 距離判断部
43 小領域相関算出部
45 最小距離選択部
90 画像
91 上部領域
92 左部領域
93 右部領域
94 下部領域
95,96 画像中央部
96a,96b,96c,96d 小領域
A1〜A17,B1〜B19,C1〜C7 ステップ
10, 20, 30 Image processing apparatus 11, 21 Imaging unit 12, 22 Inter-frame difference calculation unit 13, 23 Binarization unit 14, 26 Image upper pixel number unit 15, 27 Image right side pixel number counting unit 16, 28 image Left pixel count unit 17, 29 Image lower pixel count unit 18, 210 Judgment unit 24 Region division unit 25 Region selection unit 31, 41 First imaging unit 32, 42 Second imaging unit 33 Image center part correlation calculation Unit 34 Reliability determination unit 35, 44 Distance calculation unit 36, 46 Distance determination unit 43 Small region correlation calculation unit 45 Minimum distance selection unit 90 Image 91 Upper region 92 Left region 93 Right region 94 Lower region 95, 96 Image center Part 96a, 96b, 96c, 96d Small area A1-A17, B1-B19, C1-C7 Step

Claims (18)

撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する撮像手段と、
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出する距離算出手段と、
前記距離算出手段で求められる距離の信頼性が所定値以上に高いか否か判定する信頼性判断手段と、
前記距離算出手段で得られた前記距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有する画像処理装置。
An image processing apparatus for detecting an overhang from an image of a shooting object,
Imaging means for acquiring an image including the object;
When an image is acquired by the imaging unit, a distance calculation unit that calculates a distance from the imaging unit to an object that is reflected in the center of the image;
Reliability determination means for determining whether or not the reliability of the distance obtained by the distance calculation means is higher than a predetermined value;
Distance determination for determining that the object is protruding from the image when the distance obtained by the distance calculation means is less than or equal to a predetermined threshold value and the reliability determination means determines that the reliability is high. And an image processing apparatus.
前記所定値および前記閾値が、変更可能に設定されるパラメータである、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined value and the threshold value are parameters set to be changeable. 撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出する画像中央部相関算出手段と、
前記画像中央部相関算出手段で得られた前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断する信頼性判断手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出する距離算出手段と、
前記距離算出手段で得られた距離が所定の閾値以下であり、かつ前記信頼性判断手段で信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有する画像処理装置。
An image processing apparatus for detecting an overhang from an image of a shooting object,
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
An image center part correlation calculating means for calculating a correlation value at an image center part of images simultaneously obtained by the first image pickup means and the second image pickup means;
Reliability determination means for determining that the reliability is high if the change in the correlation value obtained by the image center correlation calculation means is greater than a predetermined change rate;
From the positional relationship between the first imaging means and the second imaging means and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, Distance calculating means for calculating the distance of;
Distance determining means for determining that the object is protruding from the image when the distance obtained by the distance calculating means is less than or equal to a predetermined threshold value and the reliability determining means determines that the reliability is high. An image processing apparatus.
前記変化率および前記閾値が、変更可能に設定されるパラメータである、請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the change rate and the threshold are parameters that are set to be changeable. 撮影の対象物の画像からのはみ出しを検知する画像処理装置であって、
前記対象物を含む画像を取得する第1の撮像手段と、
前記対象物を含み、前記第1の撮像手段で取得される画像とずれた画像を、前記第1の撮像手段と同時に取得する第2の撮像手段と、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出する小領域相関算出手段と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出する距離算出手段と、
前記距離算出手段により算出された、前記各小領域における距離のうち最小のものを選択する最小距離選択手段と、
前記最小距離選択手段で得られた最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断する距離判断手段とを有する画像処理装置。
An image processing apparatus for detecting an overhang from an image of a shooting object,
First imaging means for acquiring an image including the object;
A second imaging unit that includes the object and acquires an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit;
A small area correlation calculating means for calculating a correlation value in each of a plurality of small areas in an image central portion of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of the two images obtained by shifting the two images is maximized to the object reflected in each of the small areas Distance calculating means for calculating the distances of
Minimum distance selection means for selecting the smallest of the distances in each of the small regions calculated by the distance calculation means;
An image processing apparatus comprising: a distance determining unit that determines that the object is protruding from the image if the minimum distance obtained by the minimum distance selecting unit is equal to or less than a predetermined threshold value.
前記閾値が、変更可能に設定されるパラメータである、請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the threshold is a parameter set to be changeable. 撮像手段により連続して取得される画像からの撮影の対象物のはみ出しを検知する画像処理装置のはみ出し検知方法であって、
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出するステップと、
前記距離の信頼性が所定値以上に高いか否か判定するステップと、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断するステップを有するはみ出し検知方法。
A protrusion detection method of an image processing apparatus for detecting protrusion of an object to be photographed from images continuously acquired by an imaging means,
When an image is acquired by the imaging unit, a step of calculating a distance from the imaging unit to an object reflected in an image center part of the image;
Determining whether the reliability of the distance is higher than a predetermined value;
A protrusion detection method comprising a step of determining that the object protrudes from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記所定値および前記閾値が、変更可能に設定されるパラメータである、請求項7記載のはみ出し検知方法。   The protrusion detection method according to claim 7, wherein the predetermined value and the threshold are parameters set to be changeable. 第1の撮像手段により連続して取得される画像と、前記第1の撮像手段で取得される画像とずれた画像を前記第1の撮像手段と同時に取得する第2の撮像手段により取得される画像とを用いて、撮影の対象物の画像からのはみ出しを検知する画像処理装置のはみ出し検知方法であって、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出するステップと、
前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断するステップと、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出するステップと、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断するステップとを有するはみ出し検知方法。
Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. An image processing method for detecting a protrusion of an object to be imaged from an image using an image,
Calculating a correlation value at an image central portion of images simultaneously obtained by the first imaging means and the second imaging means;
If the change in the correlation value is greater than a predetermined rate of change, determining that the reliability is high;
From the positional relationship between the first imaging means and the second imaging means and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, Calculating the distance of
And a step of determining that the object is protruding from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記変化率および前記閾値が、変更可能に設定されるパラメータである、請求項9記載のはみ出し検知方法。   The protrusion detection method according to claim 9, wherein the change rate and the threshold are parameters that are set to be changeable. 第1の撮像手段により連続して取得される画像と、前記第1の撮像手段で取得される画像とずれた画像を前記第1の撮像手段と同時に取得する第2の撮像手段により取得される画像とを用いて、撮影の対象物の画像からのはみ出しを検知する画像処理装置のはみ出し検知方法であって、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出するステップと、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出するステップと、
前記各小領域における距離のうち最小のものを選択するステップと、
選択された最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断するステップとを有するはみ出し検知方法。
Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. An image processing method for detecting a protrusion of an object to be imaged from an image using an image,
Calculating respective correlation values in a plurality of small regions at the center of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of the two images obtained by shifting the two images is maximized to the object reflected in each of the small areas Calculating each of the distances,
Selecting the smallest of the distances in each of the subregions;
And a step of determining that the object is protruding from the image if the selected minimum distance is equal to or smaller than a predetermined threshold.
前記閾値が、変更可能に設定されるパラメータである、請求項11記載のはみ出し検知方法。   The protrusion detection method according to claim 11, wherein the threshold is a parameter set to be changeable. 撮像手段により連続して取得される画像からの撮影の対象物のはみ出しを検知するコンピュータに実行させるためのはみ出し検知プログラムであって、
前記撮像手段で画像が取得されると、前記撮像手段から、該画像の画像中央部に映っている物体までの距離を算出する処理と、
前記距離の信頼性が所定値以上に高いか否か判定する処理と、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する処理を有するはみ出し検知プログラム。
A projecting detection program for causing a computer to detect projecting of an object to be photographed from images continuously acquired by an imaging means,
When an image is acquired by the imaging unit, a process of calculating a distance from the imaging unit to an object reflected in the center of the image of the image;
A process of determining whether or not the reliability of the distance is higher than a predetermined value;
An overflow detection program comprising a process of determining that the object is protruding from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記所定値および前記閾値が、変更可能に設定されるパラメータである、請求項13記載のはみ出し検知プログラム。   The protrusion detection program according to claim 13, wherein the predetermined value and the threshold value are parameters set to be changeable. 第1の撮像手段により連続して取得される画像と、前記第1の撮像手段で取得される画像とずれた画像を前記第1の撮像手段と同時に取得する第2の撮像手段により取得される画像とを用いて、撮影の対象物の画像からのはみ出しを検知するコンピュータに実行させるためのはみ出し検知プログラムであって、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部での相関値を算出する処理と、
前記相関値の変化が所定の変化率より大きければ、信頼性が高いと判断する処理と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらして2つの画像の相関値が最大となるときのずれ量から、前記画像中央部に映っている物体との距離を算出する処理と、
前記距離が所定の閾値以下であり、かつ信頼性が高いと判断されると、前記画像から前記対象物がはみ出していると判断する処理とを有するはみ出し検知プログラム。
Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. A protrusion detection program for causing a computer to detect protrusion from an image of an object to be photographed using an image,
Processing for calculating a correlation value at an image central portion of images simultaneously obtained by the first imaging means and the second imaging means;
If the change in the correlation value is greater than a predetermined rate of change, a process for determining that the reliability is high;
From the positional relationship between the first imaging means and the second imaging means and the amount of deviation when the correlation value between the two images is maximized by shifting the two images, Processing to calculate the distance of
A protrusion detection program comprising: a process for determining that the object protrudes from the image when it is determined that the distance is equal to or less than a predetermined threshold and the reliability is high.
前記変化率および前記閾値が、変更可能に設定されるパラメータである、請求項15記載のはみ出し検知プログラム。   The protrusion detection program according to claim 15, wherein the change rate and the threshold are parameters set to be changeable. 第1の撮像手段により連続して取得される画像と、前記第1の撮像手段で取得される画像とずれた画像を前記第1の撮像手段と同時に取得する第2の撮像手段により取得される画像とを用いて、撮影の対象物の画像からのはみ出しを検知するコンピュータに実行させるためのはみ出し検知プログラムであって、
前記第1の撮像手段と前記第2の撮像手段で同時に得られた画像の画像中央部の複数の小領域でのそれぞれの相関値を算出する処理と、
前記第1の撮像手段と前記第2の撮像手段の位置関係と、2つの画像をずらした2つの画像の相関値が最大となるときのずれ量から、前記各小領域に映っている物体までの距離をそれぞれ算出する処理と、
前記各小領域における距離のうち最小のものを選択する処理と、
選択された最小の距離が所定の閾値以下であれば、前記画像から前記対象物がはみ出していると判断する処理とを有するはみ出し検知プログラム。
Acquired by a second imaging unit that acquires an image continuously acquired by the first imaging unit and an image shifted from the image acquired by the first imaging unit simultaneously with the first imaging unit. A protrusion detection program for causing a computer to detect protrusion from an image of an object to be photographed using an image,
Processing for calculating respective correlation values in a plurality of small regions in the image central portion of an image obtained simultaneously by the first imaging means and the second imaging means;
From the positional relationship between the first image pickup means and the second image pickup means and the shift amount when the correlation value of the two images obtained by shifting the two images is maximized to the object reflected in each of the small areas A process for calculating the distances of
A process of selecting the smallest of the distances in each of the small areas;
A protrusion detection program including a process of determining that the object protrudes from the image if the selected minimum distance is equal to or less than a predetermined threshold.
前記閾値が、変更可能に設定されるパラメータである、請求項17記載のはみ出し検知プログラム。   The protrusion detection program according to claim 17, wherein the threshold value is a parameter that is set to be changeable.
JP2006212110A 2006-08-03 2006-08-03 Image processing device, protrusion detection method for it, and program Pending JP2006309799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006212110A JP2006309799A (en) 2006-08-03 2006-08-03 Image processing device, protrusion detection method for it, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006212110A JP2006309799A (en) 2006-08-03 2006-08-03 Image processing device, protrusion detection method for it, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002132715A Division JP3894038B2 (en) 2002-05-08 2002-05-08 Image processing apparatus, protrusion detection method and program for image processing apparatus

Publications (1)

Publication Number Publication Date
JP2006309799A true JP2006309799A (en) 2006-11-09

Family

ID=37476534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006212110A Pending JP2006309799A (en) 2006-08-03 2006-08-03 Image processing device, protrusion detection method for it, and program

Country Status (1)

Country Link
JP (1) JP2006309799A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104696A (en) * 2006-10-24 2007-04-19 Nec Corp Image processing device and protruded image detection method and program thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104696A (en) * 2006-10-24 2007-04-19 Nec Corp Image processing device and protruded image detection method and program thereof
JP4530175B2 (en) * 2006-10-24 2010-08-25 日本電気株式会社 Image processing apparatus, protrusion detection method and program for image processing apparatus

Similar Documents

Publication Publication Date Title
JP6509027B2 (en) Object tracking device, optical apparatus, imaging device, control method of object tracking device, program
JP4642128B2 (en) Image processing method, image processing apparatus and system
JP6049448B2 (en) Subject area tracking device, control method thereof, and program
JP6579950B2 (en) Image analysis apparatus, program, and method for detecting person appearing in captured image of camera
JP5484184B2 (en) Image processing apparatus, image processing method, and program
JP5693094B2 (en) Image processing apparatus, image processing method, and computer program
JP2016100696A (en) Image processing device, image processing method, and image processing system
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
CN109313806A (en) Image processing apparatus, image processing system, image processing method and program
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP5839796B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP2014186505A (en) Visual line detection device and imaging device
JP2009123081A (en) Face detection method and photographing apparatus
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
CN107958202B (en) Human body detection apparatus, control method of human body detection apparatus, and storage medium
JP3894038B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
US12002279B2 (en) Image processing apparatus and method, and image capturing apparatus
JP2011071925A (en) Mobile tracking apparatus and method
JP7268725B2 (en) Image processing device, image processing method, and image processing program
JP4530175B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP3625442B2 (en) Object detection method, object detection apparatus, and object detection program
JP2006309799A (en) Image processing device, protrusion detection method for it, and program
JP5247419B2 (en) Imaging apparatus and subject tracking method