JP4900506B2 - Moving object detection device using images - Google Patents

Moving object detection device using images Download PDF

Info

Publication number
JP4900506B2
JP4900506B2 JP2010216225A JP2010216225A JP4900506B2 JP 4900506 B2 JP4900506 B2 JP 4900506B2 JP 2010216225 A JP2010216225 A JP 2010216225A JP 2010216225 A JP2010216225 A JP 2010216225A JP 4900506 B2 JP4900506 B2 JP 4900506B2
Authority
JP
Japan
Prior art keywords
image
moving
person
area
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010216225A
Other languages
Japanese (ja)
Other versions
JP2011023035A (en
Inventor
英喜 河原
啓史 松田
裕之 藤井
忠洋 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2010216225A priority Critical patent/JP4900506B2/en
Publication of JP2011023035A publication Critical patent/JP2011023035A/en
Application granted granted Critical
Publication of JP4900506B2 publication Critical patent/JP4900506B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象空間を時間経過に伴って連続的に撮像した画像を用いて人のような移動物体を検出する画像を用いた移動物体検知装置に関するものである。   The present invention relates to a moving object detection apparatus using an image for detecting a moving object such as a person using images obtained by continuously capturing a target space with time.

従来から、
従来から、対象空間を撮像した画像を用いて対象空間における人の存否を検出する技術が知られている。また、所定のフレーム間で画像を比較することにより、画像内容が異なるか否かを検出し、さらに内容の差異が画像内のどの範囲で生じているかを検出することにより、画像内での動きの有無を判定し、画像内で動きが有ると判定したときに所定期間は電子ズームを用いて画像を拡大する技術が提案されている(たとえば、特許文献1参照)。
Traditionally,
2. Description of the Related Art Conventionally, a technique for detecting the presence or absence of a person in a target space using an image obtained by imaging the target space is known. In addition, by comparing images between predetermined frames, it is detected whether or not the image content is different, and further, by detecting in which range the content difference occurs in the image, the movement in the image There has been proposed a technique for enlarging an image using an electronic zoom for a predetermined period when it is determined whether or not there is motion in the image (see, for example, Patent Document 1).

特開2000−350080号公報JP 2000-350080 JP

特許文献1に記載の技術は、画像内で動きが検出されたときに、電子ズームを用いて画像を拡大するから、手操作を必要とすることなく画像内で動きのある領域を拡大して確認することが可能になる。しかしながら、電子ズームを用いて画像を拡大している期間が所定期間であって、画像を拡大している期間においては画像内での動きを監視していないものであるから、拡大した画像から人が退出しても認識することができないという問題がある。その結果、たとえば、画像をディスプレイ装置に表示する際に、画像が一旦拡大されると、その後は画像内における動きの有無に関わらず拡大した画像を表示し続けるから、動きのない無意味な画像を表示する期間が多く生じることになる。   The technique described in Patent Document 1 enlarges an image using an electronic zoom when a motion is detected in the image, and therefore enlarges a region having motion in the image without requiring manual operation. It becomes possible to confirm. However, since the period during which the image is magnified using the electronic zoom is a predetermined period and the movement within the image is not monitored during the period during which the image is magnified, the human There is a problem that even if they leave, they cannot be recognized. As a result, for example, when an image is displayed on a display device, once the image is enlarged, the enlarged image continues to be displayed regardless of the presence or absence of movement in the image. There will be many periods for displaying.

本発明は上記事由に鑑みて為されたものであり、その目的は、画像を拡大している期間にも画像内での移動物体の存否を検出することにより、画像の拡大中にも画像内での移動物体の有無を確認できるようにし、しかも、過去に遡って拡大画像を生成する必要のない画像を用いた移動物体検知装置を提供することにある。   The present invention has been made in view of the above-described reasons, and its purpose is to detect whether a moving object is present in an image even during the image enlargement, so that the image can be displayed even during the image enlargement. In addition, it is possible to provide a moving object detection apparatus using an image that enables the user to check the presence or absence of a moving object and that does not need to generate an enlarged image retroactively.

請求項1の発明は、対象空間を時間経過に伴って連続的に撮像する撮像手段と、撮像手段により撮像した複数枚の画像を記憶する画像記憶手段と、画像記憶手段に格納された画像のうち着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域を抽出する第1の移動領域抽出手段と、着目する画像内において第1の移動領域抽出手段により移動領域が抽出されると当該移動領域を含むように設定した部分領域を1画面の大きさに拡大した拡大画像を生成する拡大画像生成手段と、拡大画像のうちで着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域の存否を検出する第2の移動領域抽出手段とを備え、第2の移動領域抽出手段は、時系列において隣接する2枚ずつの拡大画像の差分画像により移動領域の存否を検出することを特徴とする。   According to the first aspect of the present invention, there is provided an imaging unit that continuously captures the target space with time, an image storage unit that stores a plurality of images captured by the imaging unit, and an image stored in the image storage unit. A first moving area extracting means for extracting a moving area in the image of interest by comparing the image of interest with a predetermined number of images in the past, and the first moving area in the image of interest; When the moving area is extracted by the extracting means, an enlarged image generating means for generating an enlarged image obtained by enlarging the partial area set to include the moving area to the size of one screen, and an image of interest among the enlarged images A second moving region extracting means for detecting the presence or absence of the moving region in the image of interest by comparing the image with a predetermined number of images in the past, and the second moving region extracting means includes: And detecting the presence or absence of the moving region from the difference image of the enlarged image of each two adjacent in the column.

この構成によれば、画像を拡大している期間にも画像内での移動物体の存否を検出しているから、画像の拡大中にも画像内での移動物体の有無を確認できる。しかも、撮像手段で撮像した1倍の画像について移動領域を抽出する第1の移動領域抽出手段から拡大画像を用いて移動領域の存否を検出する第2の移動領域抽出手段に処理が引き渡されると、2枚目の拡大画像が得られた時点から拡大画像内での移動領域の存否を検出することができるから、過去に遡って拡大画像を生成する必要がない。しかも、時系列で隣接する2枚ずつの拡大画像の差分画像を用いて移動領域の有無を検出するから、3枚以上の画像を用いる場合に比較すると処理負荷が少なく、また移動領域の有無を検出するのに用いる拡大画像を記憶するための記憶容量も少なくすることができる。   According to this configuration, since the presence / absence of a moving object in the image is detected even during the image enlargement period, the presence / absence of the moving object in the image can be confirmed even during the image enlargement. In addition, when the processing is handed over from the first moving region extracting unit that extracts the moving region of the 1 × image captured by the imaging unit to the second moving region extracting unit that detects the presence or absence of the moving region using the enlarged image. Since the presence / absence of the moving region in the enlarged image can be detected from the time when the second enlarged image is obtained, it is not necessary to generate the enlarged image retroactively. In addition, since the presence / absence of the moving area is detected using the difference image between two enlarged images that are adjacent in time series, the processing load is small compared to the case of using three or more images, and the presence / absence of the moving area is determined. The storage capacity for storing the enlarged image used for detection can also be reduced.

請求項2の発明は、対象空間を時間経過に伴って連続的に撮像する撮像手段と、撮像手段により撮像した複数枚の画像を記憶する画像記憶手段と、画像記憶手段に格納された画像のうち着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域を抽出する第1の移動領域抽出手段と、着目する画像内において第1の移動領域抽出手段により移動領域が抽出されると当該移動領域を含むように設定した部分領域を1画面の大きさに拡大した拡大画像を生成する拡大画像生成手段と、拡大画像のうちで着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域の存否を検出する第2の移動領域抽出手段とを備え、第2の移動領域抽出手段は、着目する拡大画像と過去の規定の複数枚の拡大画像とのそれぞれの差分画像において共通する領域を移動領域として検出するとともに、第1の移動領域抽出手段から処理が移行された後に前記規定の複数枚の拡大画像が得られるまでの期間は、時系列において隣接する2枚ずつの拡大画像の差分画像により移動領域の存否を検出することを特徴とする。   According to a second aspect of the present invention, there is provided an imaging unit that continuously captures the target space with time, an image storage unit that stores a plurality of images captured by the imaging unit, and an image stored in the image storage unit. A first moving area extracting means for extracting a moving area in the image of interest by comparing the image of interest with a predetermined number of images in the past, and the first moving area in the image of interest; When the moving area is extracted by the extracting means, an enlarged image generating means for generating an enlarged image obtained by enlarging the partial area set to include the moving area to the size of one screen, and an image of interest among the enlarged images A second moving area extracting means for detecting the presence or absence of the moving area in the image of interest by comparing the image with a predetermined number of images in the past. A common area in each difference image between the enlarged image and the plurality of previously specified enlarged images is detected as a moving area, and after the processing is shifted from the first moving area extracting means, the plurality of prescribed images The period until the enlarged image is obtained is characterized in that the presence / absence of the moving region is detected from a difference image between two enlarged images adjacent in time series.

この構成によれば、画像を拡大している期間にも画像内での移動物体の存否を検出しているから、画像の拡大中にも画像内での移動物体の有無を確認できる。しかも、撮像手段で撮像した1倍の画像について移動領域を抽出する第1の移動領域抽出手段から拡大画像を用いて移動領域の存否を検出する第2の移動領域抽出手段に処理が引き渡されると、2枚目の拡大画像が得られた時点から拡大画像内での移動領域の存否を検出することができるから、過去に遡って拡大画像を生成する必要がない。しかも、2枚以上の差分画像において共通する領域を移動領域として抽出する処理が適用可能になれば、その処理に移行して移動領域の有無の検出精度を高めるから、時間遅れを小さくしながらも処理負荷を軽減することと、移動領域の有無に関する検出精度を確保することとを両立させることができる。   According to this configuration, since the presence / absence of a moving object in the image is detected even during the image enlargement period, the presence / absence of the moving object in the image can be confirmed even during the image enlargement. In addition, when the processing is handed over from the first moving region extracting unit that extracts the moving region of the 1 × image captured by the imaging unit to the second moving region extracting unit that detects the presence or absence of the moving region using the enlarged image. Since the presence / absence of the moving region in the enlarged image can be detected from the time when the second enlarged image is obtained, it is not necessary to generate the enlarged image retroactively. Moreover, if a process for extracting a common area as a moving area in two or more difference images becomes applicable, the process proceeds to that process and the detection accuracy of the presence / absence of the moving area is increased. It is possible to achieve both reducing the processing load and ensuring the detection accuracy regarding the presence or absence of the moving region.

請求項3の発明では、請求項1または請求項2の発明において、前記画像記憶手段は、前記拡大画像生成手段により拡大画像を生成する前において移動領域が検出されていない状態の画像を基準画像として記憶し、第2の移動領域抽出手段により移動領域が検出されなくなり第1の移動領域抽出手段により移動領域を抽出する処理に復帰したときに着目する画像と基準画像との差分を用いて移動領域を抽出することを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the present invention, the image storage means uses, as a reference image, an image in which no moving area is detected before the enlarged image generating means generates the enlarged image. And the second moving area extracting means no longer detects the moving area and the first moving area extracting means returns to the process of extracting the moving area using the difference between the image of interest and the reference image. A region is extracted.

この構成によれば、第2の移動領域抽出手段から第1の移動領域抽出手段に処理が移行した直後の画像を用いて移動領域を抽出することができ、拡大画像から退出した移動領域を1倍の画像内で遅滞なく抽出することができる。   According to this configuration, it is possible to extract the moving area using the image immediately after the processing is shifted from the second moving area extracting means to the first moving area extracting means, and the moving area exited from the enlarged image is 1 It is possible to extract without delay in the doubled image.

請求項4の発明では、請求項1ないし請求項3のいずれかの発明において、前記撮像手段により撮像した画像から移動領域として人を検出する検知エリアに一致する検知エリアを有し画像を用いることなく検知エリア内の人の存否を検出する人感センサが付加され、前記画像による人の検出と人感センサによる人の検出との結果の組合せにより第1の移動領域抽出手段と第2の移動領域抽出手段との処理を択一的に選択する総合制御部を備えることを特徴とする。   According to a fourth aspect of the present invention, in any one of the first to third aspects of the present invention, an image having a detection area that coincides with a detection area for detecting a person as a moving area from the image captured by the imaging unit is used. A human sensor for detecting the presence or absence of a person in the detection area is added, and the first movement region extracting means and the second movement are combined by combining the results of the human detection by the image and the human detection by the human sensor. It is characterized by comprising a general control unit that alternatively selects processing with the region extraction means.

この構成によれば、画像を用いて人を検出するだけではなく他の人感センサの出力も総合して人の存否を判断し、第1の移動領域抽出手段と第2の移動領域抽出手段とのどちらを用いるかを選択するから、第1の移動領域抽出手段と第2の移動領域抽出手段とを状況に応じて適切に選択することができる。   According to this configuration, the first moving region extracting unit and the second moving region extracting unit determine not only the person using the image but also the outputs of other human sensors to determine the presence of the person. Therefore, the first moving area extracting means and the second moving area extracting means can be appropriately selected according to the situation.

請求項5の発明では、請求項4の発明において、前記総合制御部は、第2の移動領域抽出手段が人の存在を検出せず、かつ前記人感センサが人の存在を検出しているときには、第1の移動領域抽出手段により移動領域を抽出する処理に復帰させることを特徴とする。   According to a fifth aspect of the present invention, in the fourth aspect of the invention, the integrated control unit detects that the second moving region extracting means does not detect the presence of a person and the human sensor detects the presence of the person. In some cases, the process is returned to the process of extracting the moving area by the first moving area extracting means.

この構成によれば、拡大画像では人の存在が検出されなくなったとしても検知エリア内に人が存在していれば、人感センサで人の存在が検出されるから、第2の移動領域抽出手段から第1の移動領域抽出手段への処理の切換を迅速に行うことができる。   According to this configuration, even if the presence of a person is no longer detected in the enlarged image, if the person is present in the detection area, the presence of the person is detected by the human sensor. The processing can be quickly switched from the means to the first moving area extracting means.

請求項6の発明では、請求項4の発明において、前記総合制御部は、第1の移動領域抽出手段と第2の移動領域抽出手段とを選択する判断条件を変更可能であって、第1の移動領域抽出手段と前記人感センサとの少なくとも一方が人の存在を検出している期間には、両方が人の存在を検出していない期間に比較して、人の存在を検出しやすくなるように判断条件を設定することを特徴とする。   According to a sixth aspect of the present invention, in the fourth aspect of the invention, the comprehensive control unit can change a determination condition for selecting the first moving region extracting means and the second moving region extracting means, In the period in which at least one of the moving region extraction means and the human sensor detects the presence of a person, it is easier to detect the presence of the person than in the period in which both do not detect the presence of the person The determination condition is set so that

請求項7の発明では、請求項6の発明において、前記判断条件は、規定時間内に人を検出する回数であって当該回数に達したときに人が存在すると判断し、人の存在の検出後には検出前よりも当該回数を少なく設定することを特徴とする。   According to a seventh aspect of the present invention, in the sixth aspect of the invention, the determination condition is the number of times that a person is detected within a specified time. After that, the number of times is set to be smaller than that before detection.

請求項8の発明では、請求項6の発明において、前記判断条件は、人か否かを判断するために用いる閾値であって当該閾値を越えるときに人が存在すると判断し、人の存在の検出後には検出前よりも当該閾値を低く設定することを特徴とする。   In the invention of claim 8, in the invention of claim 6, the judgment condition is a threshold used for judging whether or not a person is present, and when the threshold is exceeded, it is judged that a person exists, The threshold is set lower after detection than before detection.

請求項6ないし請求項8の発明の構成によれば、第1の移動領域抽出手段と人感センサとの少なくとも一方が人の存在を検出している期間には、両方が人の存在を検出していない期間よりも判断条件を緩めるので、人の存在の検出前には判断条件をやや厳しくして誤検出を防止し、人の存在が一旦確認される判断条件を緩めることで拡大画像を用いる処理に迅速に移行させることができる。   According to the configuration of the invention of any one of claims 6 to 8, both detect the presence of a person during a period when at least one of the first moving region extraction means and the human sensor detects the presence of the person. Since the judgment condition is relaxed compared to the period when the person is not present, the judgment condition is made slightly stricter before detection of the presence of a person to prevent false detections, and the judgment condition for once confirming the existence of a person is relaxed to enlarge the enlarged image. It is possible to quickly shift to the processing to be used.

請求項9の発明では、請求項4の発明において、前記総合制御部は、第1の移動領域抽出手段と前記人感センサとの両方が人の存在を検出していない期間には、着目する画像と過去の規定の複数枚の画像とのそれぞれの差分画像において共通する領域を移動領域として検出するとともに移動領域が人か否かを判定し、第1の移動領域抽出手段と前記人感センサとの少なくとも一方が人の存在を検出している期間には、時系列において隣接する2枚ずつの画像の差分画像により移動領域の存否を検出することを特徴とする。   According to a ninth aspect of the present invention, in the fourth aspect of the present invention, the comprehensive control unit focuses on a period in which both the first moving region extracting means and the human sensor do not detect the presence of a person. A common area in each difference image between the image and a plurality of past prescribed images is detected as a movement area, and whether or not the movement area is a person is determined, and the first movement area extraction means and the human sensor In the period during which at least one of them detects the presence of a person, the presence / absence of a moving region is detected from a difference image between two adjacent images in time series.

この構成によれば、人の存在が検出されていないときには第1の移動領域抽出手段において3枚以上の画像を用いて移動領域を検出する精度を高くし、第1の移動領域抽出手段と人感センサとの少なくとも一方で人の存在が検出された後には、2枚の画像の差分画像を用いて簡便に移動領域の存在を検出するから、人の誤検出の可能性を低減しながらも人が一旦検出されると処理負荷を軽減して人の存否の判断を迅速に行うことが可能になる。   According to this configuration, when the presence of a person is not detected, the first moving area extracting unit increases the accuracy of detecting the moving area using three or more images, and the first moving area extracting unit and the person are detected. After the presence of a person is detected on at least one of the sensation sensors, the presence of the moving area is simply detected using the difference image of the two images, while reducing the possibility of human false detection. Once a person is detected, it is possible to reduce the processing load and quickly determine whether a person exists.

本発明の構成によれば、画像を拡大している期間にも画像内での移動物体の存否を検出しているから、画像の拡大中にも画像内での移動物体の有無を確認できるという利点がある。しかも、過去に遡って拡大画像を生成する必要がないという利点がある。   According to the configuration of the present invention, since the presence / absence of a moving object in the image is detected even during the image enlargement period, the presence / absence of the moving object in the image can be confirmed even during the image enlargement. There are advantages. Moreover, there is an advantage that it is not necessary to generate an enlarged image retroactively.

実施形態を示すブロック図である。It is a block diagram which shows embodiment. 実施形態1を示す動作説明図である。FIG. 3 is an operation explanatory diagram illustrating the first embodiment. 実施形態2を示す動作説明図である。FIG. 6 is an operation explanatory diagram illustrating Embodiment 2. 実施形態3を示す動作説明図である。FIG. 10 is an operation explanatory diagram illustrating the third embodiment. 実施形態4を示す動作説明図である。FIG. 10 is an operation explanatory diagram illustrating the fourth embodiment. 実施形態5を示す動作説明図である。FIG. 10 is an operation explanatory diagram illustrating the fifth embodiment. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above.

(実施形態1)
本実施形態は、図1に示すように、TVカメラのような撮像手段10により対象空間を撮像し、撮像手段10で撮像した濃淡画像(以下の説明では白黒画像を想定しているが、カラー画像や特定の波長領域の画像なども用いることができる)は濃淡画像記憶部11に一旦格納される。濃淡画像記憶部11に格納された濃淡画像に対して後述する処理を施すことにより、対象空間において移動する物体が検出される。
(Embodiment 1)
In the present embodiment, as shown in FIG. 1, a target space is imaged by an imaging unit 10 such as a TV camera, and a grayscale image captured by the imaging unit 10 (in the following description, a black and white image is assumed. An image or an image in a specific wavelength region can also be used) and is temporarily stored in the grayscale image storage unit 11. An object moving in the target space is detected by performing processing described later on the grayscale image stored in the grayscale image storage unit 11.

撮像手段10は定位置に固定されており、時間経過とともに対象空間を連続的に撮像することにより複数の画像が時系列的に得られる。したがって、時系列的に並ぶ複数個の画像間の関係を用いて画像内で移動した物体を検出する。対象空間において移動する物体としては人を想定しており、基本的には画像内で移動する物体を検出したときに、そのサイズにより人か否かを判別している。   The imaging means 10 is fixed at a fixed position, and a plurality of images are obtained in time series by continuously imaging the target space with time. Therefore, an object moved in the image is detected using a relationship between a plurality of images arranged in time series. A person is assumed as a moving object in the target space. Basically, when a moving object is detected in an image, whether the person is a person is determined based on the size.

対象空間に存在する物体を画像内に抽出するために、まずエッジ画像生成部12においてエッジ画像を生成する。エッジ画像は、濃淡画像において濃度変化が極大になる部位を抽出し1画素幅の線画像になるように細線化した画像であって、濃度変化の大きい領域を抽出するために微分処理のような濃度変化を強調する処理を行う。たとえば、一般によく使用されているSobelフィルタを濃淡画像に適用すれば、濃度変化を強調することができるから、Sobelフィルタの適用後に適宜の閾値で二値化すれば濃度変化の極大値付近の領域を抽出することができる。二値化した画像を1画素幅に細線化するとともに、端点を延長するなどして不連続部分を連続させれば、物体の輪郭を抽出したエッジ画像が得られる。エッジ画像の生成技術については周知の他の技術を適用してもよい。エッジ画像生成部12において生成されたエッジ画像は、エッジ画像記憶部13に格納される。   In order to extract an object existing in the target space from the image, the edge image generation unit 12 first generates an edge image. The edge image is an image obtained by extracting a portion where the density change is maximized in the grayscale image and thinning it so as to become a line image having a width of 1 pixel. Performs processing to emphasize density change. For example, if a commonly used Sobel filter is applied to a grayscale image, the density change can be enhanced. Therefore, if binarization is performed with an appropriate threshold after the Sobel filter is applied, an area near the maximum value of the density change is obtained. Can be extracted. If the binarized image is thinned to one pixel width and the discontinuous portions are made continuous by extending the end points, an edge image from which the contour of the object is extracted can be obtained. Other known techniques may be applied to the edge image generation technique. The edge image generated by the edge image generation unit 12 is stored in the edge image storage unit 13.

エッジ画像記憶部13には時系列で並ぶ複数枚のエッジ画像が格納されるから、複数のエッジ画像の関係を用いることにより、画像内で静止している領域と移動している領域とを容易に分離することができる。ここに、エッジ画像の間の時間間隔は撮像手段10で得られる画像の各フレームの時間間隔である必要はなく、対象空間において想定される速度で人が移動しているときに、時系列において隣接する2枚のエッジ画像間において画像内に変化が生じる程度の時間間隔とする。これは、2枚のエッジ画像間が極端に短い時間間隔であると、2枚のエッジ画像間で実質的に移動した領域が発見できなくなるからである。   Since a plurality of edge images arranged in time series are stored in the edge image storage unit 13, a region that is stationary and a region that is moving can be easily obtained by using the relationship between the plurality of edge images. Can be separated. Here, the time interval between the edge images does not need to be the time interval of each frame of the image obtained by the imaging means 10, and in time series when a person is moving at the assumed speed in the target space. The time interval is such that a change occurs in the image between two adjacent edge images. This is because if the time interval between two edge images is extremely short, a region that has moved substantially between the two edge images cannot be found.

エッジ画像を用いて移動する領域を抽出するために、着目するエッジ画像と過去の2枚のエッジ画像とを用いる。これらの3枚のエッジ画像の時間間隔は一定であって、以下では時間間隔をΔTとする。したがって、着目するエッジ画像をE(t)とすれば、移動する領域を検出するために用いる過去のエッジ画像は、E(t−ΔT)、E(t−2ΔT)との2枚になる。これらの3枚のエッジ画像E(t)、E(t−ΔT)、E(t−2ΔT)から移動している領域を抽出するために、まず着目するエッジ画像E(t)と過去の各エッジ画像E(t−ΔT)、E(t−2ΔT)とについてそれぞれ画素ごとの排他的論理和(差分に相当する)を求めた画像を生成した後、排他的論理和からなる2枚の画像について画素ごとの論理積を求めた画像を生成する。エッジ画像E(t)、E(t−ΔT)、E(t−2ΔT)間の論理演算は、論理演算部14aにおいて行われる。   In order to extract a moving region using the edge image, the focused edge image and the two previous edge images are used. The time interval between these three edge images is constant, and hereinafter the time interval is assumed to be ΔT. Therefore, if the focused edge image is E (t), there are two past edge images, E (t−ΔT) and E (t−2ΔT), used for detecting the moving region. In order to extract a moving area from these three edge images E (t), E (t−ΔT), and E (t−2ΔT), first, the focused edge image E (t) and each past image After generating an image for which an exclusive OR (corresponding to a difference) is obtained for each of the edge images E (t−ΔT) and E (t−2ΔT), two images consisting of the exclusive OR An image obtained by calculating a logical product for each pixel is generated. A logical operation between the edge images E (t), E (t−ΔT), and E (t−2ΔT) is performed in the logical operation unit 14a.

さらに詳しく説明すると、エッジ画像E(t)とエッジ画像E(t−ΔT)とについて画素ごとの排他的論理和からなる画像を生成すると、エッジ画像E(t)とエッジ画像E(t−ΔT)とについてそれぞれ移動した領域のエッジと、移動した領域に重なっている背景のエッジとが抽出される。また、エッジ画像E(t)とエッジ画像E(t−2ΔT)とについて画素ごとの排他的論理和からなる画像を生成すると、エッジ画像E(t)とエッジ画像E(t−2ΔT)とについてそれぞれ移動した領域のエッジと、移動した領域に重なっている背景のエッジとが抽出される。排他的論理和からなる2枚の画像について画素ごとの論理積からなる画像を生成することは、両画像の共通部位からなる画像を生成することであるから、結果的に着目するエッジ画像E(t)において移動した領域およびその領域に重なる背景とが抽出されることになる。   More specifically, when an image composed of exclusive OR for each pixel is generated for the edge image E (t) and the edge image E (t−ΔT), the edge image E (t) and the edge image E (t−ΔT) are generated. ) And the background edge that overlaps the moved area are extracted. Further, when an image composed of exclusive OR for each pixel is generated for the edge image E (t) and the edge image E (t−2ΔT), the edge image E (t) and the edge image E (t−2ΔT) are generated. The edge of the moved area and the edge of the background that overlaps the moved area are extracted. Generating an image consisting of the logical product of each pixel for two images consisting of exclusive OR is to generate an image consisting of a common part of both images, and as a result, the edge image E ( The area moved in t) and the background overlapping the area are extracted.

上述のように、時系列に並ぶ3枚以上のエッジ画像の関係を用いて画像内において移動した領域を抽出する技術を、以下ではシルエットマッチングと呼ぶ。シルエットマッチングにより、着目したエッジ画像E(t)から移動した領域を抽出することができるが、本実施形態では人を抽出することが目的であって、昆虫や小動物と人間とを区別することが必要である。そこで、論理演算部14aにより抽出した移動領域について、移動判定部15aでは画像内に占める面積、高さ寸法、縦横比などを用いて人か否かを判定する。論理演算部14aおよび移動判定部15aは、エッジ画像から移動領域を抽出するから第1の移動領域抽出手段を構成する。   As described above, a technique for extracting a moved region in an image using a relationship between three or more edge images arranged in time series is hereinafter referred to as silhouette matching. The region moved from the focused edge image E (t) can be extracted by silhouette matching. However, in this embodiment, the purpose is to extract a person and to distinguish insects and small animals from humans. is necessary. Therefore, for the movement region extracted by the logical operation unit 14a, the movement determination unit 15a determines whether the person is a person using the area, height dimension, aspect ratio, and the like occupied in the image. Since the logical operation unit 14a and the movement determination unit 15a extract the movement area from the edge image, they constitute a first movement area extraction unit.

移動判定部15aにおいて人と判定したときには、人と判定するのに用いた3枚のエッジ画像がエッジ画像記憶部13から拡大画像生成部16に与えられる。また、以後のエッジ画像についても拡大画像生成部16に与えられる。拡大画像生成部16では、移動判定部15aにおいて移動領域と判定された領域を含む矩形状の部分領域を設定し、当該部分領域が1画面の大きさになるように部分領域を拡大する。部分領域の拡大には電子ズームの機能を用いる。つまり、矩形状の部分領域に含まれる画素を1画面の画素位置に割り当てるように画素位置を変換する。ここに、部分領域を設定する際に部分領域の縦横比を1画面の縦横比と一致させるのが望ましい。また、部分領域は、移動領域を抽出するのに用いた3枚のエッジ画像に含まれる移動領域の全体を含む程度の大きさに設定する。   When the movement determination unit 15a determines that the person is a person, the three edge images used to determine the person are provided from the edge image storage unit 13 to the enlarged image generation unit 16. Further, the subsequent edge image is also given to the enlarged image generation unit 16. The enlarged image generation unit 16 sets a rectangular partial region including the region determined as the movement region by the movement determination unit 15a, and expands the partial region so that the partial region becomes the size of one screen. An electronic zoom function is used to enlarge the partial area. That is, the pixel position is converted so that the pixels included in the rectangular partial area are assigned to the pixel positions on one screen. Here, when setting the partial area, it is desirable to match the aspect ratio of the partial area with the aspect ratio of one screen. Further, the partial area is set to a size that includes the entire moving area included in the three edge images used to extract the moving area.

本実施形態では、原則として、1画面に1個の移動領域が含まれる場合を想定しているが、1画面に複数個の移動領域が検出される場合もある。このような場合は、移動領域に優先順位を設定して優先順位のもっとも高い移動領域だけを拡大するなどして、拡大する部分領域を1つに制限することにより、以下に説明する技術を採用することができる。   In this embodiment, in principle, it is assumed that one moving area is included in one screen, but a plurality of moving areas may be detected in one screen. In such a case, the technology described below is adopted by limiting the number of partial areas to be expanded by setting priority order in the moving area and expanding only the moving area having the highest priority order. can do.

上述のようにして移動判定部15aにおいて移動領域が抽出され、拡大画像生成部16により部分領域が設定されるとともにエッジ画像について部分領域が拡大されると、以後は部分領域を拡大した拡大画像が拡大画像記憶部17に格納される。拡大画像記憶部17に格納された拡大画像は、論理演算部14aと同様の機能を有する論理演算部14bに与えられる。論理演算部14bでは、まず最初に、部分領域が設定されたエッジ画像の拡大画像を着目する画像の1枚目とし、この拡大画像と過去の2枚の拡大画像との3枚の拡大画像を用い、着目する拡大画像と過去の各2枚の拡大画像との画素ごとの排他的論理和を画素値とする2枚の画像を生成し、さらに生成した両画像から画素ごとの論理積を画素値とする画像を生成する。   As described above, when the movement determination unit 15a extracts the movement region, the partial image is set by the enlarged image generation unit 16, and the partial region is enlarged for the edge image, an enlarged image obtained by enlarging the partial region is obtained thereafter. It is stored in the enlarged image storage unit 17. The enlarged image stored in the enlarged image storage unit 17 is given to the logical operation unit 14b having the same function as the logical operation unit 14a. In the logical operation unit 14b, first, the enlarged image of the edge image in which the partial area is set is set as the first image of interest, and three enlarged images of this enlarged image and the past two enlarged images are used. Use, generate two images with pixel values of exclusive OR for each pixel of the enlarged image of interest and each of the past two enlarged images, and further calculate the logical product of each pixel from both of the generated images Generate an image as a value.

このように、部分領域がエッジ画像に設定されると、部分領域が設定されたエッジ画像に対して1画面前と2画面前とのエッジ画像をエッジ画像記憶部13から読み出し、この2枚のエッジ画像について部分領域を拡大するから、部分領域が設定された時点でシルエットマッチングを行うのに必要な枚数の拡大画像を用意することができる。   As described above, when the partial area is set as an edge image, the edge images of the previous screen and the previous two screens are read from the edge image storage unit 13 with respect to the edge image in which the partial area is set. Since the partial area of the edge image is enlarged, it is possible to prepare as many enlarged images as necessary for silhouette matching when the partial area is set.

論理演算部14bで生成された画像は移動判定部15bに与えられ、移動判定部15aと同様にして拡大画像内での移動領域が抽出される。ただし、移動判定部15bでは部分領域を設定せず、論理演算部14bで抽出された移動領域について人か否かの判定のみを行う。論理演算部14bおよび移動判定部15bは、拡大画像から移動領域を抽出するから第2の移動領域抽出手段を構成する。拡大画像を用いて人の存否を検出すると、人の動きが微小であっても検出することができるから、人の存否を検出するのが容易になる。   The image generated by the logical operation unit 14b is given to the movement determination unit 15b, and the movement region in the enlarged image is extracted in the same manner as the movement determination unit 15a. However, the movement determination unit 15b does not set a partial area, and only determines whether the movement area extracted by the logical operation unit 14b is a person. Since the logical operation unit 14b and the movement determination unit 15b extract the movement area from the enlarged image, they constitute a second movement area extraction unit. If the presence / absence of a person is detected using an enlarged image, it can be detected even if the movement of the person is minute, so that it is easy to detect the presence / absence of a person.

上述したように、論理演算部14aでは元の大きさのエッジ画像(以下では、撮像手段10の視野全体の画像という意味で「全体画像」という)を扱い、論理演算部14bでは拡大画像を扱うが、論理演算部14aと論理演算部14bとはほぼ同様の動作であり、また移動判定部15aと移動判定部15bとは部分領域を設定するか否かの相違があるが、人か否かの判定は同様の手順で行う。したがって、マイクロコンピュータで適宜のプログラムを実行することにより論理演算部14a,14bおよび移動判定部15a,15bの機能を実現する際に、全体画像を用いるか拡大画像を用いるかを識別するフラグを設定し、フラグによって移動判定部15a,15bの処理を変更するようにしておけば、論理演算部14a,14bおよび移動判定部15a,15bを1個のサブルーチンで実現することが可能になる。   As described above, the logical operation unit 14a handles the edge image of the original size (hereinafter referred to as “whole image” in the sense of the image of the entire field of view of the imaging means 10), and the logical operation unit 14b handles the enlarged image. However, the logical operation unit 14a and the logical operation unit 14b are almost the same operation, and the movement determination unit 15a and the movement determination unit 15b are different in whether or not a partial area is set, but whether or not a person is a person. This determination is performed in the same procedure. Therefore, when the functions of the logical operation units 14a and 14b and the movement determination units 15a and 15b are realized by executing an appropriate program on the microcomputer, a flag for identifying whether to use the whole image or the enlarged image is set. If the processing of the movement determination units 15a and 15b is changed by the flag, the logical operation units 14a and 14b and the movement determination units 15a and 15b can be realized by one subroutine.

拡大画像において人が検出されなくなると、移動判定部15bでは第1の移動領域抽出手段に対して全体画像を用いて移動領域を検出するように指示を与える。すなわち、第2の移動領域抽出手段から第1の移動領域抽出手段に処理が引き渡される。第2の移動領域抽出手段から第1の移動領域抽出手段に処理が引き渡されたときには、エッジ画像記憶部13に過去の2画面分のエッジ画像を残していれば、拡大画像から復帰した1枚目の全体画像を1枚目の着目画像とし、エッジ画像記憶部13から過去の2枚のエッジ画像を読み出して用いることにより、移動領域を追跡することが可能になる。   When no person is detected in the enlarged image, the movement determining unit 15b instructs the first moving area extracting means to detect the moving area using the entire image. That is, the process is handed over from the second moving area extracting means to the first moving area extracting means. When processing is handed over from the second moving area extracting means to the first moving area extracting means, if the edge images for the past two screens are left in the edge image storage unit 13, one sheet restored from the enlarged image By using the entire image of the eye as the first image of interest and reading and using the past two edge images from the edge image storage unit 13, the moving region can be tracked.

上述した例では、エッジ画像記憶部13には着目するエッジ画像よりも前の少なくとも2枚のエッジ画像が格納されており、しかも拡大画像を電子ズームの技術により生成しているから、拡大画像により移動領域を抽出している状態から全体画像に復帰したときに、エッジ画像記憶部13に格納されているエッジ画像を過去のエッジ画像として用いることにより、全体画像を用いてシルエットマッチングを行うことができる。   In the above-described example, the edge image storage unit 13 stores at least two edge images before the target edge image, and the enlarged image is generated by the electronic zoom technique. When returning to the whole image from the state where the moving area is extracted, the edge image stored in the edge image storage unit 13 is used as a past edge image, so that silhouette matching can be performed using the whole image. it can.

ただし、撮像手段10において光学ズームを用いてシルエットマッチングに用いる画像のサイズを変更する場合であれば(たとえば、拡大画像においては人の顔の分解能を高めるために、電子ズームではなく光学ズームを用いるのが望ましい)、移動領域を拡大画像で求める状態から全体画像で求める状態に復帰したときには、シルエットマッチングに必要な枚数の画像がエッジ画像記憶部13に揃っていないから、全体画像に戻ってから3枚目以降の画像についてのみシルエットマッチングの処理が可能になる。   However, in the case of changing the size of an image used for silhouette matching using the optical zoom in the imaging unit 10 (for example, in an enlarged image, an optical zoom is used instead of an electronic zoom in order to increase the resolution of a human face. When the moving region is restored from the state obtained from the enlarged image to the state obtained from the entire image, the number of images necessary for silhouette matching is not available in the edge image storage unit 13, and therefore after returning to the entire image. The silhouette matching process can be performed only for the third and subsequent images.

なお、上述したように、全体画像で移動領域が検出されたときには、遅滞なく拡大画像が得られるから、移動領域を拡大画像で追跡する際には時間遅れを生じることがなく、移動領域を拡大画像において確実に補足することができる。逆に、拡大画像から全体画像に復帰したときには、その直後では拡大画像は必要ではないから、数枚(本実施形態では2枚)の画像についてシルエットマッチングが行われなくとも不都合は生じない。   As described above, when the moving area is detected in the entire image, an enlarged image can be obtained without delay. Therefore, when the moving area is tracked with the enlarged image, there is no time delay and the moving area is enlarged. The image can be reliably supplemented. On the other hand, when returning from the enlarged image to the entire image, the enlarged image is not necessary immediately after that, and no inconvenience arises even if silhouette matching is not performed on several images (two in this embodiment).

上述のようにしてエッジ画像により移動領域の有無を検出するシルエットマッチングを行い、移動領域が抽出されると移動領域を含む部分領域を1画面のサイズに拡大した拡大画像を生成して拡大画像の中で移動領域を抽出し、さらに、拡大画像において移動領域が抽出されなくなると拡大画像から全体画像に戻して移動領域の抽出が行われる。   As described above, silhouette matching is performed to detect the presence / absence of a moving region using an edge image. When the moving region is extracted, an enlarged image is generated by enlarging a partial region including the moving region to the size of one screen. When the moving area is extracted from the enlarged image, and the moving area is not extracted from the enlarged image, the moving image is extracted from the enlarged image by returning to the entire image.

ところで、本実施形態では、移動領域を抽出している範囲の濃淡画像をディスプレイ装置(図示せず)に出力する機能を有している。そのため、撮像手段10で撮像され濃淡画像記憶部11に格納された濃淡画像のうち、移動判定部15a,15bで移動領域を抽出している領域の画素を読み出す領域切換手段18を備える。領域切換手段18では、通常は撮像手段10で撮像した濃淡画像の全領域の画素を読み出しており、移動判定部15aにおいて部分領域が設定されると部分領域に相当する画素を読み出す状態に切り替わる。また、移動判定部15bが全体画像で移動領域を抽出するように指示を出すと、濃淡画像の全領域の画素を読み出す状態に復帰する。   By the way, in this embodiment, it has the function to output the grayscale image of the range which has extracted the movement area | region to a display apparatus (not shown). For this reason, area switching means 18 is provided for reading out pixels in the area from which the movement areas are extracted by the movement determination sections 15a and 15b in the grayscale image captured by the imaging means 10 and stored in the grayscale image storage section 11. The area switching means 18 normally reads out the pixels of the entire area of the grayscale image captured by the imaging means 10 and switches to a state in which pixels corresponding to the partial area are read out when the partial area is set in the movement determination unit 15a. Further, when the movement determination unit 15b instructs to extract the moving area in the entire image, the state returns to the state of reading the pixels in the entire area of the grayscale image.

領域切換手段18で読み出された画素は、濃淡画像記憶部11から読み出された画素群を映像信号に変換する出力手段19を通してディスプレイ装置に出力される。ところで、拡大画像を用いて移動領域を抽出する状態から、全体画像で移動領域を抽出する状態に復帰したときに、2枚分の画像については、シルエットマッチングを行わない場合があるが、領域切換手段18は濃淡画像記憶部11から画素を読み出す領域を変更するだけであるから、ディスプレイ装置に表示される画像には脱落は生じない。   The pixels read by the area switching unit 18 are output to the display device through the output unit 19 that converts the pixel group read from the grayscale image storage unit 11 into a video signal. By the way, when returning from the state where the moving area is extracted using the enlarged image to the state where the moving area is extracted from the entire image, silhouette matching may not be performed for the two images. Since the means 18 only changes the area for reading out pixels from the grayscale image storage unit 11, no dropout occurs in the image displayed on the display device.

上述の動作によって、各部位の画像は図2のように変化する。図では画像間の時間間隔をΔTとし、時刻(T−4ΔT)から時刻(T+4ΔT)までの9枚の画像について示している。このうち時刻(T−ΔT)と時刻(T)と時刻(T+ΔT)との3時刻において拡大画像が生成されている。言い換えると、時刻(T−ΔT)と時刻(T)と時刻(T+ΔT)とにおいては第2の移動領域抽出手段を用いて移動領域Dmを抽出し、他の時刻(T−4ΔT)から時刻(T−2ΔT)までと時刻(T+2ΔT)から時刻(T+4ΔT)までは第1の移動領域抽出手段を用いるのである。   By the above operation, the image of each part changes as shown in FIG. In the figure, the time interval between images is ΔT, and nine images from time (T−4ΔT) to time (T + 4ΔT) are shown. Among these, an enlarged image is generated at three times of time (T−ΔT), time (T), and time (T + ΔT). In other words, at the time (T−ΔT), the time (T), and the time (T + ΔT), the moving area Dm is extracted using the second moving area extracting means, and the time (T−4ΔT) The first moving region extracting means is used until T-2ΔT) and from time (T + 2ΔT) to time (T + 4ΔT).

したがって、図2(a)のように時刻(T−4ΔT)、(T−3ΔT)、(T−2ΔT)ではエッジ画像記憶部13に記憶されたエッジ画像E(T−4ΔT)、E(T−3ΔT)、E(T−2ΔT)を用いており、この3枚のエッジ画像E(T−4ΔT)、E(T−3ΔT)、E(T−2ΔT)を用いることにより移動領域Dm(変化した領域)を抽出することができるから、時刻(T−2ΔT)において移動領域Dmを含む部分領域Dpを設定している。また、時刻(T−ΔT)では拡大画像を用いてシルエットマッチングを行うから、時刻(T−ΔT)から遡って2枚分のエッジ画像をエッジ画像記憶部13から読み出し、図2(b)のように、部分領域Dpに対応する画素を1画面の大きさに拡大した2枚の拡大画像を生成する。つまり、時刻(T−3ΔT)、(T−2ΔT)のエッジ画像E(T−3ΔT)、E(T−2ΔT)からそれぞれ拡大画像L(T−3ΔT)、L(T−2ΔT)が生成される。   Therefore, as shown in FIG. 2A, at the times (T−4ΔT), (T−3ΔT), and (T−2ΔT), the edge images E (T−4ΔT) and E (T −3ΔT) and E (T−2ΔT). By using these three edge images E (T−4ΔT), E (T−3ΔT), and E (T−2ΔT), the moving region Dm (change) Therefore, the partial region Dp including the moving region Dm is set at the time (T−2ΔT). Further, since silhouette matching is performed using the enlarged image at time (T-ΔT), two edge images are read from the edge image storage unit 13 retroactively from time (T-ΔT), and the result shown in FIG. As described above, two enlarged images in which the pixels corresponding to the partial region Dp are enlarged to the size of one screen are generated. That is, enlarged images L (T-3ΔT) and L (T-2ΔT) are generated from the edge images E (T-3ΔT) and E (T-2ΔT) at times (T-3ΔT) and (T-2ΔT), respectively. The

図2(c)のように、時刻(T−2ΔT)以前において第1の移動領域抽出手段で行うシルエットマッチングは拡大前であるから移動領域Dmは画面内で比較的小さいが、時刻(T−ΔT)から時刻(T+ΔT)までの期間では、拡大画像を用いて第2の移動領域抽出手段でシルエットマッチングを行うから移動領域Dmは画面内で比較的大きい面積を占める。   As shown in FIG. 2C, since the silhouette matching performed by the first moving area extracting means is before enlargement before the time (T-2ΔT), the moving area Dm is relatively small in the screen, but the time (T− In the period from ΔT) to time (T + ΔT), the silhouette region matching is performed by the second moving region extraction means using the enlarged image, so the moving region Dm occupies a relatively large area in the screen.

時刻(T+ΔT)では図2(c)に示すように、拡大画像において移動領域Dmが検出できなくなるから、図2(a)における時刻(T+2ΔT)の状態のように、移動領域Dmの検出に拡大画像を用いる状態から全体画像E(T+2ΔT)を用いる状態に復帰する。この時刻(T+2ΔT)および次の時刻(T+3ΔT)ではシルエットマッチングに必要な3枚のエッジ画像が得られないから、シルエットマッチングを行わず、時刻(T+4ΔT)になって3枚のエッジ画像が揃うようになってからシルエットマッチングが再開される。もちろん、エッジ画像記憶部13において全体画像がつねに格納されているのであれば、そのエッジ画像を用いることにより、時刻(T+2ΔT)、(T+3ΔT)においてもシルエットマッチングを継続することが可能である。   At time (T + ΔT), as shown in FIG. 2 (c), the moving area Dm cannot be detected in the enlarged image. Therefore, as in the state at time (T + 2ΔT) in FIG. The state where the image is used is returned to the state where the entire image E (T + 2ΔT) is used. At this time (T + 2ΔT) and the next time (T + 3ΔT), the three edge images necessary for silhouette matching cannot be obtained. Silhouette matching resumes after becoming. Of course, if the entire image is always stored in the edge image storage unit 13, it is possible to continue silhouette matching at times (T + 2ΔT) and (T + 3ΔT) by using the edge image.

上述のようにして移動領域Dmを検出するための画像の領域を変更するから、画像の領域の変更に伴ってディスプレイ装置に表示する画像の領域を切り換えることにより、図2(d)のように、時刻(T−4ΔT)、(T−3ΔT)、(T−2ΔT)と時刻(T+2ΔT)、(T+3ΔT)、(T+4ΔT)には全体画像の領域に対応する濃淡画像A(T−4ΔT)、A(T−3ΔT)、A(T−2ΔT)、A(T+2ΔT)、A(T+3ΔT)、A(T+4ΔT)が表示され、時刻(T−ΔT)、(T)、(T+ΔT)には拡大画像の領域に対応する濃淡画像A(T−ΔT)、A(T)、A(T+ΔT)が表示される。   Since the area of the image for detecting the movement area Dm is changed as described above, the area of the image to be displayed on the display device is switched as shown in FIG. At time (T-4ΔT), (T-3ΔT), (T-2ΔT) and time (T + 2ΔT), (T + 3ΔT), (T + 4ΔT), a grayscale image A (T-4ΔT) corresponding to the entire image area, A (T-3ΔT), A (T-2ΔT), A (T + 2ΔT), A (T + 3ΔT), A (T + 4ΔT) are displayed, and enlarged images are displayed at times (T−ΔT), (T), and (T + ΔT). Gray images A (T−ΔT), A (T), and A (T + ΔT) corresponding to the region are displayed.

上述の構成によって、常時は対象空間の比較的広いエリアにおいて移動領域の有無を判断し、移動領域が存在すると判断すると、移動領域の周辺だけの比較的狭い範囲の画像を表示することにより、移動領域について細部を画面で確認することができるようになる。なお、上述した構成例では、第2の移動領域抽出手段において移動領域が抽出されなくなるとただちに第1の移動領域抽出手段により移動領域の抽出を行う状態に復帰させる構成を採用しているが、第2の移動領域抽出手段により移動領域を抽出する状態を一定時間継続した後に、第1の移動領域抽出手段により移動領域の抽出を行う状態に復帰させるようにしてもよい。   With the above-described configuration, the presence / absence of a moving area is always determined in a relatively large area of the target space. The details of the area can be checked on the screen. In the configuration example described above, a configuration is adopted in which the first moving region extracting unit returns to the state in which the moving region is extracted as soon as the moving region is not extracted by the second moving region extracting unit. After the state in which the moving area is extracted by the second moving area extracting unit is continued for a certain period of time, it may be returned to the state in which the moving area is extracted by the first moving area extracting unit.

(実施形態2)
実施形態1では、常時は全体画像を用いてシルエットマッチングにより移動領域の有無を抽出し、移動領域が抽出されると拡大画像を生成し、拡大画像を用いたシルエットマッチングにより移動領域の有無を抽出する構成を採用している。したがって、全体画像を用いている間に移動領域が抽出され拡大画像が生成されると、拡大画像が得られた時点よりも前に得られているエッジ画像から拡大画像を生成する必要がある。
(Embodiment 2)
In the first embodiment, the presence / absence of a moving region is always extracted by silhouette matching using the entire image, and an enlarged image is generated when the moving region is extracted, and the presence / absence of the moving region is extracted by silhouette matching using the enlarged image. The structure to be adopted is adopted. Therefore, when a moving region is extracted and an enlarged image is generated while using the entire image, it is necessary to generate an enlarged image from an edge image obtained before the enlarged image is obtained.

本実施形態では、拡大画像が生成されるとシルエットマッチングを行わずに時系列において隣接する2枚のエッジ画像の差分画像を生成し、差分画像において移動領域が抽出されている間には拡大画像による処理を継続する構成を採用したものである。したがって、第2の移動領域抽出手段には、論理演算部14bに代えて差分画像を生成する差分演算部を用い、移動判定部15bに代えて差分画像から移動領域の有無を判定する移動判定部を用いる。   In the present embodiment, when an enlarged image is generated, a difference image between two edge images adjacent in time series is generated without performing silhouette matching, and the enlarged image is extracted while the moving region is extracted in the difference image. The configuration in which the processing according to is continued is adopted. Therefore, the second moving area extracting means uses a difference calculating section that generates a difference image instead of the logic calculating section 14b, and a movement determining section that determines the presence or absence of a moving area from the difference image instead of the movement determining section 15b. Is used.

また、全体画像を用いてシルエットマッチングにより移動領域を抽出したときに、実施形態1のように過去のエッジ画像に遡って電子ズームによって拡大画像を生成するということはせず、第2の移動領域抽出手段による移動領域の抽出を行っている間に生成された拡大画像のみを用いて差分画像を生成する。差分画像を生成するには2枚の画像が必要であるから、第2の移動領域抽出手段により移動領域を抽出する状態に移行した直後の1枚の画像のみは差分画像を生成することができず、第2の移動領域抽出手段により移動領域を抽出する状態に移行した直後の1回だけは移動領域の抽出は行えない。ただし、移動領域の抽出ができない期間は移動領域が検出された直後において画像の1回の更新に要する期間程度であって短期間であるから、この間に部分領域から移動領域が消滅することはほとんどなく、実用上で問題は生じない。さらに、実施形態1と同様に、差分画像による移動領域の抽出からシルエットマッチングによる移動領域の抽出に移行した直後の2回は移動領域の抽出は行えない。   In addition, when the moving region is extracted by silhouette matching using the entire image, the enlarged image is not generated by electronic zooming back to the past edge image as in the first embodiment, and the second moving region is not generated. A difference image is generated using only an enlarged image generated during extraction of the moving region by the extraction means. Since two images are required to generate the difference image, only one image immediately after shifting to the state of extracting the moving area by the second moving area extracting means can generate the difference image. In other words, the moving area cannot be extracted only once immediately after the moving area is extracted by the second moving area extracting means. However, the period during which the moving area cannot be extracted is a period required for one update of the image immediately after the moving area is detected, and is a short period. Therefore, the moving area almost disappears from the partial area during this period. There is no problem in practical use. Further, similarly to the first embodiment, the moving area cannot be extracted twice immediately after the shift from the moving area extraction by the difference image to the moving area extraction by silhouette matching.

上述の動作によって、各部位の画像は図3のように変化する。図では時刻(T−3ΔT)から時刻(T+nΔT)までの(n+4)枚の画像について示している。このうち時刻(T−2ΔT)から時刻(T+(n−1)ΔT)までの期間において拡大画像が生成されている。   By the above operation, the image of each part changes as shown in FIG. In the figure, (n + 4) images from time (T-3ΔT) to time (T + nΔT) are shown. Among these, an enlarged image is generated in a period from time (T−2ΔT) to time (T + (n−1) ΔT).

図3(a)における時刻(T−3ΔT)以前と時刻(T+nΔT)以後とではエッジ画像記憶部13に記憶されたエッジ画像……、E(T−3ΔT)、E(T+nΔT)、……を用い、3枚ずつのエッジ画像を用いるシルエットマッチングにより、図3(b)のように、移動領域Dmを抽出することができる。図示例では、時刻(T−3ΔT)において移動領域Dmを含む部分領域Dpを設定した場合を想定している。時刻(T−3ΔT)において移動領域Dmが抽出され部分領域Dpが設定されると、次の時刻(T−2ΔT)では、拡大画像生成部16(図1参照)において拡大画像E(T−2ΔT)が生成される。さらに次の時刻(T−ΔT)以降にも拡大画像E(T−ΔT)、……が生成されるから、時刻(T−ΔT)以降は時系列において隣接するエッジ画像を用いて差分画像を求めることができる。   The edge images stored in the edge image storage unit 13 before the time (T-3ΔT) and after the time (T + nΔT) in FIG. 3A..., E (T-3ΔT), E (T + nΔT),. The moving region Dm can be extracted as shown in FIG. 3B by silhouette matching using three edge images. In the illustrated example, it is assumed that a partial region Dp including the moving region Dm is set at the time (T-3ΔT). When the moving area Dm is extracted and the partial area Dp is set at the time (T-3ΔT), at the next time (T-2ΔT), the enlarged image E (T-2ΔT) is displayed in the enlarged image generation unit 16 (see FIG. 1). ) Is generated. Further, since the enlarged image E (T−ΔT),... Is generated after the next time (T−ΔT), the difference image is generated using the adjacent edge images in time series after the time (T−ΔT). Can be sought.

すなわち、時刻(T−2ΔT)以降の拡大画像E(T−2ΔT)、……を用いて差分画像を生成すると、図3(c)のように、時刻(T−2ΔT)には差分画像を求めることができず、時刻(T−ΔT)以降において差分画像D(T−ΔT)、……を求めることが可能になる。得られた差分画像D(T−ΔT)、……には、移動領域Dmが含まれているから、移動判定部において移動領域Dmの大きさなどに基づいて人か否かを判定する。   That is, when the difference image is generated using the enlarged image E (T-2ΔT),... After the time (T-2ΔT), the difference image is displayed at the time (T-2ΔT) as shown in FIG. The difference image D (T−ΔT),... Can be obtained after the time (T−ΔT). Since the obtained difference image D (T−ΔT),... Includes the moving area Dm, the movement determining unit determines whether the person is a person based on the size of the moving area Dm.

図示例では、時刻(T+(n−1)ΔT)において差分画像D(T+(n−1)ΔT)による移動領域を求める処理を終了し、時刻(T+nΔT)にはシルエットマッチングにより移動領域を求める処理に移行する。ただし、時刻(T+nΔT)にはシルエットマッチングに必要なエッジ画像が得られていないから、シルエットマッチングにより移動領域を求める処理は、時刻(T+(n+2)ΔT)以降になる。   In the illustrated example, the process for obtaining the moving area based on the difference image D (T + (n-1) ΔT) at the time (T + (n−1) ΔT) ends, and the moving area is obtained by silhouette matching at the time (T + nΔT). Transition to processing. However, since an edge image necessary for silhouette matching is not obtained at time (T + nΔT), the process for obtaining a moving region by silhouette matching is after time (T + (n + 2) ΔT).

実施形態1と同様に、移動領域Dmを検出するための画像の領域を変更するから、画像の領域の変更に伴ってディスプレイ装置に表示する画像の領域を切り換えることにより、図3(d)のように、時刻(T−2ΔT)から時刻(T+(n−1)ΔT)までの期間には拡大された濃淡画像A(T−2ΔT)、……、A(T+(n−1)ΔT)が表示され、他の時刻には全体画像の領域に対応する濃淡画像が表示される。   As in the first embodiment, since the image area for detecting the movement area Dm is changed, the area of the image displayed on the display device is changed in accordance with the change of the image area. Thus, in the period from time (T−2ΔT) to time (T + (n−1) ΔT), the enlarged grayscale image A (T−2ΔT),..., A (T + (n−1) ΔT) Is displayed, and a grayscale image corresponding to the entire image area is displayed at other times.

他の構成および動作は実施形態1と同様であって、本実施形態の構成では拡大画像により移動領域を検出している間には2枚の画像の差分演算のみで得られる差分画像を用いて移動領域の有無を判断しているから、3枚以上の画像を必要とするシルエットマッチングに比較すると、処理量が少なくタイムラグの少ない処理が可能になる。また、拡大画像記憶部17も2枚ずつの拡大画像を格納していればよいから、拡大画像記憶部17に用いる半導体メモリの容量を小さくすることができる。   Other configurations and operations are the same as those of the first embodiment, and in the configuration of the present embodiment, a difference image obtained only by the difference calculation of two images is used while a moving region is detected by an enlarged image. Since the presence / absence of the moving region is determined, processing with a small processing amount and a small time lag is possible as compared with silhouette matching that requires three or more images. Further, since the enlarged image storage unit 17 only needs to store two enlarged images, the capacity of the semiconductor memory used for the enlarged image storage unit 17 can be reduced.

(実施形態3)
本実施形態は、実施形態1と実施形態2とを組み合わせた構成であって、全体画像において移動領域が検出され、拡大画像が生成されると、まず拡大画像の差分画像を生成することにより移動領域の存否を確認し、その後、シルエットマッチングに必要な3枚の拡大画像が揃った時点でシルエットマッチングによる移動領域の存否の確認を行うようにしたものである。したがって、差分画像は実質的には1枚だけ生成される。
(Embodiment 3)
The present embodiment is a combination of the first embodiment and the second embodiment, and when a moving area is detected in the entire image and an enlarged image is generated, the moving image is first generated by generating a differential image of the enlarged image. The presence / absence of a region is confirmed, and then the presence / absence of a moving region is confirmed by silhouette matching when three enlarged images necessary for silhouette matching are prepared. Therefore, substantially only one difference image is generated.

各部位の画像は図4のように変化する。図3と同様に時刻(T−3ΔT)から時刻(T+nΔT)までの(n+4)枚の画像について示している。実施形態2との相違点は、図3(b)に示すように実施形態2では拡大画像が得られている期間にはシルエットマッチングを行っていないが、本実施形態では図4(b)に示すように拡大画像が得られている間にもシルエットマッチングを行っている点である。   The image of each part changes as shown in FIG. As in FIG. 3, (n + 4) images from time (T-3ΔT) to time (T + nΔT) are shown. The difference from the second embodiment is that, as shown in FIG. 3B, silhouette matching is not performed in the period in which the enlarged image is obtained in the second embodiment, but in this embodiment, FIG. As shown, silhouette matching is performed while an enlarged image is obtained.

つまり、1枚目の拡大画像E(T−2ΔT)が得られる時刻(T−2ΔT)では、実質的に差分画像が選らず、2枚目の拡大画像E(T−ΔT)が得られる時刻(T−ΔT)において、差分画像D(T−ΔT)が得られる。ここまでは実施形態2の動作と同様である。次に時刻(T)になると、3枚の拡大画像はE(T−2ΔT)、E(T−ΔT)、E(T)が得られるから、シルエットマッチングが可能になり、差分画像は求めずに図3(b)のようにシルエットマッチングにより移動領域の存否を検出する。以後の処理は実施形態1と同様になる。   That is, at the time (T-2ΔT) at which the first enlarged image E (T-2ΔT) is obtained, the difference image is not substantially selected, and the time at which the second enlarged image E (T−ΔT) is obtained. In (T−ΔT), a difference image D (T−ΔT) is obtained. Up to this point, the operation is the same as that of the second embodiment. Next, at time (T), E (T−2ΔT), E (T−ΔT), and E (T) are obtained for the three enlarged images, so that silhouette matching is possible, and no difference image is obtained. Further, as shown in FIG. 3B, the presence / absence of the moving region is detected by silhouette matching. The subsequent processing is the same as in the first embodiment.

したがって、図3(d)に示した動作と同様に、図4(d)のように、時刻(T−2ΔT)から時刻(T+(n−1)ΔT)までの期間には拡大された濃淡画像A(T−2ΔT)、……、A(T+(n−1)ΔT)が表示され、他の時刻には全体画像の領域に対応する濃淡画像が表示される。   Therefore, similarly to the operation shown in FIG. 3D, as shown in FIG. 4D, in the period from the time (T−2ΔT) to the time (T + (n−1) ΔT), the enlarged shading is performed. Images A (T−2ΔT),..., A (T + (n−1) ΔT) are displayed, and gray images corresponding to the entire image area are displayed at other times.

他の構成および動作は実施形態1、実施形態2と同様であって、本実施形態の構成では拡大画像により移動領域を検出している間には2枚の画像の差分演算のみで得られる差分画像を用いて移動領域の有無を判断しているから、3枚以上の画像を必要とするシルエットマッチングに比較すると、拡大画像に移行した直後では処理量が少なくタイムラグの少ない処理が可能になる。   Other configurations and operations are the same as those of the first and second embodiments. In the configuration of the present embodiment, the difference obtained only by the difference calculation of the two images while the moving area is detected by the enlarged image. Since the presence / absence of a moving region is determined using an image, the processing amount is small and the time lag is small immediately after shifting to an enlarged image, as compared with silhouette matching that requires three or more images.

(実施形態4)
上述した各実施形態では、拡大画像を用いて移動領域を抽出する状態から全体画像を用いて移動領域を抽出する状態に復帰したときに、シルエットマッチングを行うものであるから、復帰後の3枚目の画像からしか移動領域を抽出することができない。1枚目の画像から移動領域を抽出するには実施形態1において説明したように、電子ズームにより拡大画像を得る場合にはエッジ画像記憶部13に格納されている過去のエッジ画像を用いることが考えられるが、拡大画像を得るために光学ズームを用いる場合には、この構成は採用することができない。
(Embodiment 4)
In each of the above-described embodiments, silhouette matching is performed when returning from a state in which a moving region is extracted using an enlarged image to a state in which a moving region is extracted using an entire image. The moving region can be extracted only from the eye image. In order to extract a moving area from the first image, as described in the first embodiment, when an enlarged image is obtained by electronic zoom, a past edge image stored in the edge image storage unit 13 is used. Though conceivable, this configuration cannot be adopted when using an optical zoom to obtain an enlarged image.

そこで、本実施形態では、全体画像について、あらかじめ移動領域を含まない背景のみのエッジ画像を基準画像としてエッジ画像記憶部13に格納している。したがって、拡大画像により移動領域を抽出する状態から全体画像を用いる状態に復帰したときに、エッジ画像記憶部13に格納してある基準画像との差分画像を生成し、シルエットマッチングが可能になる3枚目の画像が得られるまでは、差分画像によって移動領域の有無を判断する。3枚目の画像が得られるとシルエットマッチングが可能になるから、以後はシルエットマッチングを行う。ここに、基準画像は移動領域が検出されていない画像であるから、移動領域が検出された画像に対して3枚以上過去の画像を用いる。   Therefore, in the present embodiment, the entire edge image is stored in advance in the edge image storage unit 13 as a reference image, which is an edge image including only a background that does not include a moving region. Therefore, when returning from the state in which the moving area is extracted using the enlarged image to the state in which the entire image is used, a difference image from the reference image stored in the edge image storage unit 13 is generated, and silhouette matching is possible 3 Until the first image is obtained, the presence / absence of a moving region is determined from the difference image. Since silhouette matching becomes possible when the third image is obtained, silhouette matching is performed thereafter. Here, since the reference image is an image in which the moving area is not detected, three or more past images are used for the image in which the moving area is detected.

いま、図5に示すように、時刻(T−3ΔT)から時刻(T+(n+2)ΔT)までの期間において、図5(b)のように、シルエットマッチングを行うことにより時刻(T)で移動領域Dmが抽出されたとする。ここで、図5(a)に示すエッジ画像のうちシルエットマッチングに関わっていない基準画像であるエッジ画像E(T−3ΔT)は、移動領域を含んでいない背景のみの画像と考えられるから、このエッジ画像E(T−3ΔT)をエッジ画像記憶部13に格納する。   Now, as shown in FIG. 5, during the period from time (T-3ΔT) to time (T + (n + 2) ΔT), as shown in FIG. 5 (b), it moves at time (T) by performing silhouette matching. Assume that the region Dm is extracted. Here, the edge image E (T-3ΔT), which is a reference image not involved in silhouette matching, of the edge images shown in FIG. 5A is considered to be an image of only a background that does not include a moving region. The edge image E (T-3ΔT) is stored in the edge image storage unit 13.

拡大画像を用いて移動領域の有無を判断する処理は実施形態1ないし実施形態3のいずれかの構成を採用することができる。拡大画像を用いて移動領域の存否を確認する状態を終了し、時刻(T+nΔT)において全体画像により移動領域を抽出する処理に復帰すると、この時刻(T+nΔT)のエッジ画像E(T+nΔT)とエッジ画像記憶部13から読み出した基準画像であるエッジ画像E(T−3ΔT)との差分画像D(T+nΔT)を生成する。この差分画像D(T+nΔT)は、移動物体を含まないエッジ画像E(T−3ΔT)を基準にしているから、有意の差が生じたときには移動領域が存在するとみなすことができる。図示例では差分画像D(T+nΔT)に移動領域Dmが含まれている場合を示している。また、時刻(T+(n+1)ΔT)においても同様であって、エッジ画像E(T+(n+1)ΔT)と基準画像であるエッジ画像E(T−3ΔT)との差分画像D(T+(n+1)ΔT)を生成し、差分画像D(T+(n+1)ΔT)により移動領域Dmの有無を判断する。   The process of determining the presence or absence of a moving region using an enlarged image can employ any of the configurations of the first to third embodiments. When the state of confirming the presence / absence of the moving area is terminated using the enlarged image and the process returns to the process of extracting the moving area from the entire image at time (T + nΔT), the edge image E (T + nΔT) and the edge image at this time (T + nΔT) A difference image D (T + nΔT) from the edge image E (T-3ΔT) that is the reference image read from the storage unit 13 is generated. Since this difference image D (T + nΔT) is based on the edge image E (T−3ΔT) that does not include a moving object, it can be considered that a moving region exists when a significant difference occurs. In the illustrated example, a case where the moving area Dm is included in the difference image D (T + nΔT) is shown. The same is true at time (T + (n + 1) ΔT), and the difference image D (T + (n + 1)) between the edge image E (T + (n + 1) ΔT) and the edge image E (T−3ΔT) as the reference image. ΔT) is generated, and the presence / absence of the moving region Dm is determined based on the difference image D (T + (n + 1) ΔT).

時刻(T+(n+2)ΔT)においては、拡大画像により移動領域の有無を判断する処理からの復帰後に全体画像が3枚揃うから、この時点においてシルエットマッチングが可能になる。そこで、以後は、移動領域Dmを差分画像を用いて移動領域を抽出する状態からシルエットマッチングによって移動領域Dmを抽出する状態に移行する。   At time (T + (n + 2) ΔT), three images are prepared after returning from the process of determining the presence or absence of the moving region based on the enlarged image, and silhouette matching is possible at this point. Therefore, thereafter, the moving region Dm shifts from the state of extracting the moving region using the difference image to the state of extracting the moving region Dm by silhouette matching.

本実施形態では、拡大画像により移動領域の有無を判断している状態から全体画像により移動領域を抽出する処理に移行した時点から、タイムラグを生じることなく移動領域の抽出が可能になる。他の構成および動作は上述した他の実施形態と同様である。   In the present embodiment, the moving region can be extracted without causing a time lag from the time when the process proceeds to the process of extracting the moving region based on the entire image from the state where the presence or absence of the moving region is determined based on the enlarged image. Other configurations and operations are the same as those of the other embodiments described above.

(実施形態5)
本実施形態は、上述したいずれかの実施形態の構成とは別に焦電型赤外線センサ(図示せず)を用いて人を検知する人感センサを付加し、焦電型赤外線センサを用いて判断した人の検出と、画像を用いて判断した人の検出とを総合することにより、単体で人を検出するよりも精度よく人の存否を判断するものである。以下では、画像を用いて人の存否を検出するセンサを画像センサと呼び、焦電型赤外線センサを用いて人の存否を検出するセンサを焦電センサと呼ぶ。したがって、本実施形態は、上述した実施形態のいずれかの構成を有した画像センサに焦電センサを付加するとともに、画像センサと焦電センサとの出力を総合して動作を制御する総合制御部(図示せず)を付加した構成になる。なお、本実施形態では画像センサと焦電センサとの検知エリアを一致させているものとする。
(Embodiment 5)
This embodiment adds a human sensor for detecting a person using a pyroelectric infrared sensor (not shown) separately from the configuration of any of the above-described embodiments, and makes a determination using the pyroelectric infrared sensor. By combining the detection of the detected person and the detection of the person determined using the image, it is possible to determine the presence or absence of the person with higher accuracy than detecting the person alone. Hereinafter, a sensor that detects the presence or absence of a person using an image is referred to as an image sensor, and a sensor that detects the presence or absence of a person using a pyroelectric infrared sensor is referred to as a pyroelectric sensor. Therefore, this embodiment adds a pyroelectric sensor to the image sensor having any one of the configurations of the above-described embodiments, and comprehensively controls the operation by comprehensively outputting the image sensor and the pyroelectric sensor. (Not shown) is added. In the present embodiment, the detection areas of the image sensor and the pyroelectric sensor are assumed to be the same.

焦電センサの構成は周知であって、人から放射される熱線を検出する焦電型赤外線センサを用い、焦電型赤外線センサに出力変化が生じたときにリトリガラブルな保持タイマをトリガして保持タイマの出力を反転させ、保持タイマの出力が反転している期間は焦電型赤外線センサの検知エリア内に人が存在することを示す検知信号を出力する構成を有している。焦電型赤外線センサは微分形のセンサであり、入射する熱線量の変化の大きさに応じた出力を発生させる。したがって、検知エリア内に人が存在する場合であっても人が静止していれば熱線量が変化せず、検知エリア内に人が存在しないと誤認することになる。そこで、保持タイマを設けることにより保持タイマの時限時間内において熱線量の変化が生じると保持タイマを再トリガして検知信号を維持する構成を採用している。また、焦電型赤外線センサの受光面の前方には、焦電型赤外線センサの視野内に感度むらを生じさせる光学要素(レンズやミラー)を配置し、検知エリア内での人の微小な動きによって焦電型赤外線センサに入射する熱線量が変化するようにしてある。   The configuration of the pyroelectric sensor is well known, and it uses a pyroelectric infrared sensor that detects the heat rays radiated from a person, and triggers and holds a retriggerable holding timer when an output change occurs in the pyroelectric infrared sensor The output of the timer is inverted, and a detection signal indicating that a person is present in the detection area of the pyroelectric infrared sensor is output during a period in which the output of the holding timer is inverted. The pyroelectric infrared sensor is a differential sensor, and generates an output corresponding to the magnitude of change in incident heat dose. Therefore, even if a person exists in the detection area, if the person is stationary, the heat dose does not change, and it is mistaken that there is no person in the detection area. In view of this, a configuration is adopted in which a holding timer is provided to re-trigger the holding timer and maintain the detection signal when a change in heat dose occurs within the time limit of the holding timer. In front of the light receiving surface of the pyroelectric infrared sensor, an optical element (lens or mirror) that causes nonuniform sensitivity in the field of view of the pyroelectric infrared sensor is placed, so that minute movements of people in the detection area The heat dose incident on the pyroelectric infrared sensor is changed.

本実施形態で用いる総合制御部の動作を図6に示す。図6におけるステップS1,S2は上述した各実施形態における画像センサの動作である。ただし、画像センサの機能のうち拡大画像を用いて移動領域の存否を検出している状態から全体画像を用いて移動領域を抽出する状態に復帰させる際の判断は、上述した実施形態では図6におけるステップS3のみに相当するが、本実施形態ではステップS4〜S8の判断を付加している点が相違する。   The operation of the general control unit used in this embodiment is shown in FIG. Steps S1 and S2 in FIG. 6 are operations of the image sensor in each embodiment described above. However, in the embodiment described above, the determination when returning from the state in which the presence or absence of the moving region is detected using the enlarged image to the state in which the moving region is extracted using the entire image is performed in the above-described embodiment. However, the present embodiment is different in that the determination of steps S4 to S8 is added.

すなわち、画像センサにより移動領域(以下では、人という)が検出され(S1)、拡大画像が生成されると(S2)、拡大画像を用いて移動領域の存否が確認される(S3)。すなわち、ステップS1では図7(a)に示すように、人Mが画像センサで検出されることにより部分領域Dpが設定され、ステップS2では図7(b)に示すように、部分領域Dpを1画面に拡大した拡大画像が生成される。図7において符号Bで示す範囲は画像センサおよび焦電センサの検知エリアである。ここで、部分領域Dpにおいて人Mが移動していれば、焦電センサにおいても人Mが検出され検知信号が出力されるが、検知信号が出力されていなくとも画像センサで人Mが検出されていれば拡大画像が維持される。   That is, when a moving region (hereinafter referred to as a person) is detected by the image sensor (S1) and an enlarged image is generated (S2), the presence or absence of the moving region is confirmed using the enlarged image (S3). That is, in step S1, as shown in FIG. 7A, the partial area Dp is set by detecting the person M by the image sensor, and in step S2, the partial area Dp is set as shown in FIG. 7B. An enlarged image enlarged to one screen is generated. In FIG. 7, a range indicated by reference sign B is a detection area of the image sensor and pyroelectric sensor. Here, if the person M is moving in the partial area Dp, the person M is also detected in the pyroelectric sensor and a detection signal is output, but the person M is detected by the image sensor even if the detection signal is not output. If so, the enlarged image is maintained.

その後、部分領域Dpに人Mが存在するものの人Mが静止したとすると、画像センサと焦電センサとのいずれにおいても人Mが検出されなくなることがある。すなわち、ステップS3において拡大画像の中で人Mが検出されず、またステップS4において焦電センサでも人Mが検出なくなると、部分領域Dpに人Mが存在続けているものの静止していると判断し、所定の時限時間が経過するまでは拡大画像のままで維持する(S5)。時限時間が満了すると、人Mが部分領域Dpから出た可能性があるから、全体画像に復帰させ(S6)、画像センサにより人Mを検出する状態に復帰する(S1)。   Thereafter, if the person M is present in the partial region Dp but the person M is stationary, the person M may not be detected by either the image sensor or the pyroelectric sensor. That is, if the person M is not detected in the enlarged image in step S3 and the person M is not detected by the pyroelectric sensor in step S4, it is determined that the person M is still present in the partial region Dp but is still. The enlarged image is maintained until a predetermined time limit elapses (S5). When the time limit expires, there is a possibility that the person M has left the partial area Dp, so that the whole image is restored (S6), and the state where the person M is detected by the image sensor is restored (S1).

一方、ステップS2の後に図7(c)に示すように部分領域Dpから人Mが退出しても人Mが検知エリアBの中に存在し続けている場合には、画像センサで設定した拡大画像には人Mが存在しないが、焦電センサでは人Mが検出されることになる。そこで、ステップS3において人Mが検出されなくとも焦電センサで人Mが検出されるときには(S4)、検知エリアBの中に人Mが存在するものと判断し、拡大画像から全体画像に復帰させる(S7)。その後、焦電センサによっても人Mが検知されなくなれば(S8)、図7(d)のように検知エリアBから人Mが退出したものと判断し、画像センサにより人Mを検出する状態に復帰する(S1)。   On the other hand, if the person M continues to exist in the detection area B even after the person M leaves the partial area Dp as shown in FIG. 7C after step S2, the enlargement set by the image sensor is performed. The person M is not present in the image, but the person M is detected by the pyroelectric sensor. Therefore, even if the person M is not detected in step S3, when the person M is detected by the pyroelectric sensor (S4), it is determined that the person M exists in the detection area B, and the entire image is restored from the enlarged image. (S7). Thereafter, if the person M is no longer detected by the pyroelectric sensor (S8), it is determined that the person M has left the detection area B as shown in FIG. 7D, and the person M is detected by the image sensor. Return (S1).

上述した動作によって、出力手段19を通してディスプレイ装置に表示される画像は、たとえば図8のようになる。図7(a)の関係では全体画像において部分領域Dpが設定されるから、図8(a)のように全体画像の中に部分領域Dpが設定された画像が生成され、図7(b)の関係では図8(b)のように拡大画像の中で人Mが移動する。また、図7(c)のように部分領域Dpから人Mが退出したり、図7(d)のように検知エリアBから人Mが退出したりすれば、図8(c)(d)のように拡大画像においては人Mが存在しない状態となる。ただし、時限時間が終了すると表示される画像は全体画像になる。   An image displayed on the display device through the output unit 19 by the above-described operation is, for example, as shown in FIG. 7A, since the partial area Dp is set in the entire image, an image in which the partial area Dp is set in the entire image as shown in FIG. 8A is generated. In this relationship, the person M moves in the enlarged image as shown in FIG. Further, if the person M leaves the partial area Dp as shown in FIG. 7C, or if the person M leaves the detection area B as shown in FIG. 7D, FIGS. In this way, the person M does not exist in the enlarged image. However, when the time limit expires, the displayed image becomes the entire image.

以上説明した動作により、画像センサと焦電センサとを連携させて人Mを検出することが可能になるから、検知エリアBにおける人Mの存否に関する検出の確実性を高めることができる。また、拡大画像と全体画像との切換を適切に行うことができ、拡大画像で人Mの存否が判断できるときには拡大画像による詳細な情報を獲得でき、人Mが部分領域Dpから退出したときには、すぐに全体画像に戻して画像内で人Mを追跡することが可能になる。他の構成および動作は上述した他の実施形態と同様である。   By the operation described above, it is possible to detect the person M by linking the image sensor and the pyroelectric sensor, and therefore it is possible to improve the certainty of detection regarding the presence or absence of the person M in the detection area B. In addition, switching between the enlarged image and the entire image can be performed appropriately, and when the presence or absence of the person M can be determined from the enlarged image, detailed information based on the enlarged image can be acquired. When the person M leaves the partial area Dp, It becomes possible to immediately return to the whole image and track the person M in the image. Other configurations and operations are the same as those of the other embodiments described above.

(実施形態6)
本実施形態は、実施形態5と同様に画像センサと焦電センサとを備える構成において、人の検出前には誤検出を抑制し、しかも人の検出後には検出状態を維持しやすくするものであって、総合制御部(図示せず)において、人の検出前後において画像センサおよび焦電センサでの人の存在の検出に用いる判断条件を変化させる構成を採用している。本実施形態における判断条件は人を検出する感度と言い換えることができる。
(Embodiment 6)
The present embodiment is similar to the fifth embodiment in that the image sensor and the pyroelectric sensor are configured to suppress erroneous detection before detection of a person and to easily maintain the detection state after detection of a person. Therefore, the general control unit (not shown) adopts a configuration in which the judgment conditions used for detecting the presence of a person with the image sensor and the pyroelectric sensor are changed before and after the person is detected. The determination condition in the present embodiment can be rephrased as sensitivity for detecting a person.

画像センサにより人を検出する感度は、移動領域が規定時間内に検出される回数と、移動領域について人か否かを判定する閾値との少なくとも一方により調節することができる。すなわち、上述した各実施形態では移動領域が1回検出されると拡大画像を生成しているが、移動領域が連続する複数画像で検出されたときに拡大画像を生成するようにすれば、実質的に人を検出する感度を低下させたことになり人の誤検出を抑制することができる。また、人か否かを判定するために移動領域の面積を用いるとすれば、閾値を大きくすることにより遠方に存在する人や小動物などを検出する確率を低減させ、結果的に誤検出を抑制することになる。   The sensitivity with which the person is detected by the image sensor can be adjusted by at least one of the number of times the moving area is detected within a specified time and the threshold value for determining whether the moving area is a person. That is, in each of the above-described embodiments, an enlarged image is generated when the moving region is detected once. However, if the enlarged image is generated when the moving region is detected by a plurality of continuous images, substantially Therefore, the sensitivity of detecting a person is reduced, and the erroneous detection of a person can be suppressed. Also, if the area of the moving region is used to determine whether a person is a person, increasing the threshold value reduces the probability of detecting a person or small animal that is present in the distance, and consequently suppresses false detection. Will do.

また、焦電センサにより人を検出する感度は、焦電センサの出力を閾値で2値化することにより生成する検知パルスの規定時間内での個数と、前記閾値の値との少なくとも一方により調節することができる。すなわち、1個の検知パルスだけで拡大画像を生成するのではなく、所定時間内に複数個の検知パルスが得られたときに拡大画像を生成するようにすれば、実質的に感度を低下させたことになる。また、検知パルスを生成するために焦電センサの出力を2値化する閾値を高く設定すれば、遠方に存在する人や小動物のように焦電センサに入射する熱線量が少ない場合には検知パルスが発生せず、結果的に誤検出を抑制することができる。   The sensitivity of detecting a person by the pyroelectric sensor is adjusted by at least one of the number of detection pulses generated by binarizing the output of the pyroelectric sensor with a threshold value within a specified time and the threshold value. can do. In other words, if the enlarged image is generated when a plurality of detection pulses are obtained within a predetermined time instead of generating the enlarged image with only one detection pulse, the sensitivity is substantially reduced. That's right. Also, if the threshold for binarizing the output of the pyroelectric sensor to generate a detection pulse is set high, it will be detected if the heat dose incident on the pyroelectric sensor is small, such as a person or small animal that exists far away. No pulse is generated, and as a result, erroneous detection can be suppressed.

そこで、本実施形態では、画像センサと焦電センサとの感度を高低2段階に設定可能とし、画像センサと焦電センサとのどちらも人の存在の検出前にはともに低感度に設定しておき、人の存在の検出後には両方ともに高感度に設定する。たとえば、高感度の設定時には、画像センサでは移動領域が1回検出されると拡大画像に移行し、焦電センサでは検知パルスが1回出力されると検知信号を出力するように構成しておき、低感度の設定時には、画像センサでは移動領域が2回検出されると拡大画像に移行し、焦電センサでは検知パルスが2回出力されると検知信号を出力するように構成しておく。   Therefore, in this embodiment, the sensitivity of the image sensor and the pyroelectric sensor can be set in two steps, high and low, and both the image sensor and the pyroelectric sensor are set to low sensitivity before detecting the presence of a person. Both are set to high sensitivity after the presence of a person is detected. For example, when high sensitivity is set, the image sensor shifts to an enlarged image when the moving region is detected once, and the pyroelectric sensor outputs a detection signal when the detection pulse is output once. When the low sensitivity is set, the image sensor shifts to an enlarged image when the moving region is detected twice, and the pyroelectric sensor is configured to output a detection signal when the detection pulse is output twice.

この構成を採用することにより、常時は低感度にして遠方の人や小動物を誤検出するのを防止することができ、画像センサと焦電センサとのうちのどちらか一方でも人の存在を検出したときには、両方ともに高感度にして人の存在の検知を容易にするのである。したがって、焦電センサのみで人が検知された場合でも画像センサの感度を高めるから、拡大画像に迅速に移行させることが可能になる。また、画像センサのみで人が検知された場合でも焦電センサの感度が高くなるから、上述した保持タイマが再トリガされやすくなり、検知信号を維持しやすくなる。   By adopting this configuration, it is possible to prevent false detection of distant people and small animals at all times with low sensitivity, and detect the presence of a person in either the image sensor or pyroelectric sensor. When they do, both are highly sensitive to make it easier to detect the presence of a person. Therefore, even when a person is detected only by the pyroelectric sensor, the sensitivity of the image sensor is increased, so that it is possible to quickly shift to an enlarged image. Further, even when a person is detected only by the image sensor, the sensitivity of the pyroelectric sensor is increased, so that the above-described holding timer is easily re-triggered and the detection signal is easily maintained.

なお、本実施形態では、画像センサと焦電センサとのうちの一方が人を検知している間には両方ともに高感度に設定しているが、高感度に設定する時間を一定時間に制限する構成を採用してもよい。他の構成および動作は上述した各実施形態と同様である。   In the present embodiment, while one of the image sensor and the pyroelectric sensor is detecting a person, both are set to high sensitivity, but the time for setting high sensitivity is limited to a certain time. You may employ | adopt the structure to do. Other configurations and operations are the same as those of the above-described embodiments.

(実施形態7)
実施形態6の構成では、画像センサと焦電センサとの感度をともに2段階に切り換えているが、本実施形態は、実施形態5、6と同様に、画像センサと焦電センサとを備える構成を採用し、かつ画像センサにおいて人を検出する精度を2段階に切り換える構成を採用している。基本的な動作は実施形態2と同様であって、人を検出するまではシルエットマッチングによる人の検出を行い、人が検出された後には差分画像を用いて人の存否を検出する構成を採用している。ただし、実施形態2では画像センサのみを用いているのに対して、本実施形態では画像センサと焦電センサとのいずれか一方において人が検出されると、画像センサにおいて差分画像を用いて人の検出を行うようにしている。つまり、画像センサで人が検出されたときには、拡大画像の差分画像を用いるが、焦電センサにより人が検出され画像センサでは検出されないときには、全体画像の差分画像を用いて人を検出することになる。
(Embodiment 7)
In the configuration of the sixth embodiment, both the sensitivity of the image sensor and the pyroelectric sensor are switched in two stages, but this embodiment includes the image sensor and the pyroelectric sensor as in the fifth and sixth embodiments. And a configuration in which the accuracy of detecting a person in the image sensor is switched in two stages. The basic operation is the same as in the second embodiment, and a person is detected by silhouette matching until a person is detected, and after the person is detected, a difference image is used to detect the presence or absence of the person. is doing. However, in the second embodiment, only the image sensor is used. In the present embodiment, when a person is detected in either the image sensor or the pyroelectric sensor, the difference image is used in the image sensor. Is to be detected. That is, when a person is detected by the image sensor, the difference image of the enlarged image is used, but when a person is detected by the pyroelectric sensor and not detected by the image sensor, the person is detected using the difference image of the whole image. Become.

差分画像では2枚のエッジ画像を用いれば人を抽出することができるから、シルエットマッチングのように3枚のエッジ画像を用いる場合に比較すると、拡大画像を設定するまでに要する時間が短くなる。なお、全体画像について差分画像を用いて人を抽出する場合であっても、シルエットマッチングと同様に、人を含む部分領域を設定し、部分領域を1画面の大きさに拡大した拡大画像を生成する。   Since a difference image can extract a person by using two edge images, the time required to set an enlarged image is shorter than when using three edge images as in silhouette matching. Even when extracting a person using a difference image for the entire image, a partial area including a person is set and an enlarged image is generated by enlarging the partial area to the size of one screen as in the case of silhouette matching. To do.

この構成ではシルエットマッチングにより人を抽出する場合よりも拡大画像を生成するタイミングが1画像分だけ早くなり、それだけ拡大画像によって人の存否を確認できるようになるタイミングを早めることができる。つまり、シルエットマッチングにより移動領域を抽出する場合よりも、拡大画像によって人の存否を確認する期間を長くすることができる。他の構成および動作は上述した他の実施形態と同様である。なお、実施形態5ないし実施形態7において焦電センサを用いた例を示したが、焦電センサのようなパッシブ型の人感センサに代えて赤外線の投受光や超音波の送受信を行うアクティブ型の人感センサを画像センサと組み合わせることも可能である。   With this configuration, the timing for generating an enlarged image is one image earlier than when extracting a person by silhouette matching, and the timing at which a person can be confirmed by the enlarged image can be advanced accordingly. That is, it is possible to lengthen the period for confirming the presence / absence of a person using an enlarged image, compared to the case of extracting a moving region by silhouette matching. Other configurations and operations are the same as those of the other embodiments described above. In addition, although the example which used the pyroelectric sensor in Embodiment 5 thru | or Embodiment 7 was shown, it replaced with the passive human sensor like a pyroelectric sensor, and the active type which transmits / receives infrared rays and transmits / receives an ultrasonic wave It is also possible to combine the human sensor with an image sensor.

10 撮像手段
11 濃淡画像記憶部(画像記憶手段)
12 エッジ画像生成部
13 エッジ画像記憶部(画像記憶手段)
14a 論理演算部(第1の移動領域抽出手段)
14b 論理演算部(第2の移動領域抽出手段)
15a 移動判定部(第1の移動領域抽出手段)
15b 移動判定部(第2の移動領域抽出手段)
16 拡大画像生成手段
17 拡大画像記憶部(画像記憶手段)
DESCRIPTION OF SYMBOLS 10 Imaging means 11 Gray image storage part (image storage means)
12 edge image generation unit 13 edge image storage unit (image storage means)
14a Logical operation unit (first moving region extracting means)
14b Logical operation unit (second moving region extracting means)
15a Movement determination unit (first movement area extraction means)
15b Movement determination unit (second movement area extraction means)
16 Enlarged image generation means 17 Enlarged image storage unit (image storage means)

Claims (9)

対象空間を時間経過に伴って連続的に撮像する撮像手段と、撮像手段により撮像した複数枚の画像を記憶する画像記憶手段と、画像記憶手段に格納された画像のうち着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域を抽出する第1の移動領域抽出手段と、着目する画像内において第1の移動領域抽出手段により移動領域が抽出されると当該移動領域を含むように設定した部分領域を1画面の大きさに拡大した拡大画像を生成する拡大画像生成手段と、拡大画像のうちで着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域の存否を検出する第2の移動領域抽出手段とを備え、第2の移動領域抽出手段は、時系列において隣接する2枚ずつの拡大画像の差分画像により移動領域の存否を検出することを特徴とする画像を用いた移動物体検知装置。   An imaging unit that continuously captures the target space over time, an image storage unit that stores a plurality of images captured by the imaging unit, an image of interest among the images stored in the image storage unit, and the image A first moving area extracting means for extracting a moving area from the image of interest by comparing with a predetermined number of images in the past, and a moving area is extracted by the first moving area extracting means in the image of interest. Then, an enlarged image generating means for generating an enlarged image obtained by enlarging the partial area set to include the moving area to the size of one screen, an image of interest among the enlarged images, and a past specified number of the images Second moving region extracting means for detecting the presence or absence of the moving region in the image of interest by comparing the image with the second image, and the second moving region extracting means is adjacent in time series Moving object detection apparatus using an image and detecting the presence or absence of the moving region from the difference image by the two enlarged image. 対象空間を時間経過に伴って連続的に撮像する撮像手段と、撮像手段により撮像した複数枚の画像を記憶する画像記憶手段と、画像記憶手段に格納された画像のうち着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域を抽出する第1の移動領域抽出手段と、着目する画像内において第1の移動領域抽出手段により移動領域が抽出されると当該移動領域を含むように設定した部分領域を1画面の大きさに拡大した拡大画像を生成する拡大画像生成手段と、拡大画像のうちで着目する画像と当該画像に対する過去の規定枚数の画像とを比較することにより着目する画像の中で移動領域の存否を検出する第2の移動領域抽出手段とを備え、第2の移動領域抽出手段は、着目する拡大画像と過去の規定の複数枚の拡大画像とのそれぞれの差分画像において共通する領域を移動領域として検出するとともに、第1の移動領域抽出手段から処理が移行された後に前記規定の複数枚の拡大画像が得られるまでの期間は、時系列において隣接する2枚ずつの拡大画像の差分画像により移動領域の存否を検出することを特徴とする画像を用いた移動物体検知装置。   An imaging unit that continuously captures the target space over time, an image storage unit that stores a plurality of images captured by the imaging unit, an image of interest among the images stored in the image storage unit, and the image A first moving area extracting means for extracting a moving area from the image of interest by comparing with a predetermined number of images in the past, and a moving area is extracted by the first moving area extracting means in the image of interest. Then, an enlarged image generating means for generating an enlarged image obtained by enlarging the partial area set to include the moving area to the size of one screen, an image of interest among the enlarged images, and a past specified number of the images Second moving region extracting means for detecting the presence or absence of the moving region in the image of interest by comparing with the image of the second image. A common area in each difference image with the plurality of prescribed enlarged images is detected as a moving area, and the prescribed plural enlarged images are obtained after the processing is shifted from the first moving area extracting means. A moving object detection apparatus using an image characterized in that the presence or absence of a moving region is detected from a difference image between two enlarged images that are adjacent in time series for a period until it is determined. 前記画像記憶手段は、前記拡大画像生成手段により拡大画像を生成する前において移動領域が検出されていない状態の画像を基準画像として記憶し、第2の移動領域抽出手段により移動領域が検出されなくなり第1の移動領域抽出手段により移動領域を抽出する処理に復帰したときに着目する画像と基準画像との差分を用いて移動領域を抽出することを特徴とする請求項1または請求項2記載の画像を用いた移動物体検知装置。   The image storage means stores, as a reference image, an image in which no moving area is detected before the enlarged image generating means generates the enlarged image, and the moving area is not detected by the second moving area extracting means. 3. The moving area is extracted using a difference between an image of interest and a reference image when returning to the process of extracting the moving area by the first moving area extracting means. Moving object detection device using images. 前記撮像手段により撮像した画像から移動領域として人を検出する検知エリアに一致する検知エリアを有し画像を用いることなく検知エリア内の人の存否を検出する人感センサが付加され、前記画像による人の検出と人感センサによる人の検出との結果の組合せにより第1の移動領域抽出手段と第2の移動領域抽出手段との処理を択一的に選択する総合制御部を備えることを特徴とする請求項1ないし請求項3のいずれか1項に記載の画像を用いた移動物体検知装置。   A human sensor for detecting the presence or absence of a person in the detection area without using an image having a detection area that coincides with a detection area for detecting a person as a moving area from the image picked up by the image pickup means is added. And a general control unit that selectively selects processing of the first moving region extracting unit and the second moving region extracting unit based on a combination of results of human detection and human detection by a human sensor. A moving object detection apparatus using the image according to any one of claims 1 to 3. 前記総合制御部は、第2の移動領域抽出手段が人の存在を検出せず、かつ前記人感センサが人の存在を検出しているときには、第1の移動領域抽出手段により移動領域を抽出する処理に復帰させることを特徴とする請求項4記載の画像を用いた移動物体検知装置。   The comprehensive control unit extracts a moving area by the first moving area extracting unit when the second moving area extracting unit does not detect the presence of the person and the human sensor detects the presence of the person. The moving object detection apparatus using an image according to claim 4, wherein the process is returned to the process. 前記総合制御部は、第1の移動領域抽出手段と第2の移動領域抽出手段とを選択する判断条件を変更可能であって、第1の移動領域抽出手段と前記人感センサとの少なくとも一方が人の存在を検出している期間には、両方が人の存在を検出していない期間に比較して、人の存在を検出しやすくなるように判断条件を設定することを特徴とする請求項4記載の画像を用いた移動物体検知装置。   The comprehensive control unit can change a determination condition for selecting the first moving region extracting unit and the second moving region extracting unit, and is at least one of the first moving region extracting unit and the human sensor. In the period in which the presence of a person is detected, a judgment condition is set so that it is easier to detect the presence of a person compared to a period in which both do not detect the presence of a person. Item 5. A moving object detection apparatus using the image according to item 4. 前記判断条件は、規定時間内に人を検出する回数であって当該回数に達したときに人が存在すると判断し、人の存在の検出後には検出前よりも当該回数を少なく設定することを特徴とする請求項6記載の画像を用いた移動物体検知装置。   The determination condition is the number of times that a person is detected within a specified time, and when the number of times is reached, it is determined that a person exists, and after the detection of the presence of a person, the number of times is set to be less than before detection The moving object detection apparatus using an image according to claim 6. 前記判断条件は、人か否かを判断するために用いる閾値であって当該閾値を越えるときに人が存在すると判断し、人の存在の検出後には検出前よりも当該閾値を低く設定することを特徴とする請求項6記載の画像を用いた移動物体検知装置。   The determination condition is a threshold used to determine whether or not a person is present. When the threshold is exceeded, it is determined that a person is present, and the threshold is set lower than before detection after the presence of a person is detected. The moving object detection apparatus using the image according to claim 6. 前記総合制御部は、第1の移動領域抽出手段と前記人感センサとの両方が人の存在を検出していない期間には、着目する画像と過去の規定の複数枚の画像とのそれぞれの差分画像において共通する領域を移動領域として検出するとともに移動領域が人か否かを判定し、第1の移動領域抽出手段と前記人感センサとの少なくとも一方が人の存在を検出している期間には、時系列において隣接する2枚ずつの画像の差分画像により移動領域の存否を検出することを特徴とする請求項4記載の画像を用いた移動物体検知装置。   In the period when both the first moving region extracting means and the human sensor do not detect the presence of a person, the comprehensive control unit is configured to display each of the focused image and a plurality of past prescribed images. A period in which a common area in the difference image is detected as a moving area, it is determined whether the moving area is a person, and at least one of the first moving area extracting means and the human sensor detects the presence of a person 5. The moving object detection device using an image according to claim 4, wherein the presence / absence of a moving region is detected from a difference image between two adjacent images in time series.
JP2010216225A 2010-09-27 2010-09-27 Moving object detection device using images Expired - Fee Related JP4900506B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010216225A JP4900506B2 (en) 2010-09-27 2010-09-27 Moving object detection device using images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010216225A JP4900506B2 (en) 2010-09-27 2010-09-27 Moving object detection device using images

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005187225A Division JP4645321B2 (en) 2005-06-27 2005-06-27 Moving object detection device using images

Publications (2)

Publication Number Publication Date
JP2011023035A JP2011023035A (en) 2011-02-03
JP4900506B2 true JP4900506B2 (en) 2012-03-21

Family

ID=43632987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010216225A Expired - Fee Related JP4900506B2 (en) 2010-09-27 2010-09-27 Moving object detection device using images

Country Status (1)

Country Link
JP (1) JP4900506B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4613558B2 (en) * 2003-09-16 2011-01-19 パナソニック電工株式会社 Human body detection device using images
JP2005109557A (en) * 2003-09-26 2005-04-21 Toshiba Corp Monitor and monitoring method

Also Published As

Publication number Publication date
JP2011023035A (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP6650677B2 (en) Video processing apparatus, video processing method, and program
US9542754B2 (en) Device and method for detecting moving objects
JP5274216B2 (en) Monitoring system and monitoring method
JP5218168B2 (en) Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system
JP4694589B2 (en) Automatic monitoring system
JP2008113071A (en) Automatic tracking device
JP5832910B2 (en) Image monitoring device
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP2014123261A (en) Information processor and recording medium
JPWO2012004938A1 (en) Vehicle periphery monitoring device
US20130301877A1 (en) Image reading out control apparatus, image reading out control method thereof and storage medium
JP2021176243A (en) Image processing apparatus, control method for the same, and imaging apparatus
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
JP4913801B2 (en) Shielding object image identification apparatus and method
JP4645321B2 (en) Moving object detection device using images
JP5955170B2 (en) Display control apparatus, display control method, and program
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
JP4664878B2 (en) Image processing device
JP4740755B2 (en) Monitoring device using images
JP4900506B2 (en) Moving object detection device using images
JP2018133042A (en) Left object detector
JP2014182637A (en) Image processor, image processing method and image processing program
JP6939065B2 (en) Image recognition computer program, image recognition device and image recognition method
JP2017005485A (en) Picture monitoring device and picture monitoring method
JP2007336431A (en) Video monitoring apparatus and method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees