JP2003052034A - Monitoring system using stereoscopic image - Google Patents

Monitoring system using stereoscopic image

Info

Publication number
JP2003052034A
JP2003052034A JP2001237605A JP2001237605A JP2003052034A JP 2003052034 A JP2003052034 A JP 2003052034A JP 2001237605 A JP2001237605 A JP 2001237605A JP 2001237605 A JP2001237605 A JP 2001237605A JP 2003052034 A JP2003052034 A JP 2003052034A
Authority
JP
Japan
Prior art keywords
image
image pickup
scanning line
distance information
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001237605A
Other languages
Japanese (ja)
Other versions
JP3862977B2 (en
Inventor
Toshiji Takei
利治 武居
Yasuhiro Takemura
安弘 竹村
Kazuhiro Mimura
一弘 味村
Kei Kato
圭 加藤
Masato Nakajima
真人 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Original Assignee
Sumitomo Osaka Cement Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd filed Critical Sumitomo Osaka Cement Co Ltd
Priority to JP2001237605A priority Critical patent/JP3862977B2/en
Priority to PCT/JP2002/007980 priority patent/WO2003015411A1/en
Publication of JP2003052034A publication Critical patent/JP2003052034A/en
Application granted granted Critical
Publication of JP3862977B2 publication Critical patent/JP3862977B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a simple monitoring system capable of accurately monitoring a target region, and also performing high speed processing. SOLUTION: This monitoring system 1 is provided with a first image pickup element 11 having the first number of scanning lines 13 for imaging a region to be monitored, a second image pickup element 12 arranged in parallel with the first image pickup element 11 in the scanning direction having the second number of scanning lines 14 for imaging the region to be monitored, a scanning line extracting means 22 for extracting the third number of mutually corresponding scanning lines which is smaller than either the first number or the second number from the first image pickup element 11 and the second image pickup element 12, a distance information acquiring means 23 for acquiring distance information to an object 2 based on a picture formed on the scanning line extracted by the scanning line extracting means 22, and a detection processing means 27 for monitoring the object 2 by using the distance acquired by the distance information acquiring means 23.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、監視システムに関
し、特にCCDカメラやCMOSセンサ等を用いて対象
領域内の物体や人物の高さや姿勢の変化を監視するため
の監視システムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance system, and more particularly to a surveillance system for monitoring changes in height or posture of an object or a person in a target area by using a CCD camera, a CMOS sensor or the like.

【0002】[0002]

【従来の技術】病院の病室内あるいはトイレ内等の異常
を知るための監視システムとして、従来から、2つのカ
メラで監視対象領域の画像を撮影し、対象領域内の物体
や人物の状態を監視する装置があった。
2. Description of the Related Art Conventionally, as a monitoring system for knowing an abnormality in a hospital room, a toilet, etc., two cameras have conventionally taken images of a monitoring target area to monitor the state of objects and persons in the target area. There was a device to do.

【0003】[0003]

【発明が解決しようとする課題】しかしながら以上のよ
うな従来の装置によれば、対象領域の監視は、2つのカ
メラにより撮像されたステレオ画像から各々の画像の対
応点の検出等の処理をしなければならないため、計算量
が多くなり煩雑な処理を必要とするだけでなく、複雑な
装置を必要としていた。
However, according to the conventional apparatus as described above, the target area is monitored by performing processing such as detection of corresponding points of stereo images picked up by the two cameras. Therefore, not only the amount of calculation increases and complicated processing is required, but also a complicated device is required.

【0004】そこで本発明は、正確な対象領域内の監視
を行えるだけでなく、高速処理が可能で、かつ簡易であ
る監視システムを提供することを目的としている。
Therefore, an object of the present invention is to provide a monitoring system that not only can accurately monitor the target area but also can perform high-speed processing and is simple.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に係る発明による監視システム1は、例え
ば図1、図2、図3に示すように、監視対象領域を撮像
する第1の本数の走査線13を有する第1の撮像素子1
1と;第1の撮像素子11と走査線方向に並列に設けら
れ、前記監視対象領域を撮像する第2の本数の走査線1
4を有する第2の撮像素子12と;第1の撮像素子11
と第2の撮像素子12との2つの撮像素子から、前記第
1の本数と前記第2の本数とのいずれかより少ない第3
の本数の互いに対応する走査線15、16を抽出する走
査線抽出手段22と;走査線抽出手段22により抽出さ
れた前記走査線上に形成された画像に基づいて、対象物
2までの距離情報を取得する距離情報取得手段23と;
距離情報取得手段23により取得された距離情報を用い
て、対象物2を監視する検出処理手段27とを備える。
In order to achieve the above object, a monitoring system 1 according to the first aspect of the present invention, as shown in FIG. 1, FIG. 2 and FIG. First imaging device 1 having one scanning line 13
1; a second number of scanning lines 1 that are provided in parallel with the first image sensor 11 in the scanning line direction and image the monitoring target region.
A second image pickup device 12 having 4; a first image pickup device 11
From the two image pickup devices, the image pickup device and the second image pickup device 12, a third image pickup device which is smaller in number than the first image pickup device and the second image pickup device.
Scanning line extracting means 22 for extracting the scanning lines 15 and 16 corresponding to each other; and the distance information to the object 2 based on the image formed on the scanning lines extracted by the scanning line extracting means 22. Distance information acquisition means 23 to acquire;
The detection processing unit 27 that monitors the object 2 using the distance information acquired by the distance information acquisition unit 23.

【0006】このように構成すると、第1の撮像素子1
1と、第2の撮像素子12と、走査線抽出手段22と、
距離情報取得手段23と、検出処理手段27とを備える
ので、第1の撮像素子11と第2の撮像素子12との2
つの撮像素子から、前記第1の本数と前記第2の本数と
のいずれかより少ない第3の本数の互いに対応する走査
線15、16を抽出し、抽出された前記走査線上に形成
された画像に基づいて、対象物2までの距離情報を取得
して、取得された距離情報を用いて、対象物2を監視す
ることで、正確な対象領域内の監視を行えるだけでな
く、高速処理が可能で、かつ簡易である監視システムを
提供することができる。
With this configuration, the first image pickup device 1
1, the second image sensor 12, the scanning line extracting means 22,
Since the distance information acquisition unit 23 and the detection processing unit 27 are provided, two of the first image pickup device 11 and the second image pickup device 12 are provided.
An image formed on the extracted scanning lines by extracting the scanning lines 15 and 16 corresponding to each other with a third number smaller than either the first number or the second number from one image sensor. Based on the above, by acquiring the distance information to the target object 2 and monitoring the target object 2 using the acquired distance information, not only accurate monitoring of the target area can be performed but also high-speed processing can be performed. It is possible to provide a monitoring system that is possible and simple.

【0007】また、監視システム1は、距離情報取得手
段23により取得された距離情報から、対象物2の位置
情報を算出する手段27を備え、検出処理手段27は、
対象物2までの距離情報と前記位置情報とに基づいて、
対象物2を監視するように構成してもよい。
The monitoring system 1 also comprises means 27 for calculating the position information of the object 2 from the distance information acquired by the distance information acquisition means 23, and the detection processing means 27 comprises:
Based on the distance information to the object 2 and the position information,
It may be configured to monitor the object 2.

【0008】また請求項2に記載のように、請求項1に
記載の監視システム1では、距離情報取得手段23は;
2つの撮像素子11、12の各々について、異なる時間
に撮像された画像の前記抽出された走査線15、16の
各々の上に形成される画像の画像情報から差画像を形成
する差画像形成手段24と;前記差画像を構成する各画
素値の絶対値が、所定の閾値よりも大なる画素で区切ら
れた領域の中で、最大の領域を抽出する領域抽出手段2
5とを備えるようにするとよい。
Further, as described in claim 2, in the surveillance system 1 described in claim 1, the distance information acquisition means 23 includes:
Difference image forming means for forming a difference image from the image information of the image formed on each of the extracted scanning lines 15 and 16 of the images captured at different times for each of the two image pickup devices 11 and 12. 24; and area extracting means 2 for extracting the maximum area among the areas in which the absolute value of each pixel value forming the difference image is divided by pixels larger than a predetermined threshold value.
5 and 5 are preferably provided.

【0009】また請求項3に記載のように、請求項2に
記載の監視システム1では、距離情報取得手段23は、
2つの撮像素子11、12により撮像された各々の画像
に対応する差画像から領域抽出手段25により抽出され
た前記最大の領域同士の相関出力値を算出する相関出力
算出手段26を備え;前記相関出力値に基づき対象物2
までの距離情報を取得することを特徴とする。
Further, as described in claim 3, in the monitoring system 1 described in claim 2, the distance information acquisition means 23 is
The correlation output calculating means 26 is provided for calculating the correlation output value of the maximum areas extracted by the area extracting means 25 from the difference image corresponding to each image picked up by the two image pickup elements 11 and 12; Object 2 based on output value
It is characterized by acquiring distance information up to.

【0010】また請求項4に記載のように、請求項2に
記載の監視システム1では、距離情報取得手段23は、
2つの撮像素子11、12により撮像された各々の画像
に対応する差画像から領域抽出手段25により抽出され
た前記最大の領域の中で、それぞれ前記閾値より大なる
画素の対応を求め、対応する画素の位置ずれに基づき対
象物2までの距離情報を取得することを特徴とする。
Further, as described in claim 4, in the monitoring system 1 described in claim 2, the distance information acquisition means 23 is
In the maximum area extracted by the area extracting means 25 from the difference image corresponding to each image captured by the two image pickup devices 11 and 12, the correspondence of the pixels larger than the threshold value is obtained, and the correspondence is obtained. It is characterized in that the distance information to the object 2 is acquired based on the displacement of the pixel.

【0011】また請求項5に記載のように、請求項1乃
至請求項4のいずれか1項に記載の監視システム1で
は、互いに対応する走査線15、16上に形成された画
像は、同期して抽出されることを特徴とする。
According to a fifth aspect, in the surveillance system 1 according to any one of the first to fourth aspects, the images formed on the scanning lines 15 and 16 corresponding to each other are synchronized. It is characterized by being extracted.

【0012】また請求項6に記載のように、請求項1乃
至請求項5のいずれか1項に記載の監視システム1で
は、走査線抽出手段22は、少なくとも2本の走査線を
抽出することを特徴とする。
Further, as described in claim 6, in the monitoring system 1 according to any one of claims 1 to 5, the scanning line extracting means 22 extracts at least two scanning lines. Is characterized by.

【0013】また請求項7に記載のように、請求項1乃
至請求項6のいずれか1項に記載の監視システム1で
は、さらに、第1の撮像素子11における対象物2を走
査する走査線13と、第2の撮像素子12における対象
物2を走査する走査線14に対して、相関値を演算する
手段28を備え;前記演算された相関値が最大化される
ように、第1の撮像素子11と第2の撮像素子12の位
置関係を定めることを特徴とする。
Further, as described in claim 7, in the surveillance system 1 according to any one of claims 1 to 6, the scanning line for scanning the object 2 in the first image pickup device 11 is further added. 13 and means 28 for calculating a correlation value with respect to the scanning line 14 for scanning the object 2 in the second image pickup device 12; the first so that the calculated correlation value is maximized. It is characterized in that the positional relationship between the image sensor 11 and the second image sensor 12 is determined.

【0014】また請求項8に記載のように、請求項1乃
至請求項6のいずれか1項に記載の監視システム1で
は、さらに、第1の撮像素子11における対象物2を走
査する走査線13と、第2の撮像素子12における対象
物2を走査する走査線14に対して、相関値を演算する
手段28と;前記演算された相関値が最大化されるよう
に、第1の撮像素子11の走査線13と第2の撮像素子
12の走査線14との位置対応関係を定める対応走査線
選択手段29とを備えるとよい。
Further, as described in claim 8, in the surveillance system 1 according to any one of claims 1 to 6, a scanning line for scanning the object 2 in the first image pickup device 11 is further added. 13 and means 28 for calculating a correlation value with respect to the scanning line 14 for scanning the object 2 in the second image pickup device 12; the first image pickup so that the calculated correlation value is maximized. Corresponding scanning line selection means 29 that determines the positional correspondence between the scanning line 13 of the element 11 and the scanning line 14 of the second image sensor 12 may be provided.

【0015】また請求項9に記載のように、請求項1項
乃至請求項8のいずれか1項に記載の監視システム1で
は、撮像素子11、12はCCDカメラ、若しくはCM
OSセンサであることを特徴とする。
Further, as described in claim 9, in the surveillance system 1 according to any one of claims 1 to 8, the image pickup elements 11 and 12 are CCD cameras or CMs.
It is an OS sensor.

【0016】上記目的を達成するために、請求項10に
係る発明による監視システム1は、例えば図4に示すよ
うに、監視対象領域を撮像する2つの撮像素子11、1
2であって、2つの撮像素子11、12間で互いに対応
させた複数の1次元受光素子アレイ17、18から構成
される撮像素子11、12と;1次元受光素子アレイ1
7、18上に形成された画像に基づいて、対象物2まで
の距離情報を取得する距離情報取得手段23と;距離情
報取得手段23により取得された距離情報を用いて、対
象物2を監視する検出処理手段27とを備える。
In order to achieve the above-mentioned object, a monitoring system 1 according to a tenth aspect of the present invention, for example, as shown in FIG.
2 and the image pickup elements 11 and 12 each composed of a plurality of one-dimensional light receiving element arrays 17 and 18 corresponding to each other between the two image pickup elements 11 and 12, and the one-dimensional light receiving element array 1
Distance information acquisition means 23 for acquiring distance information to the object 2 based on the images formed on 7, 18; and monitoring the object 2 using the distance information acquired by the distance information acquisition means 23. Detection processing means 27 for

【0017】このように構成すると、2つの撮像素子1
1、12間で互いに対応させた複数の1次元受光素子ア
レイ17、18から構成される撮像素子11、12と、
距離情報取得手段23と、検出処理手段27とを備える
ので、1次元受光素子アレイ17、18上に形成された
画像に基づいて、対象物2までの距離情報を取得し、取
得された距離情報を用いて、対象物2を監視すること
で、正確な対象領域内の監視を行えるだけでなく、高速
処理が可能で、かつ簡易である監視システムを提供する
ことができる。
With this configuration, the two image pickup devices 1
Image pickup elements 11 and 12 each composed of a plurality of one-dimensional light-receiving element arrays 17 and 18 corresponding to each other between 1 and 12;
Since the distance information acquisition unit 23 and the detection processing unit 27 are provided, the distance information to the object 2 is acquired based on the images formed on the one-dimensional light receiving element arrays 17 and 18, and the acquired distance information is acquired. By monitoring the target object 2 by using, it is possible to provide not only accurate monitoring of the target region, but also a high-speed processing and simple monitoring system.

【0018】上記目的を達成するために、請求項11に
係る発明による監視方法は、第1の本数の走査線を有す
る2つの撮像素子と、第2の本数の走査線を有する第2
の撮像素子との2つの撮像素子により監視対象領域を撮
像する撮像工程と;前記2つの撮像素子から、第1の本
数と第2の本数とのいずれかより少ない第3の本数の互
いに対応する走査線を抽出する走査線抽出工程と;前記
走査線抽出工程により抽出された前記走査線上に形成さ
れた画像に基づいて、前記対象物までの距離情報を取得
する距離情報取得工程と;前記距離情報取得工程により
取得された距離情報を用いて、前記対象物を監視する検
出処理工程とを備える。
In order to achieve the above object, a monitoring method according to an eleventh aspect of the present invention is a monitoring method according to an eleventh aspect, in which two image pickup elements having a first number of scanning lines and a second image pickup element having a second number of scanning lines are provided.
And an image pickup step of picking up an image of a monitoring target area by two image pickup elements; and a third number smaller than either the first number or the second number from the two image pickup elements corresponding to each other. A scanning line extracting step of extracting a scanning line; a distance information acquiring step of acquiring distance information to the object based on an image formed on the scanning line extracted by the scanning line extracting step; And a detection processing step of monitoring the object using the distance information acquired in the information acquisition step.

【0019】このように構成すると、撮像工程と、走査
線抽出工程と、距離情報取得工程と、検出処理工程とを
備えるので、前記2つの撮像素子から、第1の本数と第
2の本数とのいずれかより少ない第3の本数の互いに対
応する走査線を抽出し、前記走査線抽出工程により抽出
された前記走査線上に形成された画像に基づいて、前記
対象物までの距離情報を取得し、取得された距離情報を
用いて、前記対象物を監視することで、正確な対象領域
内の監視を行えるだけでなく、高速処理が可能である監
視方法を提供することができる。
According to this structure, the image pickup step, the scanning line extraction step, the distance information acquisition step, and the detection processing step are included. Therefore, the first image pickup device and the second image pickup device can be selected from the two image pickup devices. A third number of scanning lines corresponding to each other, which is smaller than any one of the above, is extracted, and distance information to the object is acquired based on the image formed on the scanning lines extracted by the scanning line extracting step. By monitoring the object using the acquired distance information, it is possible to provide not only an accurate monitoring of the target area but also a monitoring method capable of high-speed processing.

【0020】また請求項12に記載のように、請求項1
1に記載の監視方法では、前記2つの撮像素子のうち、
第1の撮像素子における前記対象物を走査する走査線
と、前記走査線に対応する第2の撮像素子における前記
対象物を走査する走査線とが同一平面上に存在するよう
に、前記第1の撮像素子と第2の撮像素子の位置関係を
定めるとよい。
Further, as described in claim 12, claim 1
In the monitoring method according to item 1, among the two image pickup devices,
The first scan line for scanning the object in the first image sensor and the scan line scan for the target in the second image sensor corresponding to the scan line are on the same plane. The positional relationship between the image pickup device and the second image pickup device may be determined.

【0021】また請求項13に記載のように、請求項1
1又は請求項12に記載の監視方法では、前記2つの撮
像素子のうち、第1の撮像素子における前記対象物を走
査する走査線と、第2の撮像素子における前記対象物を
走査する走査線に対して、相関値を演算する工程を備
え;前記演算された相関値が最大化されるように、前記
第1の撮像素子と第2の撮像素子の位置関係を定めると
よい。
Further, as described in claim 13, claim 1
In the monitoring method according to claim 1 or 12, among the two image pickup elements, a scanning line that scans the object in the first image pickup element and a scanning line that scans the object in the second image pickup element. On the other hand, a step of calculating a correlation value is provided; the positional relationship between the first image pickup device and the second image pickup device may be determined so that the calculated correlation value is maximized.

【0022】[0022]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。なお、各図において互い
に同一あるいは相当する部材には同一符号または類似符
号を付し、重複した説明は省略する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. In each drawing, the same or corresponding members are designated by the same reference numerals or similar reference numerals, and redundant description will be omitted.

【0023】図1は、本発明による実施の形態である監
視システム1の模式的斜視図である。図中対象物2が床
面3上に存在している。XY軸を床面3内に置くよう
に、直交座標系XYZがとられている。また床面3と垂
直即ちYZ平面上に壁4が形成されている。対象物2
は、本実施の形態では人物である。
FIG. 1 is a schematic perspective view of a monitoring system 1 according to an embodiment of the present invention. In the figure, the object 2 is present on the floor surface 3. An orthogonal coordinate system XYZ is set so that the XY axes are placed on the floor surface 3. A wall 4 is formed perpendicular to the floor surface 3, that is, on the YZ plane. Object 2
Is a person in the present embodiment.

【0024】一方、図中壁4には、監視対象領域を撮像
する第1の本数の走査線13(図3参照)を有する第1
の撮像素子11と、第2の本数の走査線14(図3参
照)を有する第2の撮像素子12とが設置されている。
第1の撮像素子11と第2の撮像素子12とは、走査線
方向に並列に設置されている。第1の撮像素子11と第
2の撮像素子12は、典型的にはCCDカメラである
が、CMOSセンサを用いてもよい。また本実施の形態
では、第1の撮像素子11と第2の撮像素子12とは、
別体として説明するが一体として構成してもよい。ま
た、第1の本数と第2の本数は、典型的には同数であ
り、さらに典型的には500本程度である。また本実施
の形態では、第1の撮像素子11と第2の撮像素子12
は、壁に設置しているが、天井が存在する場合は天井で
もよく、設置場所は監視システムの目的や仕様等により
適宜決めてよい。
On the other hand, on the wall 4 in the drawing, a first number having a first number of scanning lines 13 (see FIG. 3) for imaging the monitored region is provided.
The image pickup device 11 and the second image pickup device 12 having the second number of scanning lines 14 (see FIG. 3) are installed.
The first image sensor 11 and the second image sensor 12 are installed in parallel in the scanning line direction. The first image sensor 11 and the second image sensor 12 are typically CCD cameras, but CMOS sensors may be used. In addition, in the present embodiment, the first image sensor 11 and the second image sensor 12 are
Although described as a separate body, they may be configured as one body. Further, the first number and the second number are typically the same number, and more typically about 500. Further, in the present embodiment, the first image sensor 11 and the second image sensor 12 are used.
Is installed on the wall, but if there is a ceiling, it may be installed on the wall, and the installation location may be appropriately determined according to the purpose and specifications of the monitoring system.

【0025】図2を参照して、監視システム1の構成の
一例を説明する。監視システム1は、第1の撮像素子と
しての第1のCCDカメラ11と、第2の撮像素子とし
ての第2のCCDカメラ12と、演算装置20とを含ん
で構成される。そして第1のCCDカメラ11、第2の
CCDカメラ12は、演算装置20に接続されている。
演算装置20は、第1のCCDカメラ11、第2のCC
Dカメラ12によりそれぞれ撮像された画像を取得でき
るように構成されている。また撮像された画像は、時系
列的に取得するように構成するとよい。演算装置20
は、典型的にはパソコンやマイコンである。
An example of the configuration of the monitoring system 1 will be described with reference to FIG. The monitoring system 1 is configured to include a first CCD camera 11 as a first image sensor, a second CCD camera 12 as a second image sensor, and an arithmetic unit 20. The first CCD camera 11 and the second CCD camera 12 are connected to the arithmetic unit 20.
The arithmetic unit 20 includes a first CCD camera 11 and a second CC
The image captured by the D camera 12 is configured to be acquired. In addition, the captured images may be configured to be acquired in time series. Arithmetic unit 20
Is typically a personal computer or a microcomputer.

【0026】演算装置20は、制御部21を備えてお
り、監視システム1全体を制御している。制御部21に
は、インターフェース33が接続されており、第1のC
CDカメラ11、第2のCCDカメラ12は、インター
フェース33を介して制御部21に接続され、制御され
ている。
The arithmetic unit 20 has a control unit 21 and controls the entire monitoring system 1. An interface 33 is connected to the control unit 21, and the first C
The CD camera 11 and the second CCD camera 12 are connected to and controlled by the control unit 21 via the interface 33.

【0027】また制御部21には、記憶部31が接続さ
れており、後述の第3の本数の走査線15、16で測定
する測定距離と比較すべき基準距離を保存する基準距離
保存部32が備えられている。また記憶部31には算出
された情報等のデータが記憶できる。基準距離とは、監
視時点の過去の時点の距離であればよく、典型的には監
視対象領域に人物2が存在しない状態のいわば背景の距
離であるが、それに限らず、例えば周期的に距離を検知
している場合の1コマ分だけ前の距離であってもよい。
A storage unit 31 is connected to the control unit 21, and a reference distance storage unit 32 for storing a reference distance to be compared with a measurement distance measured by a third number of scanning lines 15 and 16 described later. Is provided. Further, the storage unit 31 can store data such as calculated information. The reference distance may be a distance at a time point in the past of the monitoring time point, and is typically a distance in the background in a state where the person 2 does not exist in the monitoring target area, but is not limited thereto, and for example, the distance is periodically The distance may be one frame before when is detected.

【0028】また制御部21には、監視システム1を操
作するための情報を入力する入力装置35、監視システ
ム1で処理された結果を出力する出力装置36が接続さ
れている。入力装置35は例えばタッチパネル、キーボ
ードあるいはマウスであり、出力装置36は例えばディ
スプレイやプリンタあるいは警報装置である。本図で
は、入力装置35、出力装置36は演算装置20に外付
けするものとして図示されているが、内蔵されていても
よい。
The control unit 21 is also connected to an input device 35 for inputting information for operating the monitoring system 1 and an output device 36 for outputting a result processed by the monitoring system 1. The input device 35 is, for example, a touch panel, a keyboard or a mouse, and the output device 36 is, for example, a display, a printer or an alarm device. Although the input device 35 and the output device 36 are illustrated as being externally attached to the arithmetic device 20 in the present drawing, they may be incorporated therein.

【0029】制御部21内には、第1のCCDカメラ1
1と第2のCCDカメラ12との2つのCCDカメラ1
1、12から、第1の本数と第2の本数とのいずれかよ
り少ない第3の本数の互いに対応する走査線15、16
(図3参照)を抽出する走査線抽出手段としての走査線
抽出部22が備えられている。このとき、互いに対応す
る走査線上に形成された画像は、同期して抽出される。
また、走査線抽出部22は、少なくとも2本の走査線1
5、16を抽出するようにする。さらに、走査線抽出部
22は、走査線15、16を時系列的に抽出するとよ
い。また、第1のCCDカメラ11と第2のCCDカメ
ラ12とから走査線15、16を抽出するには、外部か
らの同期信号で行うようにすると、対応する走査線1
5、16を抽出して処理する回路を簡単にすることがで
き、ソフト処理も容易となる。
In the control unit 21, the first CCD camera 1
Two CCD cameras 1 including a first CCD camera 12 and a second CCD camera 12.
1 to 12, a third number of corresponding scan lines 15, 16 that is smaller than either the first number or the second number.
A scanning line extracting unit 22 is provided as a scanning line extracting unit for extracting (see FIG. 3). At this time, the images formed on the scanning lines corresponding to each other are extracted in synchronization.
In addition, the scanning line extracting unit 22 is configured to include at least two scanning lines 1
5 and 16 are extracted. Further, the scanning line extraction unit 22 may extract the scanning lines 15 and 16 in time series. Further, in order to extract the scanning lines 15 and 16 from the first CCD camera 11 and the second CCD camera 12, if a synchronization signal from the outside is used, the corresponding scanning lines 1 and 16 are extracted.
A circuit for extracting and processing 5 and 16 can be simplified, and software processing is also facilitated.

【0030】図3の模式図に示すように、走査線13及
び走査線14上にそれぞれ形成された画像は、走査線の
1本又は複数本の上に形成されるものである。また、第
3の本数は、人物2のプライバシーを守れる程度、また
は処理量が大きく増えない程度であり、2〜20本程度
でよいが、さらに好ましくは第1の本数、第2の本数を
500本程度とした場合に、等間隔に20本程度であ
る。
As shown in the schematic view of FIG. 3, the images formed on the scanning lines 13 and 14 are formed on one or a plurality of scanning lines. Further, the third number is such that the privacy of the person 2 can be protected or the processing amount does not increase significantly, and may be about 2 to 20, but more preferably the first number and the second number are 500. When the number is about 20, the number is about 20 at equal intervals.

【0031】また図4の模式図に示すように、2つのC
CDカメラ11、12は、2つの撮像素子11、12間
で互いに対応させた複数の1次元受光素子アレイ17、
18から構成される2つのCCDカメラ11’、12’
とするようにしてもよい。この場合、1次元受光素子ア
レイ17、18がそれぞれ走査線15、16に対応す
る。また1次元受光素子アレイ17、18の本数は、上
述の第3の本数と同じ即ち20本程度とする。1次元受
光素子アレイは、典型的にはラインCCD、またはCM
OSセンサである。このようにすると、2つのCCDカ
メラ11’、12’は、前述のCCDカメラ11、12
を用いた場合に比べて、前述の走査線抽出部22が必要
でなくなるため、より簡易な構成とすることも可能であ
る。また、監視システム1に第3の本数と同数の距離セ
ンサを用いて構成した場合に比べて小型化することがで
きる。
Further, as shown in the schematic diagram of FIG.
The CD cameras 11 and 12 include a plurality of one-dimensional light receiving element arrays 17 in which the two image pickup elements 11 and 12 are associated with each other.
Two CCD cameras 11 ', 12' composed of 18
May be set. In this case, the one-dimensional light receiving element arrays 17 and 18 correspond to the scanning lines 15 and 16, respectively. The number of the one-dimensional light receiving element arrays 17 and 18 is the same as the above-mentioned third number, that is, about 20. The one-dimensional light receiving element array is typically a line CCD or CM
It is an OS sensor. In this way, the two CCD cameras 11 'and 12' are the same as the CCD cameras 11 and 12 described above.
Since the above-mentioned scanning line extraction unit 22 is not necessary as compared with the case of using, it is possible to adopt a simpler configuration. Further, the size can be reduced as compared with the case where the monitoring system 1 is configured by using the same number of distance sensors as the third number.

【0032】また制御部21内には、走査線抽出部22
により抽出された走査線15、16上に形成された画像
に基づいて、人物2までの距離情報を取得する距離情報
取得手段としての距離演算部23が備えられている。以
下、本実施の形態では、距離情報取得手段が、距離を算
出する距離演算部であるものとして説明する。
Further, in the control unit 21, the scanning line extraction unit 22
A distance calculator 23 is provided as a distance information acquisition unit that acquires distance information to the person 2 based on the images formed on the scanning lines 15 and 16 extracted by. In the following description of the present embodiment, the distance information acquisition unit is a distance calculation unit that calculates a distance.

【0033】距離演算部23は、第1のCCDカメラ1
1、第2のCCDカメラ12の各々について、異なる時
間に撮像された画像の、走査線抽出部22により抽出さ
れた走査線15、16の各々の上に形成される画像の画
像情報から差画像を形成する差画像形成手段としての差
画像形成部24を備えている。画像情報は、典型的には
画像を構成する画素の画素値である。差画像を形成する
ための2つの画像は時間をずらして取得するが、ずらす
時間は、人物2の移動量が大きくなり過ぎず、実質的に
はほぼ同位置とみなせる程度の時間、例えば0.1秒程
度とすればよい。あるいはテレビ周期の1〜10周期
(1/30〜1/3)とする。このような差画像をとる
と背景が除去され動きのある人物2の像を抽出すること
ができる。
The distance calculation unit 23 includes the first CCD camera 1
A difference image from the image information of the images formed on the scanning lines 15 and 16 extracted by the scanning line extracting unit 22 of the images captured at different times for each of the first and second CCD cameras 12. And a difference image forming unit 24 as a difference image forming unit for forming The image information is typically a pixel value of a pixel forming an image. The two images for forming the difference image are acquired with a time shift, and the shift time is a time such that the movement amount of the person 2 does not become too large and can be regarded as substantially the same position, for example, 0. It may be about 1 second. Alternatively, the period is 1 to 10 (1/30 to 1/3) of the television period. When such a difference image is taken, the background is removed and an image of the person 2 who is moving can be extracted.

【0034】また距離演算部23は、差画像を構成する
各画素値の絶対値が、所定の閾値よりも大なる画素で区
切られた領域の中で、最大の領域を抽出する領域抽出手
段としての領域抽出部25を備えている。
Further, the distance calculation unit 23 serves as a region extracting means for extracting the maximum region among the regions divided by pixels whose absolute values of the pixel values forming the difference image are larger than a predetermined threshold value. The area extraction unit 25 of FIG.

【0035】走査線15及び走査線16上にそれぞれ形
成された画像は、背景は動くことがないので、動いてい
る人物2の境界部は画素値が急激に変化する。そこで、
距離演算部23は、差画像形成部24により形成された
差画像を構成する各画素値の絶対値が、所定の閾値より
も大なる画素で区切られた領域の中で、最大の領域を人
物2の境界とみなすことができる。ここで、最大の領域
としたのは、服装等の模様の動きにより、境界部以外に
も区切られた領域の中で、画素値が変化する場合がある
からである。
Since the backgrounds of the images formed on the scanning lines 15 and 16 do not move, the pixel values at the boundary of the moving person 2 change abruptly. Therefore,
The distance calculation unit 23 determines that the largest area among the areas in which the absolute value of each pixel value forming the difference image formed by the difference image forming unit 24 is divided by pixels larger than a predetermined threshold value. It can be regarded as the boundary of 2. Here, the reason why the maximum area is set is that the pixel value may change in areas other than the boundary area due to movement of patterns such as clothes.

【0036】また距離演算部23は、第1のCCDカメ
ラ11、第2のCCDカメラ12により撮像された各々
の画像に対応する差画像から領域抽出部25により抽出
された最大の領域同士の相関出力値を算出する相関出力
算出手段としての相関出力算出部26を備えている。距
離演算部23は、相関出力値に基づき人物2までの距離
を算出する。
Further, the distance calculation unit 23 correlates the maximum areas extracted by the area extraction unit 25 from the difference image corresponding to each image captured by the first CCD camera 11 and the second CCD camera 12. A correlation output calculation unit 26 is provided as a correlation output calculation unit that calculates an output value. The distance calculation unit 23 calculates the distance to the person 2 based on the correlation output value.

【0037】図5の模式図に示すように、距離演算部2
3は、例えば走査線15から形成された差画像から領域
抽出部25により抽出された最大の領域の画像情報とし
て、(a)の状態のように抽出したとする。図示の曲線
の端点は、各々動きによって、コントラストの変化が激
しかった点である。また走査線15と同様に、走査線1
6から形成された差画像の最大領域の画像情報は、
(b)の状態のように抽出されたとする。ここで、
(a)、(b)のそれぞれの曲線の僅かに異なるのは、
異なる2つのCCDカメラ11、12で同じ対象を見て
いるので、視差の関係から僅かに異なった領域画像が、
それぞれ抽出されたためである。
As shown in the schematic diagram of FIG.
3 is the image information of the maximum area extracted by the area extracting unit 25 from the difference image formed from the scanning lines 15, for example, and is extracted as in the state of (a). The end points of the curves shown in the figure are points where the change in contrast was drastic due to the movement. Similarly to the scan line 15, the scan line 1
The image information of the maximum area of the difference image formed from 6 is
It is assumed that it is extracted as in the state of (b). here,
The slightly different curves in (a) and (b) are:
Since the same object is viewed by the two different CCD cameras 11 and 12, a slightly different area image due to the parallax relationship,
This is because they were extracted respectively.

【0038】このように、距離演算部23は、(a)、
(b)それぞれの曲線に相関処理を施し、その相関ピー
クが最大になった位置を計測することにより、2つのラ
イン間の平均的な相関出力値、または、抽出された領域
のほぼ中心の相関出力値を取得することができる。
As described above, the distance calculation unit 23 (a)
(B) By performing correlation processing on each curve and measuring the position where the correlation peak becomes maximum, the average correlation output value between the two lines or the correlation at the center of the extracted region is obtained. Output value can be obtained.

【0039】ここで相関出力値とは、第1のCCDカメ
ラ11と第2のCCDカメラ12との視差により発生す
る相対的結像位置差のことであり、相関処理により、典
型的には画素数で出力される値である。距離演算部23
は、この相関出力値により即ち走査線15と走査線16
との視差から三角法により距離を算出する。視差からの
距離の算出方法は、図6を参照して後で説明する。ま
た、相関処理とは、走査線15と走査線16からそれぞ
れ得られた画像のどちらか一方を、2つの画像がほぼ一
致するまでずらして、そのずらした量例えば画素数を算
出する処理である。一致の判断は、全体の信号の強さで
行う。信号がピークなったところが一致点即ち相関ピー
ク位置である。
Here, the correlation output value is a relative image forming position difference caused by the parallax between the first CCD camera 11 and the second CCD camera 12, and is typically pixel by the correlation processing. It is a value that is output as a number. Distance calculator 23
Is the scanning line 15 and the scanning line 16 according to this correlation output value.
The distance is calculated by the trigonometric method from the parallax with. A method of calculating the distance from the parallax will be described later with reference to FIG. Further, the correlation process is a process of shifting either one of the images obtained from the scanning line 15 and the scanning line 16 until the two images are substantially coincident with each other, and calculating the shifted amount, for example, the number of pixels. . The determination of matching is made based on the strength of the entire signal. The point where the signal peaks is the coincidence point, that is, the correlation peak position.

【0040】また相関処理は、第1のCCDカメラ1
1、第2のCCDカメラ12により撮像された各々の画
像に対応する差画像を適正な値で2値化し、そのエッジ
部を抽出する事により、動きのある領域部分を抽出し、
この抽出領域のみで相関処理を施すようにしてもよい。
このようにすると、相関処理は、2値化した差画像を用
いるので、処理がしやすくなる。
Correlation processing is performed by the first CCD camera 1
The difference image corresponding to each of the images captured by the first and second CCD cameras 12 is binarized with an appropriate value, and the edge portion thereof is extracted to extract a moving area portion,
The correlation process may be performed only on this extraction region.
In this case, the correlation process uses the binarized difference image, which facilitates the process.

【0041】また距離演算部23は、第1のCCDカメ
ラ11、第2のCCDカメラ12により撮像された各々
の画像に対応する差画像から領域抽出部25により抽出
された最大の領域の中で、それぞれ閾値より大なる画素
の対応を求め、対応する画素の位置ずれに基づき前記対
象物までの距離を算出するようにしてもよい。この場合
には、距離演算部23は、前述のように差画像から領域
抽出部25により抽出された最大の領域同士の相関出力
値を算出せず、最大の領域の中で、それぞれ閾値より大
なる画素の対応を求め、対応する画素の位置ずれを算出
する。距離演算部23は、対応する画素の位置ずれ即ち
視差から三角法により距離を算出する。視差からの距離
の算出方法は、図6を参照して後で説明する。これによ
り、距離演算部23は、例えば閾値を超えた画素に対し
て、同じ方向から番号付けを行い、対応した番号の画素
同士の位置ずれから視差を求めることができる。
In addition, the distance calculation unit 23 selects the maximum area extracted by the area extraction unit 25 from the difference image corresponding to each image captured by the first CCD camera 11 and the second CCD camera 12. It is also possible to find the correspondence of pixels larger than the respective thresholds and calculate the distance to the object based on the positional deviation of the corresponding pixels. In this case, the distance calculation unit 23 does not calculate the correlation output value of the maximum areas extracted by the area extraction unit 25 from the difference image as described above, and the distance output value is larger than the threshold value in each of the maximum areas. Corresponding pixels are obtained, and the positional deviation of the corresponding pixels is calculated. The distance calculator 23 calculates the distance by trigonometry from the positional shift of the corresponding pixels, that is, the parallax. A method of calculating the distance from the parallax will be described later with reference to FIG. Accordingly, the distance calculation unit 23 can number the pixels exceeding the threshold value from the same direction, and obtain the parallax from the positional shift between the pixels having the corresponding numbers.

【0042】このようにすると、距離演算部23は、相
関処理を行う必要性が無く、非常に簡単な処理で視差を
算出することができる。また距離演算部23は、例えば
抽出した領域内の模様等によるコントラストの変化によ
って、閾値を超える画素が多い場合には、上述の端点
(図5参照)には番号付けを行なわないようにする。こ
れにより、視差による影響で対応する番号の画素が、本
来対応すべき画素とずれてしまうことにより、位置ずれ
の値に誤差が生じてしまう現象を低減することができ
る。これは、人物2までの距離が短いことで視差が大き
くなった場合にも有効である。
In this way, the distance calculation unit 23 does not need to perform the correlation process, and can calculate the parallax with a very simple process. Further, the distance calculation unit 23 does not number the above-mentioned end points (see FIG. 5) when there are many pixels that exceed the threshold due to a change in contrast due to a pattern or the like in the extracted region. As a result, it is possible to reduce a phenomenon in which a pixel having a corresponding number is displaced from a pixel that should be originally associated due to the influence of parallax, and thus an error occurs in the value of the positional displacement. This is also effective when the parallax becomes large due to the short distance to the person 2.

【0043】ここで、図6の模式図を参照して、三角法
を用いた人物2の距離の算出方法について、鉛直上方か
ら人物2の距離を測定する場合を例として説明する。こ
こで、wは第1のCCDカメラ11と第2のCCDカメ
ラ12との光軸間距離(基線長)、fはCCDカメラの
受光レンズを単一レンズとしたときそのレンズの焦点距
離、dはCCDカメラの結像面上の視差である。ここで
の焦点距離は、一般に用いられている組み合わせレンズ
を使用する場合は、その組み合わせレンズの焦点距離と
する。これにより対象とする人物2の距離Aは次式で算
出できる。 A = w × f/d ………(1) このようにして、距離演算部23は、走査線抽出部22
により抽出された走査線15、16上に形成された画像
に基づいて、人物2までの距離を算出することができ
る。
Now, with reference to the schematic diagram of FIG. 6, a method of calculating the distance of the person 2 using the trigonometry will be described by taking as an example the case of measuring the distance of the person 2 from above in the vertical direction. Here, w is the distance between the optical axes of the first CCD camera 11 and the second CCD camera 12 (base line length), f is the focal length of the lens when the light receiving lens of the CCD camera is a single lens, and d Is the parallax on the image plane of the CCD camera. The focal length here is the focal length of the combined lens, when a commonly used combined lens is used. Thereby, the distance A of the target person 2 can be calculated by the following equation. A = w × f / d (1) In this way, the distance calculation unit 23 causes the scanning line extraction unit 22 to operate.
The distance to the person 2 can be calculated based on the images formed on the scanning lines 15 and 16 extracted by.

【0044】図2に戻って、さらに監視システム1につ
いて説明する。制御部21内には、距離演算部23によ
り算出された距離により、人物2を監視する検出処理手
段としての検出処理部27が備えられている。
Returning to FIG. 2, the monitoring system 1 will be further described. The control unit 21 includes a detection processing unit 27 as a detection processing unit that monitors the person 2 based on the distance calculated by the distance calculation unit 23.

【0045】また、検出処理部27は、第3の本数の互
いに対応する走査線15、16のそれぞれの距離演算部
23により算出された距離と、それぞれの第3の本数の
走査線15、16に対応する基準距離とを比較するよう
に構成するとよい。この場合、検出処理部27による比
較結果は、典型的には時系列的に取得され、それに基づ
き人物2の位置情報、移動、姿勢等を判断できるように
構成する。即ち、基準距離と、ある時点の距離とを比較
することにより、人物2の存在、その位置情報、移動、
姿勢等を判断することができるように構成する。さら
に、最終的な人物2の存在、その位置情報、移動、姿勢
等の判断は、第3の本数の走査線15、16それぞれに
対応する判断結果から総合的になされる。また人物2の
移動は、人物2の位置の変化だけでなく、例えば人物2
が立ったり座ったりするような変化も含むものとする。
In addition, the detection processing section 27 calculates the distance calculated by the distance calculating section 23 of each of the scanning lines 15 and 16 corresponding to the third number and the scanning lines 15 and 16 of the respective third number. May be configured to be compared with a reference distance corresponding to. In this case, the comparison result by the detection processing unit 27 is typically acquired in time series, and the position information, movement, posture, and the like of the person 2 can be determined based on it. That is, by comparing the reference distance with the distance at a certain time point, the existence of the person 2, its position information, movement,
It is configured so that the posture and the like can be judged. Furthermore, the final determination of the presence, position information, movement, posture, etc. of the person 2 is made comprehensively from the determination results corresponding to the respective third scanning lines 15 and 16. The movement of the person 2 is not limited to the change of the position of the person 2
It also includes changes such as standing and sitting.

【0046】ここで図7の模式的側面図を参照して、人
物2の位置情報である高さ、位置を算出する方法の一例
を説明する。床面3から高さHの壁4に設置された2つ
のCCDカメラ11、12が、壁4から距離L(X軸方
向)の監視対象領域を監視しているとする。この監視対
象領域に存在する人物2の2つのCCDカメラ11、1
2からの距離がAと測定されたとすると、人物2からC
CDカメラ11、12までの高さH1と、壁4からの距
離L1は、次式で求めることができる。 H1=AH/(H+L1/2 ………(2) L1=AL/(H+L1/2 ………(3) X軸及びZ軸に直交する方向(Y軸方向(図1参照))
の位置は、算出した高さH1、距離L1や2つのCCD
カメラ11、12の距離測定方向により算出できる。ま
た位置は、第3の本数の走査線15、16の各々に対応
する監視対象領域の位置からも大まかに捉えることがで
きる。このように、監視対象領域に存在する人物2の位
置情報を算出することができる。さらに、例えば床面3
に垂直な方向に2つのCCDカメラ11、12を配置す
れば、カメラの取り付けた位置そのものを、位置とし、
距離を高さとすることで、位置情報を簡単に取得するこ
ともできる。
Here, an example of a method of calculating the height and position which are the position information of the person 2 will be described with reference to the schematic side view of FIG. It is assumed that the two CCD cameras 11 and 12 installed on the wall 4 having a height H from the floor 3 are monitoring a monitoring target area at a distance L (X-axis direction) from the wall 4. Two CCD cameras 11 and 1 of the person 2 existing in this monitoring target area
If the distance from 2 is measured as A, then person 2 to C
The height H1 to the CD cameras 11 and 12 and the distance L1 from the wall 4 can be calculated by the following equation. H1 = AH / (H 2 + L 2 ) 1/2 (2) L1 = AL / (H 2 + L 2 ) 1/2 (3) Direction orthogonal to X-axis and Z-axis (Y-axis) Direction (see Figure 1))
Position is calculated height H1, distance L1 and two CCDs
It can be calculated by the distance measurement direction of the cameras 11 and 12. Further, the position can be roughly grasped also from the position of the monitoring target area corresponding to each of the third number of scanning lines 15 and 16. In this way, the position information of the person 2 existing in the monitoring target area can be calculated. Further, for example, the floor surface 3
If the two CCD cameras 11 and 12 are arranged in the direction perpendicular to, the position where the cameras are attached becomes the position,
By setting the distance to be high, the position information can be easily acquired.

【0047】また検出処理部27は、同一又は同一では
ない走査線15、16で直前に算出されたこの人物2の
位置情報、例えば1つ前の位置情報があれば、さらにそ
の位置情報と比較し、この人物2の移動情報である移動
距離と平均移動速度を算出する。例えば移動距離は、最
新の位置情報と1つ前の位置情報のH1やL1のデータ
の差より、また、平均移動速度は、このデータの差を距
離の測定間隔時間で除算した値となる。さらに、これに
より得られた人物2の位置情報と移動情報は、記憶部3
1内の基準距離保存部32に基準距離として保存するよ
うにするとよい。
Further, the detection processing section 27 further compares the position information of the person 2 calculated immediately before with the same or different scanning lines 15 and 16, for example, if there is the previous position information, with the position information. Then, the moving distance and the average moving speed, which are the moving information of the person 2, are calculated. For example, the moving distance is the difference between the H1 and L1 data of the latest position information and the immediately preceding position information, and the average moving speed is the value obtained by dividing this data difference by the distance measurement interval time. Further, the position information and the movement information of the person 2 thus obtained are stored in the storage unit 3
It is preferable to store the reference distance in the reference distance storage unit 32 in 1 as the reference distance.

【0048】このようにして、検出処理部27は、算出
した位置情報と移動情報から、人物2の存在、その姿
勢、位置、移動状態を判断することができる。例えば、
人物2の移動がなく、かつ高さが低くなった場合は、こ
の人物2が座ったと判断でき、また、人物2が低い高さ
で存在し、かつ移動が無い場合には、この人物2は倒れ
ている状態にあると判断できる。このようにして監視シ
ステム1は、監視対象領域内の人物2の進入、存在と存
在状態等を監視することができる。
In this way, the detection processing unit 27 can determine the presence, posture, position and movement state of the person 2 from the calculated position information and movement information. For example,
If the person 2 does not move and the height becomes low, it can be determined that the person 2 is sitting down. If the person 2 exists at a low height and there is no movement, the person 2 becomes You can judge that you are in a state of falling. In this way, the monitoring system 1 can monitor the entry, the presence and the presence state of the person 2 in the monitoring target area.

【0049】CCDカメラは、容易に画角を広くとるこ
と可能であるので、画角の広いものを用いることで、横
方向の監視対象領域を十分に大きく取ることができる。
このような監視システム1を、閉空間例えばトイレ等に
設置した場合には、第1のCCDカメラ11、第2のC
CDカメラ12の画角を閉空間の監視対象領域の幅にな
るように設定すれば、次に説明するような利点がある。
Since the CCD camera can easily have a wide angle of view, by using a CCD camera having a wide angle of view, the lateral monitoring target area can be made sufficiently large.
When such a monitoring system 1 is installed in a closed space such as a toilet, the first CCD camera 11 and the second C camera
If the angle of view of the CD camera 12 is set to be the width of the monitoring target area in the closed space, there are advantages as described below.

【0050】図8の模式図を参照して、トイレに監視シ
ステム1を設置した例を説明する。図8(a)はトイレ
の側面図、図8(b)はトイレの2つのCCDカメラ側
から見た正面図であり、図8(c)は走査線15、16
上の画像である。図示のように閉空間であるトイレの監
視に監視システム1を設置する場合、第1のCCDカメ
ラ11、第2のCCDカメラ12の画角をトイレの幅に
なるように設定する。
An example in which the monitoring system 1 is installed in the toilet will be described with reference to the schematic diagram of FIG. 8A is a side view of the toilet, FIG. 8B is a front view of the toilet seen from the side of two CCD cameras, and FIG. 8C is a scanning line 15 or 16.
The image above. When the monitoring system 1 is installed to monitor a toilet which is a closed space as shown in the figure, the angle of view of the first CCD camera 11 and the second CCD camera 12 is set to be the width of the toilet.

【0051】このように設定した2つのCCDカメラ1
1、12を、壁4’に水平面に対してやや傾斜させて設
置する。この際、走査線抽出部22は、立っている人物
2のおよそ頭部から床面3’までの像が、適当な間隔で
配分されるような第3の本数の走査線15、16を抽出
するようにする。また、人物2が不在の場合の床面3’
や壁4’までの距離を基準距離として設定しておくとよ
い。
Two CCD cameras 1 set in this way
1 and 12 are installed on the wall 4'with a slight inclination with respect to the horizontal plane. At this time, the scanning line extraction unit 22 extracts a third number of scanning lines 15 and 16 such that the image of the standing person 2 from the head to the floor surface 3 ′ is distributed at appropriate intervals. To do so. Also, the floor surface 3'when the person 2 is absent
It is advisable to set the distance to the wall 4'or the wall as a reference distance.

【0052】このように、2つのCCDカメラ11、1
2を設定することで、人物2までの距離を測定すると同
時に、どの走査線15、16が人物2を検出したかで、
人物2の存在、床面からの高さ即ちその姿勢を判断する
ことができる。また差画像を取得し、撮像された画像上
の人物2の像を抽出することにより、抽出された人物2
の像の画像上の位置から、トイレ幅方向(Y軸方向)の
位置も得ることができる。
Thus, the two CCD cameras 11, 1
By setting 2, the distance to the person 2 is measured, and at the same time, which scanning line 15, 16 detects the person 2,
The presence of the person 2 and the height from the floor, that is, the posture thereof can be determined. In addition, by extracting the difference image and extracting the image of the person 2 on the captured image, the extracted person 2
The position in the toilet width direction (Y-axis direction) can also be obtained from the position of the image of the image.

【0053】ここで、図9を参照して、2つのCCDカ
メラ11、12の設置について説明する。まず監視シス
テム1は、第1のCCDカメラ11の走査線13と、走
査線13に対応する第2のCCDカメラ12の走査線1
4とがおよそ同一平面上に存在するように、第1のCC
Dカメラ11と第2のCCDカメラ12の位置関係を定
めるようにする。
Here, the installation of the two CCD cameras 11 and 12 will be described with reference to FIG. First, the monitoring system 1 includes the scanning line 13 of the first CCD camera 11 and the scanning line 1 of the second CCD camera 12 corresponding to the scanning line 13.
So that 4 and 4 are approximately on the same plane.
The positional relationship between the D camera 11 and the second CCD camera 12 is determined.

【0054】また、監視システム1には、演算装置20
の制御部21内に、第1のCCDカメラ11での人物2
を走査する走査線13と、第2のCCDカメラ12での
人物2を走査する走査線14に対して、相関値を演算す
る手段としての相関演算部28と、演算された相関値が
最大化されるように、第1のCCDカメラ11の走査線
13と第2のCCDカメラ12の走査線14との位置対
応関係を定める対応走査線選択手段としての対応走査線
選択部29とを備えるようにする。
In addition, the monitoring system 1 includes an arithmetic unit 20.
In the control unit 21 of the person 2 in the first CCD camera 11
A scanning line 13 that scans the scanning line 14 and a scanning line 14 that scans the person 2 in the second CCD camera 12, a correlation calculation unit 28 that calculates a correlation value, and the calculated correlation value is maximized. As described above, a corresponding scanning line selection unit 29 as a corresponding scanning line selection unit that defines the positional correspondence between the scanning line 13 of the first CCD camera 11 and the scanning line 14 of the second CCD camera 12 is provided. To

【0055】ここで図示のように、走査線13、走査線
14上のそれぞれ人物2が結像していたとする。この場
合、2つのCCDカメラ11、12は、わずかに違う方
向から人物2を見ているので、ほとんど変わらない画像
が両方の走査線上に結像している。ここで、相関演算部
28は、例えば走査線13の4ライン目を選択するとす
る。この場合、まず相関演算部28は、走査線13の4
ライン目のライン信号と、走査線14の1ライン目のラ
イン信号との前述の相関処理を行う。相関演算部28
は、走査線13の4ライン目のライン信号との相関処理
を、走査線14の1ライン目から順番に最終ラインまで
行なう。ここでの相関処理は、全体の信号の強さである
相関値をみる。また相関演算部28は、走査線13の4
ライン目のライン信号と、走査線14のnライン目のラ
イン信号との相関値が最大となるまで相関処理を行なう
ようにしてもよい。nは、走査線14の本数(第2の本
数)が例えば500本の場合、1〜500の自然数であ
る。
Here, as shown in the figure, it is assumed that the person 2 is imaged on the scanning lines 13 and 14, respectively. In this case, since the two CCD cameras 11 and 12 are looking at the person 2 from a slightly different direction, almost unchanged images are formed on both scanning lines. Here, it is assumed that the correlation calculator 28 selects the fourth line of the scanning lines 13, for example. In this case, first, the correlation calculation unit 28 determines that the scan line 13
The above-described correlation processing between the line signal of the first line and the line signal of the first line of the scanning line 14 is performed. Correlation calculation unit 28
Performs the correlation processing with the line signal of the fourth line of the scanning line 13 in order from the first line of the scanning line 14 to the final line. In the correlation processing here, a correlation value that is the strength of the entire signal is checked. In addition, the correlation calculation unit 28 uses the scan line 13
The correlation processing may be performed until the correlation value between the line signal of the line and the line signal of the nth line of the scanning line 14 becomes maximum. When the number of scanning lines 14 (second number) is 500, n is a natural number of 1 to 500.

【0056】対応走査線選択部29は、この相関値が最
大となるライン同士が対応している走査線であると判定
し、第1のCCDカメラ11の走査線13と第2のCC
Dカメラ12の走査線14との位置対応関係を定めるす
る。例えば、走査線13の4ライン目と走査線14の7
ライン目が対応している走査線であると判定した場合に
は、位置対応関係は、そのまま走査線13の5ライン目
と走査線14の8ライン目、走査線13の100ライン
目と走査線14の103ライン目と定められる。
The corresponding scanning line selection unit 29 determines that the lines having the maximum correlation value correspond to each other, and the scanning line 13 of the first CCD camera 11 and the second CC
The positional correspondence with the scanning line 14 of the D camera 12 is determined. For example, the fourth line of the scanning line 13 and the seventh line of the scanning line 14
When it is determined that the scanning lines are the corresponding scanning lines, the positional correspondence relationship is as it is, the fifth line of the scanning line 13 and the eighth line of the scanning line 14, and the 100th line of the scanning line 13 and the scanning line. It is defined as the 103rd line of 14.

【0057】また、監視システム1は、第1のCCDカ
メラ11の走査線13と第2のCCDカメラ12の走査
線14の同じライン、例えば走査線13の4ライン目と
走査線14の4ライン目との相関演算部28による相関
値が最大となるように位置関係を定めてもよい。このよ
うにすると、第1の撮像素子と第2の撮像素子との同じ
ラインがおよそ同一平面の走査線が対応するように設置
し、さらに相関値が最大となるように位置関係を定める
ので、2つのCCDカメラ11、12を効率良く、高精
度に設置することができる。
In the monitoring system 1, the scanning line 13 of the first CCD camera 11 and the scanning line 14 of the second CCD camera 12 are the same line, for example, the fourth line of the scanning line 13 and the fourth line of the scanning line 14. The positional relationship may be determined so that the correlation value calculated by the correlation calculation unit 28 with the eye becomes maximum. By doing so, the same line of the first image pickup device and the second image pickup device are installed so that scanning lines on substantially the same plane correspond to each other, and the positional relationship is determined so that the correlation value becomes maximum. The two CCD cameras 11 and 12 can be installed efficiently and highly accurately.

【0058】また、監視システム1は、2つのCCDカ
メラ11、12の位置関係または、走査線13と走査線
14との位置対応関係を定めた後に、2つのCCDカメ
ラ11、12の基線長wが設定値よりもずれた場合で
も、予め定めた距離A1を測定すれば、走査線方向のず
れ分の補正を行うこともできる。この場合には、第1の
CCDカメラ11の光軸と第2のCCDカメラ12の光
軸の位置が走査線方向にSだけずれているとすると、前
述の式(1)を A = w × f/(d+S) ………(4) とすることで走査線方向のずれを補正できる。
In addition, the monitoring system 1 determines the positional relationship between the two CCD cameras 11 and 12 or the positional correspondence relationship between the scanning lines 13 and 14 and then determines the baseline length w of the two CCD cameras 11 and 12. Even if is deviated from the set value, it is possible to correct the deviation in the scanning line direction by measuring the predetermined distance A1. In this case, assuming that the positions of the optical axis of the first CCD camera 11 and the optical axis of the second CCD camera 12 are displaced by S in the scanning line direction, the above equation (1) is A = w × By setting f / (d + S) ... (4), the deviation in the scanning line direction can be corrected.

【0059】このようにすれば、監視システム1は、正
確に人物2までの距離を測定できるだけでなく、温度変
化や経時変化があってCCDカメラが僅かに動いたとし
ても、例えば、壁の模様等を使って予め定めた距離A1
を測定することにより、正確さを維持することができ
る。また、この補正は、一定間隔毎に行うようにすると
よい。
In this way, the monitoring system 1 can not only accurately measure the distance to the person 2, but even if the CCD camera slightly moves due to a temperature change or a temporal change, for example, the pattern of the wall. Distance A1 determined in advance using
Accuracy can be maintained by measuring In addition, this correction may be performed at regular intervals.

【0060】以上では、2つのCCDカメラ11、12
の各々の走査線が対応するように設置する、または対応
する走査線を選択する場合で説明したが、予め2つのC
CDカメラ11、12の各々の走査線が対応するように
調整し、固定したものを用いるようにしてもよい。この
ようにすると、2つのCCDカメラ11、12は、距離
センサと同じような感覚で扱うことができるので、2つ
のCCDカメラ11、12の設置が非常に簡便になる。
In the above, the two CCD cameras 11 and 12
In the above description, the scanning lines are installed so that they correspond to each other, or the corresponding scanning lines are selected.
The CD cameras 11 and 12 may be adjusted so that the scanning lines correspond to each other, and fixed. In this way, the two CCD cameras 11 and 12 can be handled in the same manner as a distance sensor, and therefore the installation of the two CCD cameras 11 and 12 is very simple.

【0061】以上のように監視システム1は、監視対象
領域にどの程度の大きさの人物2が進入し、どのような
人物2の状態(どの位置で、立っている、座っている、
倒れている)にあるか、また、その人物2は動いている
か、また退出したかといった一連の動きを簡単な装置で
追従することができる。この場合、基準距離からの差異
を取得していくので、距離が比較的正確でなくても状態
の判断に使うことはできる。また、監視システム1は、
差画像を用いるので、例えば、人物2に動きが無くなっ
た場合には、領域の特定ができなくなるが、一連の動き
から総合的に人物2の状態の判定をすることができるの
で、静止しているまたは動きがゆっくりである人物2の
存在も監視できる。これは、例えばトイレに座っている
人物2や風呂にゆっくり浸かっている人物2等動きの少
ない人物2を監視する場合に有効である。
As described above, in the monitoring system 1, the size of the person 2 entering the area to be monitored and the state of the person 2 (at which position, standing, sitting,
A simple device can follow a series of movements such as whether the person 2 is lying down), whether the person 2 is moving, or whether the person 2 has left. In this case, since the difference from the reference distance is acquired, it can be used to judge the state even if the distance is not relatively accurate. In addition, the monitoring system 1
Since the difference image is used, for example, when the person 2 does not move, the area cannot be specified. However, since the state of the person 2 can be comprehensively determined from a series of movements, the person 2 remains stationary. The presence of person 2 who is moving or moving slowly can also be monitored. This is effective, for example, when monitoring a person 2 who is not moving, such as a person 2 sitting in a toilet or a person 2 slowly bathing in a bath.

【0062】また監視対象領域が閉空間(トイレ、風
呂、エレベーター内、オフィース内)においては、壁等
で囲まれているので、人物2が不在の場合の床面3や壁
4までの距離を基準距離として設定しておき、その状態
からの変化を追うことで、人物2の状態を判断すること
ができる。
In the closed space (toilet, bath, elevator, office), the area to be monitored is surrounded by walls and the like. Therefore, when the person 2 is absent, the distance to the floor 3 or the wall 4 is set. The state of the person 2 can be determined by setting it as a reference distance and following the change from that state.

【0063】以上のような本実施の形態によれば、人物
2の状態を判断して、人物2が倒れたとか、不法侵入者
が存在しているといった監視を正確かつ非常に容易に行
うことができる。しかも、CCDカメラよりフレーム全
体を取得するのではないので、複雑かつ大容量の画像処
理を必要とせず、比較的簡単なデジタル回路やアナログ
回路、もしくはこれらの組み合わせで、非常に安価な装
置を構築することができる。また抽出する走査線は、人
物2のプライバシーを守れる程度であるので、トイレや
風呂等での状態監視において非常に有効である。
According to the present embodiment as described above, it is possible to judge the state of the person 2 and accurately and very easily monitor whether or not the person 2 has fallen down or an illegal intruder exists. You can Moreover, since the entire frame is not acquired from the CCD camera, complicated and large-capacity image processing is not required, and a very inexpensive device is constructed with a relatively simple digital circuit or analog circuit, or a combination of these. can do. Further, the scanning lines to be extracted are so effective as to protect the privacy of the person 2, and therefore are very effective in monitoring the condition in a toilet, bath or the like.

【0064】[0064]

【発明の効果】以上のように本発明によれば、監視対象
領域を撮像する第1の本数の走査線を有する第1の撮像
素子と、前記第1の撮像素子と走査線方向に並列に設け
られ、前記監視対象領域を撮像する第2の本数の走査線
を有する第2の撮像素子と、前記第1の撮像素子と前記
第2の撮像素子との2つの撮像素子から、前記第1の本
数と前記第2の本数とのいずれかより少ない第3の本数
の互いに対応する走査線を抽出する走査線抽出手段と、
前記走査線抽出手段により抽出された前記走査線上に形
成された画像に基づいて、前記対象物までの距離情報を
取得する距離情報取得手段と、前記距離情報取得手段に
より取得された距離情報を用いて、前記対象物を監視す
る検出処理手段とを備えるので、正確な対象領域内の監
視を行えるだけでなく、高速処理が可能で、かつ簡易で
ある監視システムを提供することができる。
As described above, according to the present invention, a first image pickup device having a first number of scanning lines for picking up an image of a region to be monitored, and the first image pickup device are arranged in parallel in the scanning line direction. From the two image pickup elements provided, a second image pickup element having a second number of scanning lines for picking up the image of the monitoring target area, and the first image pickup element and the second image pickup element, the first image pickup element Scanning line extraction means for extracting scanning lines corresponding to a third number which is smaller than either the number of lines or the second number,
Based on the image formed on the scanning line extracted by the scanning line extracting means, using distance information acquiring means for acquiring distance information to the object, and distance information acquired by the distance information acquiring means Since it includes the detection processing means for monitoring the target object, it is possible to provide a monitoring system that not only can accurately monitor the target area but also can perform high-speed processing and is simple.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態である監視システムの概要
を示す模式的斜視図である。
FIG. 1 is a schematic perspective view showing an outline of a monitoring system according to an embodiment of the present invention.

【図2】本発明の実施の形態で用いる監視システムの構
成例を示すブロック図である。
FIG. 2 is a block diagram showing a configuration example of a monitoring system used in the embodiment of the present invention.

【図3】本発明の実施の形態で用いる第1のCCDカメ
ラの走査線と第2のCCDカメラの走査線とを説明する
模式図である。
FIG. 3 is a schematic diagram illustrating a scanning line of a first CCD camera and a scanning line of a second CCD camera used in an embodiment of the present invention.

【図4】本発明の実施の形態で用いる複数の1次元受光
素子アレイを説明する模式図である。
FIG. 4 is a schematic diagram illustrating a plurality of one-dimensional light receiving element arrays used in the embodiment of the present invention.

【図5】本発明の実施の形態での相関処理を説明する線
図である。
FIG. 5 is a diagram illustrating a correlation process according to the embodiment of the present invention.

【図6】本発明の実施の形態で、2つのCCDカメラの
視差から、監視対象物の距離を算出する方法を説明する
模式図である。
FIG. 6 is a schematic diagram illustrating a method of calculating the distance to a monitored object from the parallax of two CCD cameras according to the embodiment of the present invention.

【図7】本発明の実施の形態で、監視対象物の距離から
監視対象物の位置情報を算出する方法を説明する模式的
側面図である。
FIG. 7 is a schematic side view illustrating a method of calculating position information of a monitoring target from the distance of the monitoring target in the embodiment of the present invention.

【図8】本発明の実施の形態である監視システムをトイ
レに設置する場合を説明する模式的側面図(a)、模式
的正面図(b)、走査線上の画像(c)であるである。
FIG. 8 is a schematic side view (a), a schematic front view (b), and an image on a scanning line (c) for explaining a case where the monitoring system according to the embodiment of the present invention is installed in a toilet. .

【図9】本発明の実施の形態である監視システムの設置
について説明する模式図である。
FIG. 9 is a schematic diagram illustrating installation of the monitoring system according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 監視システム 2 人物 3 床面 4 壁 11 第1の撮像素子 12 第2の撮像素子 13 第1の撮像素子の走査線 14 第2の撮像素子の走査線 15 第1の撮像素子のから抽出された走査線 16 第2の撮像素子のから抽出された走査線 17 第1の撮像素子の1次元受光素子アレイ 18 第2の撮像素子の1次元受光素子アレイ 20 演算装置 21 制御部 22 走査線抽出部 23 距離演算部 24 差画像形成部 25 領域抽出部 26 相関出力算出部 27 検出処理部 28 相関演算部 29 対応走査線選択部 31 記憶部 32 基準距離保存部 33 インターフェース 35 入力装置 36 出力装置 1 monitoring system 2 people 3 floor 4 walls 11 First image sensor 12 Second image sensor 13 Scan line of first image sensor 14 Scan line of second image sensor 15 Scan lines extracted from the first image sensor 16 Scan lines extracted from the second image sensor 17 One-dimensional light-receiving element array of first image sensor 18 One-dimensional light-receiving element array of second image sensor 20 arithmetic unit 21 Control unit 22 Scan line extraction unit 23 Distance calculator 24 Difference image forming unit 25 Area Extraction Unit 26 Correlation Output Calculation Unit 27 Detection processing unit 28 Correlation calculator 29 Compatible scanning line selector 31 storage 32 Reference distance storage 33 Interface 35 input device 36 Output device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 味村 一弘 東京都千代田区六番町6−28 住友大阪セ メント株式会社内 (72)発明者 加藤 圭 東京都千代田区六番町6−28 住友大阪セ メント株式会社内 (72)発明者 中島 真人 神奈川県横浜市港北区日吉3−14−1 慶 應義塾大学理工学部内 Fターム(参考) 5C054 FC01 FC12 FC13 FC14 FC15 FD00 HA19 5C087 AA02 AA03 AA04 AA09 AA24 AA25 DD03 EE02 EE05 EE08 EE15 GG02 GG19 GG36    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kazuhiro Ajimura             Sumitomo Osaka Center 6-28 Rokubancho, Chiyoda-ku, Tokyo             Mento Co., Ltd. (72) Inventor Kei Kato             Sumitomo Osaka Center 6-28 Rokubancho, Chiyoda-ku, Tokyo             Mento Co., Ltd. (72) Inventor Masato Nakajima             Kei, 3-14-1, Hiyoshi, Kohoku Ward, Yokohama City, Kanagawa Prefecture             Faculty of Science and Technology, University of Tokyo F-term (reference) 5C054 FC01 FC12 FC13 FC14 FC15                       FD00 HA19                 5C087 AA02 AA03 AA04 AA09 AA24                       AA25 DD03 EE02 EE05 EE08                       EE15 GG02 GG19 GG36

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 監視対象領域を撮像する第1の本数の走
査線を有する第1の撮像素子と;前記第1の撮像素子と
走査線方向に並列に設けられ、前記監視対象領域を撮像
する第2の本数の走査線を有する第2の撮像素子と;前
記第1の撮像素子と前記第2の撮像素子との2つの撮像
素子から、前記第1の本数と前記第2の本数とのいずれ
かより少ない第3の本数の互いに対応する走査線を抽出
する走査線抽出手段と;前記走査線抽出手段により抽出
された前記走査線上に形成された画像に基づいて、前記
対象物までの距離情報を取得する距離情報取得手段と;
前記距離情報取得手段により取得された距離情報を用い
て、前記対象物を監視する検出処理手段とを備える;監
視システム。
1. A first image pickup device having a first number of scanning lines for picking up an image of the monitoring target region; provided in parallel with the first image pickup device in the scanning line direction, and picking up the monitoring target region. A second image pickup device having a second number of scanning lines; a first image pickup device and a second image pickup device from two image pickup devices of the first image pickup device and the second image pickup device. A scanning line extracting means for extracting a third smaller number of corresponding scanning lines; a distance to the object based on an image formed on the scanning line extracted by the scanning line extracting means; Distance information acquisition means for acquiring information;
A detection processing unit that monitors the object using the distance information acquired by the distance information acquisition unit; a monitoring system.
【請求項2】 前記距離情報取得手段は;前記2つの撮
像素子の各々について、異なる時間に撮像された画像の
前記抽出された走査線の各々の上に形成される画像の画
像情報から差画像を形成する差画像形成手段と;前記差
画像を構成する各画素値の絶対値が、所定の閾値よりも
大なる画素で区切られた領域の中で、最大の領域を抽出
する領域抽出手段とを備える;請求項1に記載の監視シ
ステム。
2. The distance information acquisition means; a difference image from image information of images formed on each of the extracted scanning lines of images captured at different times for each of the two image pickup devices. A difference image forming unit that forms a difference image forming unit; and a region extracting unit that extracts a maximum region among regions divided by pixels whose absolute values of pixel values forming the difference image are larger than a predetermined threshold value. The monitoring system according to claim 1.
【請求項3】 前記距離情報取得手段は、前記2つの撮
像素子により撮像された各々の画像に対応する差画像か
ら前記領域抽出手段により抽出された前記最大の領域同
士の相関出力値を算出する相関出力算出手段を備え;前
記相関出力値に基づき前記対象物までの距離情報を取得
することを特徴とする;請求項2に記載の監視システ
ム。
3. The distance information acquisition means calculates a correlation output value between the maximum areas extracted by the area extraction means from a difference image corresponding to each image picked up by the two image pickup elements. The monitoring system according to claim 2, further comprising: a correlation output calculating unit; acquiring distance information to the object based on the correlation output value.
【請求項4】 前記距離情報取得手段は、前記2つの撮
像素子により撮像された各々の画像に対応する差画像か
ら前記領域抽出手段により抽出された前記最大の領域の
中で、それぞれ前記閾値より大なる画素の対応を求め、
対応する画素の位置ずれに基づき前記対象物までの距離
情報を取得することを特徴とする;請求項2に記載の監
視システム。
4. The distance information acquisition means uses the threshold value in each of the maximum areas extracted by the area extraction means from the difference images corresponding to the images captured by the two image sensors. Seeking correspondence of large pixels,
The monitoring system according to claim 2, wherein the distance information to the object is acquired based on the positional deviation of the corresponding pixels.
【請求項5】 前記互いに対応する走査線上に形成され
た画像は、同期して抽出されることを特徴とする請求項
1乃至請求項4のいずれか1項に記載の監視システム。
5. The surveillance system according to claim 1, wherein the images formed on the scan lines corresponding to each other are extracted in synchronization.
【請求項6】 前記走査線抽出手段は、少なくとも2本
の走査線を抽出することを特徴とする請求項1乃至請求
項5のいずれか1項に記載の監視システム。
6. The monitoring system according to claim 1, wherein the scanning line extracting means extracts at least two scanning lines.
【請求項7】 さらに、前記第1の撮像素子における前
記対象物を走査する走査線と、前記第2の撮像素子にお
ける前記対象物を走査する走査線に対して、相関値を演
算する手段を備え;前記演算された相関値が最大化され
るように、前記第1の撮像素子と前記第2の撮像素子の
位置関係を定めることを特徴とする請求項1乃至請求項
6のいずれか1項に記載の監視システム。
7. A means for calculating a correlation value with respect to a scanning line of the first image sensor which scans the object and a scanning line of the second image sensor which scans the object. 7. The apparatus according to claim 1, wherein the positional relationship between the first image sensor and the second image sensor is determined so that the calculated correlation value is maximized. The monitoring system according to item.
【請求項8】 さらに、前記第1の撮像素子における前
記対象物を走査する走査線と、前記第2の撮像素子にお
ける前記対象物を走査する走査線に対して、相関値を演
算する手段と;前記演算された相関値が最大化されるよ
うに、前記第1の撮像素子の走査線と前記第2の撮像素
子の走査線との位置対応関係を定める対応走査線選択手
段とを備える請求項1乃至請求項6のいずれか1項に記
載の監視システム。
8. A means for calculating a correlation value with respect to a scanning line which scans the object in the first image sensor and a scanning line which scans the object in the second image sensor. A corresponding scanning line selecting means for defining a positional correspondence between the scanning line of the first image sensor and the scanning line of the second image sensor so that the calculated correlation value is maximized. The monitoring system according to any one of claims 1 to 6.
【請求項9】 前記撮像素子はCCDカメラ、若しくは
CMOSセンサであることを特徴とする請求項1項乃至
請求項8のいずれか1項に記載の監視システム。
9. The monitoring system according to claim 1, wherein the image pickup device is a CCD camera or a CMOS sensor.
【請求項10】 監視対象領域を撮像する2つの撮像素
子であって、前記2つの撮像素子間で互いに対応させた
複数の1次元受光素子アレイから構成される撮像素子
と;前記1次元受光素子アレイ上に形成された画像に基
づいて、前記対象物までの距離情報を取得する距離情報
所得手段と;前記距離情報取得手段により取得された距
離情報を用いて、前記対象物を監視する検出処理手段と
を備える;監視システム。
10. An image pickup device for picking up an image of a region to be monitored, the image pickup device comprising a plurality of one-dimensional light-receiving device arrays corresponding to each other between the two image pickup devices; Distance information obtaining means for obtaining distance information to the object based on an image formed on the array; detection processing for monitoring the object using the distance information obtained by the distance information acquiring means A monitoring system.
【請求項11】 第1の本数の走査線を有する2つの撮
像素子と、第2の本数の走査線を有する第2の撮像素子
との2つの撮像素子により監視対象領域を撮像する撮像
工程と;前記2つの撮像素子から、第1の本数と第2の
本数とのいずれかより少ない第3の本数の互いに対応す
る走査線を抽出する走査線抽出工程と;前記走査線抽出
工程により抽出された前記走査線上に形成された画像に
基づいて、前記対象物までの距離情報を取得する距離情
報取得工程と;前記距離情報取得工程により取得された
距離情報を用いて、前記対象物を監視する検出処理工程
とを備える;監視方法。
11. An imaging step of imaging a monitoring target area by two image pickup devices having two image pickup devices having a first number of scanning lines and a second image pickup device having a second number of scanning lines. A scanning line extracting step of extracting from the two image pickup devices a third number of scanning lines corresponding to each other, which is smaller than either the first number or the second number, and the scanning line extracting step; A distance information acquisition step of acquiring distance information to the object based on the image formed on the scanning line; and monitoring the object using the distance information acquired by the distance information acquisition step. A detection processing step; a monitoring method.
【請求項12】 前記2つの撮像素子のうち、第1の撮
像素子における前記対象物を走査する走査線と、前記走
査線に対応する第2の撮像素子における前記対象物を走
査する走査線とが同一平面上に存在するように、前記第
1の撮像素子と第2の撮像素子の位置関係を定める;請
求項11に記載の監視方法。
12. A scan line for scanning the object in a first image sensor of the two image sensors, and a scan line for scanning the object in a second image sensor corresponding to the scan line. 12. The monitoring method according to claim 11, wherein the positional relationship between the first image pickup device and the second image pickup device is determined so that the same exists on the same plane;
【請求項13】 前記2つの撮像素子のうち、第1の撮
像素子における前記対象物を走査する走査線と、第2の
撮像素子における前記対象物を走査する走査線に対し
て、相関値を演算する工程を備え;前記演算された相関
値が最大化されるように、前記第1の撮像素子と第2の
撮像素子の位置関係を定める;請求項11又は請求項1
2に記載の監視方法。
13. Among the two image pickup devices, a correlation value is set for a scanning line of the first image pickup device for scanning the object and a scanning line of the second image pickup device for scanning the object. 12. The method according to claim 11 or claim 1, further comprising a step of calculating; a positional relationship between the first image sensor and the second image sensor is determined so that the calculated correlation value is maximized.
The monitoring method described in 2.
JP2001237605A 2001-08-06 2001-08-06 Surveillance system using stereo images Expired - Fee Related JP3862977B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001237605A JP3862977B2 (en) 2001-08-06 2001-08-06 Surveillance system using stereo images
PCT/JP2002/007980 WO2003015411A1 (en) 2001-08-06 2002-08-05 Monitoring system using stereoscopic image and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001237605A JP3862977B2 (en) 2001-08-06 2001-08-06 Surveillance system using stereo images

Publications (2)

Publication Number Publication Date
JP2003052034A true JP2003052034A (en) 2003-02-21
JP3862977B2 JP3862977B2 (en) 2006-12-27

Family

ID=19068662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001237605A Expired - Fee Related JP3862977B2 (en) 2001-08-06 2001-08-06 Surveillance system using stereo images

Country Status (2)

Country Link
JP (1) JP3862977B2 (en)
WO (1) WO2003015411A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108186A (en) * 2006-10-27 2008-05-08 Saxa Inc Security device
WO2012124852A1 (en) * 2011-03-14 2012-09-20 (주)아이티엑스시큐리티 Stereo camera device capable of tracking path of object in monitored area, and monitoring system and method using same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225126A (en) * 1994-02-14 1995-08-22 Mitsubishi Motors Corp On-road object recognizing device for vehicle
JPH08178637A (en) * 1994-12-27 1996-07-12 Mitsubishi Electric Corp Device and method for image processing
JP3497929B2 (en) * 1995-09-29 2004-02-16 富士重工業株式会社 Intruder monitoring device
JP3050283B2 (en) * 1996-03-29 2000-06-12 日本電気株式会社 Moving object recognition device
JPH10122819A (en) * 1996-10-21 1998-05-15 Omron Corp Method and device for calibration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108186A (en) * 2006-10-27 2008-05-08 Saxa Inc Security device
WO2012124852A1 (en) * 2011-03-14 2012-09-20 (주)아이티엑스시큐리티 Stereo camera device capable of tracking path of object in monitored area, and monitoring system and method using same

Also Published As

Publication number Publication date
JP3862977B2 (en) 2006-12-27
WO2003015411A1 (en) 2003-02-20

Similar Documents

Publication Publication Date Title
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
JP4460782B2 (en) Intrusion monitoring device
EP1526477B1 (en) Image processing apparatus
WO2014199941A1 (en) Information processing device, information processing method, and program
CN106488115B (en) For tracking and sensing the control device and method of the image sensing apparatus of tracking target
US20020150308A1 (en) Image processing method, and an apparatus provided with an image processing function
JP4042750B2 (en) Image processing apparatus, computer program, and image processing method
JP5300694B2 (en) Detection device
JP4780455B2 (en) Video surveillance apparatus and method
JPH09282459A (en) Body detector
JP6624800B2 (en) Image processing apparatus, image processing method, and image processing system
JP6602286B2 (en) Image processing apparatus, image processing method, and program
JP2000285223A (en) Fall detector
US20020139857A1 (en) Imaging device
JP4471866B2 (en) Person detection method
JP2001167276A (en) Photographing device
JP4238042B2 (en) Monitoring device and monitoring method
JP4628910B2 (en) Length measuring device and height measuring device
JP2003052034A (en) Monitoring system using stereoscopic image
JP2001174223A (en) Device for detecting position and shape of thermal object
JP6452738B2 (en) Image processing apparatus, image processing method, and program
KR102270858B1 (en) CCTV Camera System for Tracking Object
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP3996864B2 (en) Surveillance device using stereo images
JPH09145368A (en) Moving and tracing method for object by stereoscopic image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060927

R150 Certificate of patent or registration of utility model

Ref document number: 3862977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees