JP6332703B2 - Space recognition device - Google Patents

Space recognition device Download PDF

Info

Publication number
JP6332703B2
JP6332703B2 JP2016037506A JP2016037506A JP6332703B2 JP 6332703 B2 JP6332703 B2 JP 6332703B2 JP 2016037506 A JP2016037506 A JP 2016037506A JP 2016037506 A JP2016037506 A JP 2016037506A JP 6332703 B2 JP6332703 B2 JP 6332703B2
Authority
JP
Japan
Prior art keywords
index value
measurement
small
distribution
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016037506A
Other languages
Japanese (ja)
Other versions
JP2017157938A (en
Inventor
徳見 修
修 徳見
黒川 高晴
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016037506A priority Critical patent/JP6332703B2/en
Publication of JP2017157938A publication Critical patent/JP2017157938A/en
Application granted granted Critical
Publication of JP6332703B2 publication Critical patent/JP6332703B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、互いに異なる方向から共通の空間を計測した複数の計測信号(例えば輝度信号)の中から、対応する位置を計測した計測信号を認識する空間認識装置に関する。   The present invention relates to a space recognition device that recognizes a measurement signal obtained by measuring a corresponding position from a plurality of measurement signals (for example, luminance signals) obtained by measuring a common space from different directions.

防犯等を目的として、監視カメラが撮像した画像を基に不正通行者や侵入者等を検出することが行われている。その際、人物の一部が背景と似た特徴を有していることや、人物間でオクルージョンが生じていることなどが原因で生じる検出精度低下を防ぐために、複数の監視カメラを設置して互いに異なる方向から共通の空間を撮像して、一つの監視カメラから得られない情報を他の監視カメラで補う工夫が行われる場合がある。   For the purpose of crime prevention and the like, it is performed to detect unauthorized passers and intruders based on images taken by a surveillance camera. At that time, multiple surveillance cameras are installed to prevent a decrease in detection accuracy caused by the fact that some of the people have characteristics similar to the background or that there is occlusion between people. There is a case in which a common space is imaged from different directions and information that cannot be obtained from one monitoring camera is supplemented by another monitoring camera.

例えば、特許文献1に記載の画像監視装置においては、背景との類似が原因で天井カメラ側にて抽出し損ねた変化領域を補完するために、壁カメラ側の変化領域内において同じ位置を撮像した画素が求まった天井カメラ側の画素を変化領域とすることが記載されている。このとき、天井カメラの監視画像と壁カメラの監視画像の間で、同じ位置を撮像した画素を、輝度値の差または相関値、色成分の差または相関値など、画素間の画像特徴どうしの共通性・類似性に基づいて対応付けている。   For example, in the image monitoring apparatus described in Patent Document 1, the same position is imaged in the change area on the wall camera side in order to complement the change area that is missed on the ceiling camera side due to similarity with the background. It is described that the pixel on the ceiling camera side where the obtained pixel is obtained is set as the change region. At this time, between the monitoring image of the ceiling camera and the monitoring image of the wall camera, the pixels captured at the same position can be obtained by comparing the image features between the pixels, such as a difference in luminance value or correlation value, a difference in color component or correlation value, etc. Corresponding based on commonality / similarity.

このような処理は、通常、監視カメラが200ms程度の周期で撮像した監視画像を用いて行われる。   Such processing is normally performed using a monitoring image captured by the monitoring camera at a cycle of about 200 ms.

特開2010−045501号公報JP 2010-045501 A

しかしながら、カメラ内部で発生する撮像素子等などのノイズや照明条件の微小変動等の外乱による揺らぎが原因で画素の特徴量が時間変動し、同じ位置を撮像した画素であるにもかかわらず特徴量が一致せずに対応付けできなくなったり、近傍の別画素に誤って対応付けてしまったりするエラーが発生していた。   However, the feature value of a pixel changes over time due to fluctuations caused by disturbances such as noise in the camera, etc., and minute fluctuations in illumination conditions, etc. There is an error that cannot be matched because they do not match or that it is incorrectly matched to another nearby pixel.

すなわち、通常用いられる監視カメラでは、各撮像素子が一定時間(例えば200msの間)に出力する輝度信号の平均値を、その撮像素子に対応する画素の輝度値として出力する。そして、このように出力される輝度値は、上記一定時間内に発生した外乱やカメラ内部のノイズの影響で常に揺らいでおり、不安定である。そのため、この輝度値を用いる限り、揺らぎによる対応付けエラーを避けることが困難であった。   That is, in a normally used monitoring camera, an average value of luminance signals output from each image sensor for a certain time (for example, for 200 ms) is output as a luminance value of a pixel corresponding to the image sensor. The luminance value output in this way is unstable because it always fluctuates due to the disturbance generated within the predetermined time and the noise inside the camera. Therefore, as long as this luminance value is used, it is difficult to avoid an association error due to fluctuation.

また、対応付けは画素間で特徴量どうしを演算して行うが、揺らぎを含む特徴量どうしの演算が揺らぎの影響を倍増させていた。さらに、特徴量どうしの演算結果である差や相関値はスカラとなってしまっているため、特徴量どうしの演算結果から非揺らぎ成分を分離して対応付けに用いることが困難となっていた。   In addition, the correlation is performed by calculating feature quantities between pixels, but the calculation of feature quantities including fluctuations doubles the influence of fluctuations. Furthermore, since the difference or correlation value that is the calculation result between the feature quantities is a scalar, it is difficult to separate the non-fluctuation component from the calculation result between the feature quantities and use it for association.

そこで、本発明は上記問題点に鑑みてなされたものであり、計測信号に揺らぎが生じていても、共通の空間を計測した複数の計測信号から、対応する位置を計測した計測信号を高精度に認識できる空間認識装置を提供することを目的とするものである。   Therefore, the present invention has been made in view of the above problems, and even if fluctuation occurs in the measurement signal, the measurement signal obtained by measuring the corresponding position from the plurality of measurement signals obtained by measuring the common space is highly accurate. It is an object of the present invention to provide a space recognition device that can be recognized.

上記した目的を達成するために、本発明に係る空間認識装置は、第一計測面上に配置された1または複数の第一計測部が任意の時間区間において任意の空間の物理量を計測して当該各第一計測部が出力した第一計測信号から、前記第一計測面上に設定された第一小領域における特徴量ごとの時間頻度を算出する第一特徴量分布算出部と、
前記第一計測面とは異なる第二計測面上に配置された複数の第二計測部のそれぞれが前記時間区間において前記空間の物理量を計測して当該各第二計測部が出力した第二計測信号から、前記第二計測面上に設定された複数の第二小領域のそれぞれにおける前記特徴量ごとの時間頻度を算出する第二特徴量分布算出部と、
前記第一小領域と前記複数の第二小領域それぞれとの間で、前記特徴量どうしの相違性または類似性を表す対応指標値を求め、前記対応指標値ごとの時間頻度を要素とする対応指標値分布を算出する対応指標値分布算出部と、
前記複数の第二小領域の前記対応指標値分布を用いて、前記複数の第二小領域の中から前記第一小領域と対応する前記空間内の位置の物理量を計測した第二小領域を認識する対応領域認識部と、
を備えたことを特徴とする。
In order to achieve the above-described object, the space recognition device according to the present invention is configured such that one or more first measurement units arranged on the first measurement surface measure a physical quantity in an arbitrary space in an arbitrary time interval. From the first measurement signal output by each first measurement unit, a first feature amount distribution calculation unit that calculates a time frequency for each feature amount in the first small region set on the first measurement surface;
Each of a plurality of second measurement units arranged on a second measurement surface different from the first measurement surface measures a physical quantity of the space in the time interval and is output by each second measurement unit. A second feature amount distribution calculating unit that calculates a time frequency for each feature amount in each of the plurality of second small regions set on the second measurement surface from the signal;
A correspondence index value representing the difference or similarity between the feature quantities is obtained between the first small area and each of the plurality of second small areas, and the correspondence is obtained using the time frequency for each correspondence index value as an element. A corresponding index value distribution calculating unit for calculating the index value distribution;
Using the correspondence index value distribution of the plurality of second small areas, a second small area obtained by measuring a physical quantity at a position in the space corresponding to the first small area from among the plurality of second small areas. A corresponding area recognition unit for recognizing;
It is provided with.

また、本発明に係る空間認識装置は、前記対応指標値分布算出部が、前記対応指標値ごとに、前記第一小領域の前記特徴量の時間頻度と前記第二小領域の前記特徴量の時間頻度の組み合わせのうち当該対応指標値が算出された組み合わせごとの時間頻度の積を総和して、当該対応指標値の時間頻度を算出してもよい。   Further, in the space recognition device according to the present invention, the correspondence index value distribution calculation unit calculates the time frequency of the feature amount of the first small region and the feature amount of the second small region for each correspondence index value. The time frequency of the corresponding index value may be calculated by summing up the products of the time frequencies for each combination for which the corresponding index value is calculated among the combinations of time frequencies.

さらに、本発明に係る空間認識装置は、前記対応指標値分布算出部が、前記特徴量どうしの相違性を表す前記対応指標値を求めて前記対応指標値分布を算出し、
前記対応領域認識部が、前記対応指標値分布のそれぞれについて当該対応指標値分布における対応指標値と時間頻度の積和値を算出し、前記複数の第二小領域のうち前記積和値が所定値以下である第二小領域の中から前記第一小領域を決定する前記空間内の位置の物理量を計測した第二小領域と認識してもよい。
Furthermore, in the space recognition device according to the present invention, the corresponding index value distribution calculating unit calculates the corresponding index value distribution by obtaining the corresponding index value representing the difference between the feature quantities,
The corresponding area recognition unit calculates a product sum value of a corresponding index value and a time frequency in the corresponding index value distribution for each of the corresponding index value distributions, and the product sum value of the plurality of second small areas is predetermined. You may recognize as the 2nd small area which measured the physical quantity of the position in the said space which determines said 1st small area from the 2nd small area which is below a value.

また、本発明に係る空間認識装置は、前記対応指標値分布算出部が、前記特徴量どうしの類似性を表す前記対応指標値を求めて前記対応指標値分布を算出し、
前記対応領域認識部が、前記対応指標値分布のそれぞれについて当該対応指標値分布における対応指標値と時間頻度の積和値を算出し、前記複数の第二小領域のうち前記積和値が所定値以上である第二小領域の中から前記第一小領域を決定する前記空間内の位置の物理量を計測した第二小領域と認識してもよい。
Further, in the space recognition device according to the present invention, the corresponding index value distribution calculating unit calculates the corresponding index value distribution by obtaining the corresponding index value representing the similarity between the feature quantities,
The corresponding area recognition unit calculates a product sum value of a corresponding index value and a time frequency in the corresponding index value distribution for each of the corresponding index value distributions, and the product sum value of the plurality of second small areas is predetermined. You may recognize as the 2nd small area which measured the physical quantity of the position in the said space which determines said 1st small area from the 2nd small area which is more than a value.

さらに、本発明に係る空間認識装置は、前記複数の第一計測部が、前記第一計測面を第一撮像面として該第一撮像面上に配置され、前記空間を撮像してそれぞれが前記第一計測信号としての第一輝度信号を出力する複数の第一光電変換部からなり、
前記複数の第二計測部が、前記第一計測面とは異なる前記第二計測面を第二撮像面として該第二撮像面上に配置され、それぞれが前記空間を撮像して前記第二計測信号としての第二輝度信号を出力する複数の第二光電変換部からなる構成としてもよい。
Furthermore, in the space recognition apparatus according to the present invention, the plurality of first measurement units are arranged on the first imaging surface with the first measurement surface as the first imaging surface, It consists of a plurality of first photoelectric conversion units that output a first luminance signal as a first measurement signal,
The plurality of second measurement units are arranged on the second imaging surface with the second measurement surface different from the first measurement surface as a second imaging surface, and each of the second measurement units images the space and performs the second measurement. It is good also as a structure which consists of a some 2nd photoelectric conversion part which outputs the 2nd luminance signal as a signal.

本発明の空間認識装置によれば、第一小領域および第二小領域における計測信号の特徴量ごとの時間頻度において、さらには第一小領域と第二小領域の間で算出される対応指標値ごとの時間頻度においては、時間頻度の低い揺らぎ成分と、時間頻度の高い非揺らぎ成分が区別できる。そのため、非揺らぎ成分による第一小領域と第二小領域の対応関係だけを正しく認識でき、認識精度が格段に向上する。   According to the space recognition device of the present invention, in the time frequency for each feature amount of the measurement signal in the first small area and the second small area, the correspondence index calculated between the first small area and the second small area In the time frequency for each value, a fluctuation component with a low time frequency and a non-fluctuation component with a high time frequency can be distinguished. Therefore, only the correspondence between the first small area and the second small area due to the non-fluctuation component can be correctly recognized, and the recognition accuracy is greatly improved.

本発明に係る空間認識装置の概略構成を示す図である。It is a figure which shows schematic structure of the space recognition apparatus which concerns on this invention. 分布画像の模式図である。It is a schematic diagram of a distribution image. 本発明に係る空間認識装置の機能ブロック図である。It is a functional block diagram of the space recognition device concerning the present invention. (a)時間と輝度値との関係の一例を示す図である。 (b)輝度値と時間頻度との関係の一例を示す図である。(A) It is a figure which shows an example of the relationship between time and a luminance value. (B) It is a figure which shows an example of the relationship between a luminance value and time frequency. 輝度差分布の一例を示す説明図である。It is explanatory drawing which shows an example of luminance difference distribution. 本発明に係る空間認識装置における2台のカメラと処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of two cameras and a process part in the space recognition apparatus which concerns on this invention.

以下、本発明を実施するための形態について、添付した図面の図1〜6を参照しながら詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to FIGS. 1 to 6 of the accompanying drawings.

[空間認識装置の構成について]
図1に示すように、本実施の形態の空間認識装置1は、撮像部2、記憶部3、処理部4、出力部5を含んで構成され、互いに異なる方向から共通の空間を計測した複数の計測信号(例えば輝度信号)の中から、対応する位置を計測した計測信号を認識する。
[Configuration of space recognition device]
As shown in FIG. 1, the space recognition device 1 according to the present embodiment includes an imaging unit 2, a storage unit 3, a processing unit 4, and an output unit 5, and measures a plurality of common spaces from different directions. Among the measurement signals (for example, luminance signals), the measurement signal obtained by measuring the corresponding position is recognized.

撮像部2は、カメラ2aとカメラ2bとを含んで構成される。カメラ2aとカメラ2bは、所定の空間(監視空間)を高速撮像して所定周期で図2に示すような、特徴量分布の集まりである分布画像を生成し、処理部4に出力する。なお、図2におけるx方向(水平方向)およびy方向(垂直方向)の一つ一つの矩形部分が画素に対応している。   The imaging unit 2 includes a camera 2a and a camera 2b. The camera 2 a and the camera 2 b capture a predetermined space (monitoring space) at high speed, generate a distribution image that is a collection of feature amount distributions as shown in FIG. 2 at a predetermined period, and output the distribution image to the processing unit 4. Note that each rectangular portion in the x direction (horizontal direction) and the y direction (vertical direction) in FIG. 2 corresponds to a pixel.

カメラ2aとカメラ2bは、少なくとも視野の一部を共有するものであり、例えば2台のカメラ2a,2bが人の目を模した間隔で設置されたステレオカメラで構成することができる。   The camera 2a and the camera 2b share at least a part of the field of view, and can be configured by, for example, a stereo camera in which two cameras 2a and 2b are installed at intervals imitating human eyes.

また、例えば、部屋の壁と天井に設置された2台のカメラ2a,2bや、部屋の天井に数メートル離して設置された2台のカメラ(一般的な視野共有カメラ)2a,2bで構成することもできる。   Also, for example, it is composed of two cameras 2a and 2b installed on the wall and ceiling of the room, and two cameras (general view sharing cameras) 2a and 2b installed on the ceiling of the room several meters apart. You can also

カメラ2aは、図3に示す複数の光電変換部20a(20a−1,20a−2,…,20a−N)を備える。複数の光電変換部20a−1,20a−2,…,20a−Nのそれぞれは第一計測部(第一撮像部)であり、それぞれ監視空間に存在する物体からの反射光を光電変換して、反射光の輝度に応じた輝度信号を出力する。   The camera 2a includes a plurality of photoelectric conversion units 20a (20a-1, 20a-2, ..., 20a-N) shown in FIG. Each of the plurality of photoelectric conversion units 20a-1, 20a-2,..., 20a-N is a first measurement unit (first imaging unit), and photoelectrically converts reflected light from an object existing in the monitoring space. A luminance signal corresponding to the luminance of the reflected light is output.

また、カメラ2aは、図3に示す特徴量分布算出部21aを備える。特徴量分布算出部21aは、複数の光電変換部20a−1,20a−2,…,20a−Nからの輝度信号を一定時間保持し、保持した所定時間幅の輝度信号から、1または複数の光電変換部20aを単位とする特徴量ごとの時間頻度を第一特徴量分布として算出する。   Further, the camera 2a includes a feature amount distribution calculation unit 21a shown in FIG. The feature amount distribution calculation unit 21a holds the luminance signals from the plurality of photoelectric conversion units 20a-1, 20a-2,..., 20a-N for a certain period of time, and from the held luminance signals of a predetermined time width, one or more The time frequency for each feature amount with the photoelectric conversion unit 20a as a unit is calculated as the first feature amount distribution.

カメラ2bは、カメラ2aと同様に、図3に示す複数の光電変換部20b(20b−1,20b−2,…,20b−N)を備える。複数の光電変換部20b−1,20b−2,…,20b−Nのそれぞれは第二計測部(第二撮像部)であり、それぞれ監視空間に存在する物体からの反射光を光電変換して、反射光の輝度に応じた輝度信号を出力する。   Similarly to the camera 2a, the camera 2b includes a plurality of photoelectric conversion units 20b (20b-1, 20b-2,..., 20b-N) illustrated in FIG. Each of the plurality of photoelectric conversion units 20b-1, 20b-2,..., 20b-N is a second measurement unit (second imaging unit), and photoelectrically converts reflected light from an object existing in the monitoring space. A luminance signal corresponding to the luminance of the reflected light is output.

また、カメラ2bは、カメラ2aと同様に、図3に示す特徴量分布算出部21bを備える。特徴量分布算出部21bは、複数の光電変換部20b−1,20b−2,…,20b−Nからの輝度信号を一定時間保持し、保持した所定時間幅の輝度信号から、1または複数の光電変換部20bを単位とする特徴量ごとの時間頻度を第二特徴量分布として算出する。   Similarly to the camera 2a, the camera 2b includes a feature amount distribution calculation unit 21b shown in FIG. The feature amount distribution calculation unit 21b holds the luminance signals from the plurality of photoelectric conversion units 20b-1, 20b-2,..., 20b-N for a certain period of time, and from the held luminance signals of a predetermined time width, one or more The time frequency for each feature value with the photoelectric conversion unit 20b as a unit is calculated as the second feature value distribution.

なお、本例では、2台のカメラ2a,2bを用いているが、これに限定されるものではなく、例えば3台以上のカメラで計測部2を構成してもよい。   In this example, two cameras 2a and 2b are used. However, the present invention is not limited to this. For example, the measuring unit 2 may be configured by three or more cameras.

本例において、特徴量分布算出部21aは、カメラ2aの1または複数の光電変換部20aを単位とする第一特徴量分布を複数算出し、それらの集まりによる画像を第一分布画像としている。同様に、特徴量分布算出部21bは、カメラ2bの1または複数の光電変換部20bを単位とする第二特徴量分布を複数算出し、それらの集まりによる画像を第二分布画像としている。   In this example, the feature quantity distribution calculation unit 21a calculates a plurality of first feature quantity distributions with one or more photoelectric conversion units 20a of the camera 2a as a unit, and uses an image of these as a first distribution image. Similarly, the feature quantity distribution calculation unit 21b calculates a plurality of second feature quantity distributions using one or more photoelectric conversion units 20b of the camera 2b as a unit, and uses an image of these as a second distribution image.

記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置で構成され、各種プログラムや各種データを記憶する。また、記憶部3は、処理部4と接続されて処理部4との間でこれらの情報を入出力する。   The storage unit 3 includes a memory device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores various programs and various data. The storage unit 3 is connected to the processing unit 4 and inputs / outputs such information to / from the processing unit 4.

処理部4は、CPU(Central Processing Unit )、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。   The processing unit 4 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit).

処理部4は、記憶部3と接続され、記憶部3からプログラムを読み出して実行することにより各種処理・制御手段として動作する。また、処理部4は、各種データを記憶部3に記憶させ、各種データの読み出しを行う。   The processing unit 4 is connected to the storage unit 3 and operates as various processing / control units by reading out and executing a program from the storage unit 3. The processing unit 4 stores various data in the storage unit 3 and reads out the various data.

さらに、処理部4は、カメラ2a、カメラ2bおよび出力部5とも接続され、カメラ2aおよびカメラ2bからの分布画像を処理して、互いに異なる方向から共通の空間を撮像した複数の輝度信号の中から、対応する位置を撮像した輝度信号を認識し、この認識結果から生成される距離画像に基づく空間認識情報(例えば通行者数と通行者位置)を出力部5に出力する。   Furthermore, the processing unit 4 is also connected to the camera 2a, the camera 2b, and the output unit 5, and processes the distribution image from the camera 2a and the camera 2b to capture a common space from different directions. Then, the luminance signal obtained by imaging the corresponding position is recognized, and space recognition information (for example, the number of passers and passer positions) based on the distance image generated from the recognition result is output to the output unit 5.

出力部5は、処理部4と接続され、処理部4からの空間認識情報を外部出力する。具体的には、出力部5は、通信装置で構成され、所定のネットワークを介して遠隔の警備センターに空間認識情報を伝送する。   The output unit 5 is connected to the processing unit 4 and outputs the space recognition information from the processing unit 4 to the outside. Specifically, the output unit 5 is composed of a communication device, and transmits space recognition information to a remote security center via a predetermined network.

さらに、図3の機能ブロック図を参照しながら各部の構成について説明する。   Further, the configuration of each unit will be described with reference to the functional block diagram of FIG.

複数の光電変換部20a−1,20a−2,…,20a−Nは、それぞれが撮像素子、電子シャッター、増幅器、A/D変換器を含む。同様に、複数の光電変換部20b−1,20b−2,…,20b−Nは、それぞれが撮像素子、電子シャッター、増幅器、A/D変換器を含む。電子シャッター、増幅器およびA/D変換器は2以上の光電変換部20a,20bにより共有させてもよい。   Each of the plurality of photoelectric conversion units 20a-1, 20a-2,..., 20a-N includes an image sensor, an electronic shutter, an amplifier, and an A / D converter. Similarly, each of the plurality of photoelectric conversion units 20b-1, 20b-2,..., 20b-N includes an image sensor, an electronic shutter, an amplifier, and an A / D converter. The electronic shutter, amplifier, and A / D converter may be shared by two or more photoelectric conversion units 20a and 20b.

撮像素子は、CCD(Charge Coupled Devices)またはC−MOS(Complementary Metal Oxide Semiconductor )などで構成され、監視空間の可視光線の強度を計測して、計測した強度を電圧値とする輝度信号を出力する。   The imaging device is composed of a CCD (Charge Coupled Devices) or a C-MOS (Complementary Metal Oxide Semiconductor), and measures the intensity of visible light in the monitoring space and outputs a luminance signal having the measured intensity as a voltage value. .

例えば、各光電変換部20a,20bは、1/500秒ごとに電子シャッターを作動させて、作動時の各撮像素子の電圧を増幅器で増幅し、A/D変換器でサンプリングすることにより、1/500秒ごとに輝度値を0〜255の256階調に離散化したディジタルの輝度信号を出力する。   For example, each photoelectric conversion unit 20a, 20b operates an electronic shutter every 1/500 seconds, amplifies the voltage of each imaging device at the time of operation with an amplifier, and samples with an A / D converter, thereby 1 / A digital luminance signal in which the luminance value is discretized into 256 gradations from 0 to 255 every 500 seconds is output.

複数の撮像素子は、所定の撮像面上に配置されて面をなし、当該面に監視空間を投影する。例えば、撮像素子を平面の基板上に、基板のX方向に等間隔で640個、Y方向に等間隔で480個というように、アレー状に配置し、1/500秒ごとに640×480画素の濃淡画像を撮像する。   The plurality of image sensors are arranged on a predetermined imaging surface to form a surface, and project the monitoring space onto the surface. For example, the image sensors are arranged in an array on a flat substrate such that 640 elements are equally spaced in the X direction of the substrate and 480 elements are equally spaced in the Y direction, and 640 × 480 pixels every 1/500 second. The gray image is taken.

また、複数の撮像素子は、それぞれがR、G、Bの各帯域に適合したカラーフィルタを備えた3つの撮像素子を単位とする撮像素子の組を、平面の基板上に、X方向に等間隔で640組、Y方向に等間隔で480組というように、アレー状に配置し、640×480画素のカラー画像を撮像することもできる。   In addition, a plurality of image pickup devices each include a set of image pickup devices each having three image pickup devices each having a color filter suitable for each of the R, G, and B bands on a flat substrate in the X direction. 640 sets at intervals and 480 sets at equal intervals in the Y direction can be arranged in an array to pick up a color image of 640 × 480 pixels.

さらに、RGBの輝度信号をHSVなど他の表色系に変換して出力してもよい。   Further, RGB luminance signals may be converted into another color system such as HSV and output.

光電変換部20a,20bの撮像周期(計測周期)は、検出対象とする変化よりも十分短ければよく、例えば人を主たる認識対象とする場合は、1/100秒、または1/200秒などでもよい。   The imaging period (measurement period) of the photoelectric conversion units 20a and 20b only needs to be sufficiently shorter than the change to be detected. For example, when the person is the main recognition object, 1/100 second or 1/200 second may be used. Good.

また、階調数、光電変換部20a,20bの個数も上記例に限らず、検出対象や空間の大きさに応じた設定とすることができる。また、光電変換部20aの個数と光電変換部20bの個数は異なっていてもよい。   The number of gradations and the number of photoelectric conversion units 20a and 20b are not limited to the above example, and can be set according to the detection target and the size of the space. Further, the number of photoelectric conversion units 20a and the number of photoelectric conversion units 20b may be different.

なお、本実施の形態において、光電変換部20aの撮像面が第一撮像面であり、第一撮像面に設定される小領域が第一小領域である。また、光電変換部20bの撮像面が第二撮像面であり、第二撮像面に設定される小領域が第二小領域である。また、第一撮像面に投影される空間と第二撮像面に投影される空間は、少なくとも一部が共通である。   In the present embodiment, the imaging surface of the photoelectric conversion unit 20a is the first imaging surface, and the small region set on the first imaging surface is the first small region. Further, the imaging surface of the photoelectric conversion unit 20b is the second imaging surface, and the small region set on the second imaging surface is the second small region. In addition, at least a part of the space projected onto the first imaging surface and the space projected onto the second imaging surface are common.

本実施の形態において、カメラ2a、2bはステレオカメラであり、第一撮像面と第二撮像面は人の目の間隔程度に離れて同一平面上に設定される。   In the present embodiment, the cameras 2a and 2b are stereo cameras, and the first image pickup surface and the second image pickup surface are set on the same plane so as to be separated from each other by an interval of human eyes.

別の実施の形態において、カメラ2a、2bは一般的な視野共有カメラとすることもできる。この場合、第一撮像面と第二撮像面は例えば数メートル離れた位置の、異なる平面上に設定される。   In another embodiment, the cameras 2a and 2b can be general field-of-view sharing cameras. In this case, the first imaging surface and the second imaging surface are set on different planes, for example, at positions separated by several meters.

以上のように、第一撮像面上に配置された複数の光電変換部20a−1,20a−2,…,20a−Nは、任意の時間区間において任意の空間を撮像し、光電変換部20a−1,20a−2,…,20a−Nのそれぞれが輝度信号を出力する。すなわち、第一計測面上に配置された複数の第一計測部は任意の時間区間において任意の空間の物理量を計測してそれぞれが計測信号を出力する。   As described above, the plurality of photoelectric conversion units 20 a-1, 20 a-2,..., 20 a -N arranged on the first imaging surface capture an arbitrary space in an arbitrary time interval, and the photoelectric conversion unit 20 a. -1, 20a-2, ..., 20a-N each output a luminance signal. That is, the plurality of first measurement units arranged on the first measurement surface measure a physical quantity in an arbitrary space in an arbitrary time interval, and each outputs a measurement signal.

また、第一撮像面とは異なる第二撮像面上に配置された複数の光電変換部20b−1,20b−2,…,20b−Nは、上記時間区間において上記空間を撮像し、光電変換部20b−1,20b−2,…,20b−Nのそれぞれが輝度信号を出力する。すなわち、第一計測面とは異なる第二計測面上に配置された複数の第二計測部は前記時間区間において前記空間の物理量を計測してそれぞれが計測信号を出力する。   In addition, the plurality of photoelectric conversion units 20b-1, 20b-2,..., 20b-N arranged on the second imaging surface different from the first imaging surface images the space in the time interval and performs photoelectric conversion. Each of the units 20b-1, 20b-2, ..., 20b-N outputs a luminance signal. That is, the plurality of second measurement units arranged on the second measurement surface different from the first measurement surface measure the physical quantity of the space in the time interval, and each outputs a measurement signal.

なお、本実施の形態では、カメラ2aが特徴量分布算出部21aを含んで機能し、カメラ2bが特徴量分布算出部21bを含んで機能し、処理部4が対応指標値分布算出部23、対応領域認識部24、距離画像生成部25、通行者認識部26を含んで機能し、記憶部3がカメラパラメータ記憶部22を含んで機能する。   In the present embodiment, the camera 2a functions including the feature amount distribution calculating unit 21a, the camera 2b functions including the feature amount distribution calculating unit 21b, and the processing unit 4 includes the corresponding index value distribution calculating unit 23, The corresponding area recognition unit 24, the distance image generation unit 25, and the passer-by recognition unit 26 function, and the storage unit 3 includes the camera parameter storage unit 22.

特徴量分布算出部21aは、本発明における第一特徴量分布算出部であり、バッファ、演算回路を含む。バッファは、例えばリングバッファで構成され、複数の光電変換部20a−1,20a−2,…,20a−Nからの輝度信号を一定時間保持し、撮像周期ごとの輝度値を循環記憶する。   The feature quantity distribution calculation unit 21a is a first feature quantity distribution calculation unit in the present invention, and includes a buffer and an arithmetic circuit. The buffer is composed of, for example, a ring buffer, holds the luminance signals from the plurality of photoelectric conversion units 20a-1, 20a-2,..., 20a-N for a certain period of time, and cyclically stores the luminance values for each imaging cycle.

特徴量分布算出部21bは、本発明における第二特徴量分布算出部であり、特徴量分布算出部21aと同様に、バッファ、演算回路を含む。バッファは、例えばリングバッファで構成され、複数の光電変換部20b−1,20b−2,…,20b−Nからの輝度信号を一定時間保持し、撮像周期ごとの輝度値を循環記憶する。   The feature quantity distribution calculation unit 21b is a second feature quantity distribution calculation unit according to the present invention, and includes a buffer and an arithmetic circuit similarly to the feature quantity distribution calculation unit 21a. The buffer is composed of, for example, a ring buffer, holds the luminance signals from the plurality of photoelectric conversion units 20b-1, 20b-2,..., 20b-N for a certain period of time, and circulates and stores the luminance values for each imaging cycle.

本例では、予め定めた頻度算出時間幅以上のバッファを光電変換部20a,20bの数だけ備える。   In this example, the number of buffers equal to or greater than a predetermined frequency calculation time width is provided for the number of photoelectric conversion units 20a and 20b.

例えば、撮像周期が1/500秒、頻度算出時間幅が1/5秒間であれば、バッファ長が100以上のバッファを光電変換部20a,20bの数だけ用意する。   For example, if the imaging cycle is 1/500 seconds and the frequency calculation time width is 1/5 seconds, buffers having a buffer length of 100 or more are prepared as many as the number of photoelectric conversion units 20a and 20b.

演算回路は、バッファに保持した頻度算出時間幅の輝度信号から特徴量ごとの時間頻度を頻度算出周期で算出して、特徴量分布を生成し、対応指標値分布算出部23に出力する。   The arithmetic circuit calculates the time frequency for each feature amount from the luminance signal of the frequency calculation time width held in the buffer in the frequency calculation cycle, generates a feature amount distribution, and outputs the feature amount distribution to the corresponding index value distribution calculation unit 23.

例えば演算回路は、撮像部2の撮像面上に予め設定された複数の小領域のそれぞれにおいて特徴量の正規化ヒストグラムを算出する。   For example, the arithmetic circuit calculates a normalized histogram of feature amounts in each of a plurality of small regions set in advance on the imaging surface of the imaging unit 2.

例えば、小領域を上記濃淡画像の画素、特徴量を上記濃淡画像の輝度値とすることができる。つまり、光電変換部20a,20bと小領域が1対1対応し、特徴量はスカラである。   For example, the small area can be the pixel of the gray image, and the feature amount can be the luminance value of the gray image. That is, the photoelectric conversion units 20a and 20b and the small regions have a one-to-one correspondence, and the feature amount is a scalar.

また、例えば、小領域を上記カラー画像の画素、特徴量をR、G、Bの輝度値としてもよい。この場合、光電変換部20a,20bと小領域が3対1対応し、特徴量は3次元ベクトルである。   Further, for example, the small area may be the pixel of the color image, and the feature amount may be the R, G, and B luminance values. In this case, the photoelectric conversion units 20a and 20b and the small regions have a one-to-one correspondence, and the feature amount is a three-dimensional vector.

さらに、例えば、上記濃淡画像またはカラー画像における近傍の複数画素(2×2画素、3×3画素など)を小領域としてもよい。この場合、解像度変換を行いつつ、各小領域における時間頻度算出の元データを増やせる。   Furthermore, for example, a plurality of neighboring pixels (2 × 2 pixels, 3 × 3 pixels, etc.) in the grayscale image or color image may be set as a small region. In this case, the original data for calculating the time frequency in each small area can be increased while performing resolution conversion.

頻度算出周期は、頻度算出時間幅1/5秒間に対して、1/5秒とすることができる。この場合、オーバーラップも間引きもないということになる。   The frequency calculation cycle can be set to 1/5 second with respect to the frequency calculation time width of 1/5 second. In this case, there is no overlap or thinning.

なお、頻度算出周期を頻度算出時間幅よりも短く設定してオーバーラップを設けてもよいし、頻度算出周期を頻度算出時間幅よりも長く設定して間引きしてもよい。   Note that the frequency calculation cycle may be set shorter than the frequency calculation time width to provide overlap, or the frequency calculation cycle may be set longer than the frequency calculation time width and thinned.

以上のように、特徴量分布算出部21aは、第一計測面上(カメラ2aの第一撮像面上)に設定された第一小領域における計測信号(輝度信号)から特徴量ごとの時間頻度を算出することによって、特徴量分布(第一特徴量分布)を算出する。   As described above, the feature amount distribution calculating unit 21a calculates the time frequency for each feature amount from the measurement signal (luminance signal) in the first small area set on the first measurement surface (on the first imaging surface of the camera 2a). To calculate a feature amount distribution (first feature amount distribution).

特徴量分布算出部21bは、第一計測面と異なる第二計測面上(カメラ2bの第二撮像面上)に設定された複数の第二小領域のそれぞれにおける計測信号(輝度信号)から特徴量ごとの時間頻度を算出することによって、特徴量分布(第二特徴量分布)を算出する。各特徴量分布においては、非揺らぎ成分である真の特徴量の時間頻度が有意に高い値を示し、これと比較して、揺らぎ成分である偽の特徴量の時間頻度は十分に低いものとなる。例えば、突発的なノイズが発生し、その振幅が大きかったとしてもノイズによる偽の特徴量の時間頻度は十分低いものとなる。そのため、特徴量分布を用いることで真の特徴量と偽の特徴量を区別することが可能となる。   The feature amount distribution calculation unit 21b is characterized by measurement signals (luminance signals) in each of a plurality of second small regions set on a second measurement surface (on the second imaging surface of the camera 2b) different from the first measurement surface. A feature amount distribution (second feature amount distribution) is calculated by calculating a time frequency for each amount. In each feature quantity distribution, the time frequency of the true feature quantity that is a non-fluctuating component shows a significantly high value. Compared with this, the time frequency of the false feature quantity that is a fluctuation component is sufficiently low. Become. For example, even if sudden noise occurs and the amplitude is large, the time frequency of the false feature amount due to the noise is sufficiently low. Therefore, it is possible to distinguish a true feature value from a false feature value by using a feature value distribution.

ここで、図4(a)はある画素における輝度信号の時間と輝度値の関係の一例を示す。図4(a)に示すように、輝度値が0〜255の範囲で時間の経過とともに変化したものとする。頻度算出時間幅Tの輝度値の数が例えば100個である場合、各輝度値の度数を計数し、計数結果のそれぞれを100で除して時間頻度を算出すると、当該画素における輝度値と時間頻度は図4(b)に示す正規化ヒストグラムのような関係になる。   Here, FIG. 4A shows an example of the relationship between the luminance signal time and the luminance value in a certain pixel. As shown in FIG. 4A, it is assumed that the luminance value changes with time in the range of 0-255. When the number of luminance values of the frequency calculation time width T is 100, for example, the frequency value of each luminance value is counted, and when the time frequency is calculated by dividing each of the counting results by 100, the luminance value and time in the pixel are calculated. The frequency has a relationship like a normalized histogram shown in FIG.

カメラパラメータ記憶部22は、カメラ2a及びカメラ2bにより撮像される空間に予め定めた両カメラ2a,2bに共通のXYZ座標系(世界座標系)における、カメラ2aのカメラパラメータ及びカメラ2bのカメラパラメータを予め記憶する。   The camera parameter storage unit 22 has a camera parameter of the camera 2a and a camera parameter of the camera 2b in an XYZ coordinate system (world coordinate system) common to both the cameras 2a and 2b predetermined in a space captured by the camera 2a and the camera 2b. Is stored in advance.

カメラ2aとカメラ2bの各カメラパラメータは、以下に説明するように、外部パラメータと内部パラメータからなる。   Each camera parameter of the camera 2a and the camera 2b includes an external parameter and an internal parameter, as will be described below.

カメラ2aの外部パラメータは、世界座標系におけるカメラ2aの位置(視点)、撮影方向、画角を含む。カメラ2bの外部パラメータは、世界座標系におけるカメラ2bの位置、撮影方向、画角を含む。   The external parameters of the camera 2a include the position (viewpoint) of the camera 2a in the world coordinate system, the shooting direction, and the angle of view. The external parameters of the camera 2b include the position of the camera 2b in the world coordinate system, the shooting direction, and the angle of view.

カメラ2aの内部パラメータは、カメラ2aの焦点距離、中心座標、歪係数を含む。カメラ2bの内部パラメータは、カメラ2bの焦点距離、中心座標、歪係数を含む。   The internal parameters of the camera 2a include the focal length, center coordinates, and distortion coefficient of the camera 2a. The internal parameters of the camera 2b include the focal length, center coordinates, and distortion coefficient of the camera 2b.

なお、カメラ2aのカメラパラメータをピンホールカメラモデルに適用することによって、世界座標系の座標とカメラ2aの撮影面の座標系の間で座標変換が可能となる。同様に、カメラ2bのカメラパラメータを用いることによって、世界座標系の座標とカメラ2bの撮影面の座標系の間で座標変換が可能となる。   In addition, by applying the camera parameters of the camera 2a to the pinhole camera model, coordinate conversion can be performed between the coordinates of the world coordinate system and the coordinate system of the photographing surface of the camera 2a. Similarly, by using the camera parameters of the camera 2b, coordinate conversion can be performed between the coordinates of the world coordinate system and the coordinate system of the imaging surface of the camera 2b.

対応指標値分布算出部23は、特徴量分布算出部21aが算出した第一特徴量分布と、特徴量分布算出部21bが算出した第二特徴量分布の間で、小領域間の対応指標値ごとの時間頻度を算出し、対応領域認識部24に出力する。   The correspondence index value distribution calculation unit 23 is a correspondence index value between small regions between the first feature amount distribution calculated by the feature amount distribution calculation unit 21a and the second feature amount distribution calculated by the feature amount distribution calculation unit 21b. Each time frequency is calculated and output to the corresponding region recognition unit 24.

対応指標値は、特徴量どうしの相違性または類似性を表す値であり、対応関係を認識するための指標となる値である。   The correspondence index value is a value representing the difference or similarity between the feature quantities, and is a value serving as an index for recognizing the correspondence.

例えば、特徴量を濃淡画像の輝度値、対応指標値を輝度差とすることができる。この場合、対応指標値である輝度差は、特徴量どうしの相違性を表す値となる。したがって、輝度差が小さな小領域どうしほど相違性が低く、対応する可能性が高いこととなり、逆に輝度差が大きな小領域どうしほど相違性が高く、対応する可能性が低いこととなる。   For example, the feature amount can be a luminance value of a grayscale image, and the corresponding index value can be a luminance difference. In this case, the luminance difference that is the corresponding index value is a value representing the difference between the feature amounts. Therefore, the small areas having a small luminance difference have a lower difference and are more likely to correspond. Conversely, the small areas having a larger luminance difference have a higher difference and have a lower possibility of corresponding.

小領域間の対応指標値ごとの時間頻度は例えば正規化ヒストグラムの形式で表現される。以下、これを対応指標値分布と称する。対応指標値分布は、第一小領域と対応する第二小領域を認識するための基礎となる情報である。   The time frequency for each correspondence index value between the small areas is expressed in the form of a normalized histogram, for example. Hereinafter, this is referred to as a corresponding index value distribution. The correspondence index value distribution is information serving as a basis for recognizing the second small area corresponding to the first small area.

対応指標値分布算出部23は、第一小領域それぞれに対して複数の第二小領域を候補とし、第一小領域それぞれに対する探索範囲を第二分布画像中(つまり第二計測面中)に定めて、当該第一小領域と探索範囲内の第二小領域の間で対応指標値分布を算出する。探索範囲は、例えば第一分布画像中の画素の第二分布画像への射影領域である。   The corresponding index value distribution calculation unit 23 sets a plurality of second small areas as candidates for each of the first small areas, and sets a search range for each of the first small areas in the second distribution image (that is, in the second measurement plane). Then, a corresponding index value distribution is calculated between the first small area and the second small area within the search range. The search range is, for example, a projection area of pixels in the first distribution image onto the second distribution image.

具体的に、対応指標値分布算出部23は、第一撮像面の座標系で表された第一特徴量分布中の任意の画素の座標をカメラ2aのカメラパラメータを用いて世界座標系に逆投影してエピポーラ線を導出し、世界座標系で表されたエピポーラ線をカメラ2bのカメラパラメータを用いて第二撮像面の座標系に投影する。そして、エピポーラ線の投影像とその近傍を第一特徴量分布中の任意の画素に対する探索範囲とする。   Specifically, the correspondence index value distribution calculation unit 23 converts the coordinates of an arbitrary pixel in the first feature amount distribution expressed in the coordinate system of the first imaging surface to the world coordinate system using the camera parameters of the camera 2a. The epipolar line is derived by projection, and the epipolar line expressed in the world coordinate system is projected onto the coordinate system of the second imaging plane using the camera parameters of the camera 2b. Then, the projection image of the epipolar line and its vicinity are set as a search range for an arbitrary pixel in the first feature amount distribution.

例えば、カメラ2a,2bがステレオカメラである例においては、第二撮像面のx軸方向に沿った探索範囲とすることができ、そのx軸方向に沿った探索範囲の画素数nがエピポーラ線の投影像から決定できる。   For example, in an example in which the cameras 2a and 2b are stereo cameras, a search range along the x-axis direction of the second imaging surface can be set, and the number n of pixels in the search range along the x-axis direction is an epipolar line. It can be determined from the projected image.

対応指標値分布算出部23は、対応指標値を輝度差とした場合、第一特徴量分布を構成する任意の画素(x,y)における輝度値iの時間頻度Pa(i)と、第二特徴量分布中の対応画素の候補(x+d,y)における輝度値jの時間頻度Pb(j)を基に輝度差分布Ps(x,y,d,|i−j|)を下記式(1)により算出する。   When the corresponding index value is a luminance difference, the corresponding index value distribution calculating unit 23 calculates the time frequency Pa (i) of the luminance value i at any pixel (x, y) constituting the first feature amount distribution and the second A luminance difference distribution Ps (x, y, d, | i−j |) is represented by the following formula (1) based on the time frequency Pb (j) of the luminance value j in the corresponding pixel candidate (x + d, y) in the feature amount distribution. ).

Figure 0006332703
Figure 0006332703

ただし、dはずらし幅(視差)であり、0≦d≦nである。また、∫j∫ididjは輝度差が|i−j|である輝度値iとjの組み合わせについて時間頻度の積を総和することを意味する。ちなみに、輝度値i,jおよびiとjの輝度差|i−j|の値域はいずれも0〜255である。   However, d is a shift width (parallax), and 0 ≦ d ≦ n. Further, ∫j∫ididj means summing up products of time frequencies for combinations of luminance values i and j having a luminance difference of | i−j |. Incidentally, the value ranges of the luminance values i, j and the luminance difference | i−j | between i and j are all 0-255.

以下、輝度差分布Psのうち輝度差が0の要素Ps(x,y,d,0)について説明する。   Hereinafter, the element Ps (x, y, d, 0) having a luminance difference of 0 in the luminance difference distribution Ps will be described.

第一特徴量分布側の輝度値i=0,1,…,255に対して、輝度差|i−j|が0となる第二特徴量分布側の輝度値jはそれぞれ0,1,…,255であるから、第一特徴量分布側の時間頻度Pa(x,y,0)と第二特徴量分布側の時間頻度Pb(x+d,y,0)の積、第一特徴量分布側の時間頻度Pa(x,y,1)と第二特徴量分布側の時間頻度Pb(x+d,y,1)の積、…、第一特徴量分布側の時間頻度Pa(x,y,255)と第二特徴量分布側の時間頻度Pb(x+d,y,255)の積を総和して要素Ps(x,y,d,0)が求まる。   The luminance value j on the second feature value distribution side where the luminance difference | i−j | becomes 0 is 0, 1,..., With respect to the luminance value i = 0, 1,. , 255, the product of the time frequency Pa (x, y, 0) on the first feature quantity distribution side and the time frequency Pb (x + d, y, 0) on the second feature quantity distribution side, the first feature quantity distribution side. Product of the time frequency Pa (x, y, 1) of the second and the time frequency Pb (x + d, y, 1) on the second feature quantity distribution side, ..., the time frequency Pa (x, y, 255 on the first feature quantity distribution side) ) And the time frequency Pb (x + d, y, 255) on the second feature quantity distribution side are summed to obtain an element Ps (x, y, d, 0).

次に、輝度差分布Psのうち輝度差が1の要素Ps(x,y,d,1)について説明する。   Next, the element Ps (x, y, d, 1) having a luminance difference of 1 in the luminance difference distribution Ps will be described.

第一特徴量分布側の輝度値i=0,1,2,…,255に対して、輝度差|i−j|が1となる第二特徴量分布側の輝度値jはそれぞれ1,0と2,1と3,…,254であるから、Pa(x,y,0)とPb(x+d,y,1)の積、Pa(x,y,1)とPb(x+d,y,0)の積とPa(x,y,1)とPb(x+d,y,2)の積の和、Pa(x,y,2)とPb(x+d,y,1)の積とPa(x,y,2)とPb(x+d,y,3)の積の和、…、Pa(x,y,255)とPb(x+d,y,254)の積を総和して要素Ps(x,y,d,1)が求まる。   The luminance value j on the second feature value distribution side where the luminance difference | i−j | becomes 1 is 1, 0 with respect to the luminance value i = 0, 1, 2,..., 255 on the first feature value distribution side, respectively. , 2, 1 and 3, ..., 254, the product of Pa (x, y, 0) and Pb (x + d, y, 1), Pa (x, y, 1) and Pb (x + d, y, 0) ) And the product of Pa (x, y, 1) and Pb (x + d, y, 2), the product of Pa (x, y, 2) and Pb (x + d, y, 1) and Pa (x, y, 2) and the product of Pb (x + d, y, 3), ..., the product of Pa (x, y, 255) and Pb (x + d, y, 254) is summed to obtain element Ps (x, y, d, 1) is obtained.

以下、Ps(x,y,d,2)からPs(x,y,d,255)についても同様に求める。   Hereinafter, Ps (x, y, d, 255) is similarly obtained from Ps (x, y, d, 2).

つまり、対応指標値分布算出部23は、各第一小領域について、対応指標値ごとに、第一小領域の特徴量の時間頻度と第二小領域の特徴量の時間頻度の組み合わせのうち当該対応指標値が算出された組み合わせごとの時間頻度の積を総和して、当該対応指標値の時間頻度を算出する。   That is, for each first small region, the corresponding index value distribution calculating unit 23 determines, for each corresponding index value, the combination of the time frequency of the feature amount of the first small region and the time frequency of the feature amount of the second small region. The product of the time frequency for each combination for which the corresponding index value is calculated is summed to calculate the time frequency of the corresponding index value.

図5は輝度差分布の一例を示している。図5の例では、ずらし幅d=0,1,2,3,4であり、第一分布画像中の1画素(x,y)に対して、第二分布画像中の対応画素が5候補(x,y),(x+1,y),(x+2,y),(x+3,y),(x+4,y)あり、これら5候補それぞれとの輝度差分布はPs(x,y,0,|i−j|),Ps(x,y,1,|i−j|),Ps(x,y,2,|i−j|),Ps(x,y,3,|i−j|),Ps(x,y,4,|i−j|)になる。   FIG. 5 shows an example of the luminance difference distribution. In the example of FIG. 5, the shift width d = 0, 1, 2, 3, and 4, and for one pixel (x, y) in the first distribution image, there are five corresponding pixels in the second distribution image. There are (x, y), (x + 1, y), (x + 2, y), (x + 3, y), (x + 4, y), and the luminance difference distribution with each of these five candidates is Ps (x, y, 0, | i−j |), Ps (x, y, 1, | i−j |), Ps (x, y, 2, | i−j |), Ps (x, y, 3, | i−j |) , Ps (x, y, 4, | i−j |).

上記例では、小領域を1画素としたが、監視空間中の平面などにおいては類似する輝度値が連続する場合がある。そこで、近傍画素を含めた複数画素からなる小領域を、オーバーラップさせて設定し、輝度差ごとの時間頻度を複数画素にわたって集計することによって輝度差分布を算出してもよい。そうすることで、画像上で類似する輝度値が連続しても対応する小領域を誤認識しにくくなる。   In the above example, the small area is one pixel, but similar luminance values may be continuous on a plane in the monitoring space. Therefore, the luminance difference distribution may be calculated by setting a small region composed of a plurality of pixels including neighboring pixels so as to overlap each other, and counting the time frequency for each luminance difference over the plurality of pixels. By doing so, even if similar luminance values continue on the image, it becomes difficult to erroneously recognize the corresponding small region.

例えば、カメラ2a,2bがステレオカメラである例において、第一小領域および第二小領域をともにw×1画素とした場合、式(1)は下記式(2)のように拡張される。   For example, in the example in which the cameras 2a and 2b are stereo cameras, when both the first small area and the second small area are w × 1 pixels, the expression (1) is expanded as the following expression (2).

Figure 0006332703
Figure 0006332703

ただし、uは探索点であり、−w/2≦u≦w/2である。   Here, u is a search point, and −w / 2 ≦ u ≦ w / 2.

以上のように、対応指標値分布算出部23は、各第一小領域について、第一小領域と複数の第二小領域のそれぞれとの間で、特徴量どうしの相違性または類似性を表す対応指標値を求め、対応指標値ごとの時間頻度を要素とする対応指標値分布を算出する。このとき、対応指標値分布算出部23は、式(1)および(2)にて例示したように、対応指標値ごとに、第一小領域の特徴量の時間頻度と第二小領域の特徴量の時間頻度の組み合わせのうち当該対応指標値が算出された組み合わせごとの時間頻度の積を総和して、当該対応指標値の時間頻度を算出する。   As described above, the correspondence index value distribution calculation unit 23 represents the difference or similarity between the feature quantities between the first small area and each of the plurality of second small areas for each first small area. Corresponding index values are obtained, and a corresponding index value distribution having the time frequency for each corresponding index value as an element is calculated. At this time, as illustrated in Expressions (1) and (2), the correspondence index value distribution calculation unit 23 calculates the time frequency of the feature amount of the first small region and the feature of the second small region for each correspondence index value. The time frequency of the corresponding index value is calculated by summing up the products of the time frequencies for each combination for which the corresponding index value is calculated among the combinations of the time frequencies of the quantities.

このように算出した対応指標値分布においても、非揺らぎ成分による真の対応指標値の時間頻度が偽の対応指標値の時間頻度よりも有意に高い関係が維持される。よって、真の対応指標値を偽の対応指標値と区別して利用することが可能となる。   In the correspondence index value distribution calculated in this way, the relationship in which the time frequency of the true correspondence index value by the non-fluctuation component is significantly higher than the time frequency of the false correspondence index value is maintained. Therefore, the true correspondence index value can be used separately from the false correspondence index value.

対応領域認識部24は、複数の第二小領域の対応指標値分布を用いて、複数の第二小領域の中から第一小領域と対応する監視空間内の位置を認識する。   The corresponding area recognition unit 24 recognizes a position in the monitoring space corresponding to the first small area from among the plurality of second small areas, using the correspondence index value distribution of the plurality of second small areas.

具体的には、対応領域認識部24は、各第一小領域について、当該第一小領域に対して算出した対応指標値分布ごとに対応指標値分布のノルムを算出し、各ノルムを予め定めた閾値と比較してノルムが閾値以下である第二小領域の中から最も低いノルムが算出された第二小領域を当該第一小領域に対応する第二小領域と決定する。   Specifically, the corresponding area recognition unit 24 calculates the norm of the corresponding index value distribution for each corresponding index value distribution calculated for the first small area, and sets each norm in advance. The second small area for which the lowest norm is calculated is determined as the second small area corresponding to the first small area from the second small areas whose norm is equal to or smaller than the threshold.

なお、対応領域認識部24は、閾値以下のノルムが算出されなかった第一小領域については、対応する第二小領域がないと決定する。また、ノルムが閾値以下である第二小領域が複数存在する場合、対応領域認識部24は、各第二小領域とそれに隣接する第二小領域のノルムの和が最小の第二小領域を第一小領域に対応する第二小領域と決定することで、偶発的な誤対応づけを防止してもよい。   The corresponding area recognition unit 24 determines that there is no corresponding second small area for the first small area for which the norm equal to or less than the threshold value has not been calculated. In addition, when there are a plurality of second small areas whose norms are equal to or less than the threshold value, the corresponding area recognition unit 24 selects the second small area having the smallest sum of norms of each second small area and the second small area adjacent thereto. By determining the second small area corresponding to the first small area, accidental misassociation may be prevented.

ここで、輝度値分布Ps(x,y,d,|i−j|)における輝度差|i−j|についてのノルムは、輝度差と時間頻度との積を総和した積和値Σ|i−j|・Ps(x,y,d,|i−j|)によって定義できる。この定義の場合、輝度差分布の左側(輝度差|i−j|が低い側)に偏った分布ほど低いノルムが算出されやすくなるため、低い輝度差が高頻度で現れた第二小領域ほど対応する第二小領域として認識されやすくなる。   Here, the norm of the luminance difference | i−j | in the luminance value distribution Ps (x, y, d, | i−j |) is a product sum value Σ | i obtained by summing up the products of the luminance difference and the time frequency. −j | · Ps (x, y, d, | i−j |). In the case of this definition, since a lower norm is more likely to be calculated in a distribution biased to the left side of the luminance difference distribution (the side where the luminance difference | i−j | is lower), the second small region in which the lower luminance difference appears more frequently. It becomes easy to be recognized as the corresponding second small region.

図5の例ではd=0の第二小領域が、対応する第二小領域として認識される。   In the example of FIG. 5, the second small area where d = 0 is recognized as the corresponding second small area.

また、例えば、各第一小領域について、当該第一小領域に対して算出した対応指標値分布ごとに(つまり第一小領域と第二小領域の組み合わせごとに)対応指標値の最頻値を検出し、最も低い最頻値が検出された第二小領域を当該第一小領域に対応する第二小領域と認識する。   Also, for example, for each first small area, the mode value of the corresponding index value for each corresponding index value distribution calculated for the first small area (that is, for each combination of the first small area and the second small area) And the second small region in which the lowest mode value is detected is recognized as the second small region corresponding to the first small region.

上述したように、対応指標値分布においては非揺らぎ成分による真の対応指標値の時間頻度が揺らぎ成分による偽の対応指標値の時間頻度よりも有意に高い値となっている。よって、対応領域認識部24は、時間頻度の高い対応指標値を選択的に用いて小領域の対応関係を認識することで、揺らぎ成分による誤認識を効果的に減じて、高精度に対応関係を認識することができる。   As described above, in the corresponding index value distribution, the time frequency of the true corresponding index value due to the non-fluctuating component is significantly higher than the time frequency of the false corresponding index value due to the fluctuation component. Therefore, the corresponding region recognition unit 24 recognizes small region correspondences selectively using the correspondence index value having a high time frequency, thereby effectively reducing erroneous recognition due to fluctuation components, and corresponding relationships with high accuracy. Can be recognized.

距離画像生成部25は、各第一小領域について、対応する第二小領域のずらし量(視差)dminとカメラパラメータから当該小領域に投影された監視空間中の点までの距離を算出することによって、距離画像を生成する。   The distance image generation unit 25 calculates, for each first small region, the distance from the corresponding second small region shift amount (parallax) dmin and the camera parameter to a point in the monitoring space projected on the small region. To generate a distance image.

例えば、第一特徴量分布中の画素(x,y)と、x軸方向にdminだけずれた第二特徴量分布中の画素(x+dmin,y)が対応する場合は、カメラ2aから第一特徴量分布中の画素(x,y)に投影されている監視空間中の点までの距離Dはカメラパラメータを用いて次式により求まる。   For example, when the pixel (x, y) in the first feature distribution corresponds to the pixel (x + dmin, y) in the second feature distribution shifted by dmin in the x-axis direction, the first feature from the camera 2a. The distance D to the point in the monitoring space projected on the pixel (x, y) in the quantity distribution is obtained by the following equation using the camera parameters.

D=f・h/|dmin| …式(3)
ただし、fはカメラ2aの焦点距離、hはカメラ2aとカメラ2bの間の距離である。
D = f · h / | dmin | (3)
Here, f is the focal length of the camera 2a, and h is the distance between the camera 2a and the camera 2b.

通行者認識部26は、距離画像から監視空間に存在する通行者数や通行者位置を認識し、認識結果を出力部6に出力する。   The passer-by recognition unit 26 recognizes the number of passers-by and the passer-by positions existing in the monitoring space from the distance image, and outputs the recognition result to the output unit 6.

例えば、監視空間に人が存在しないときに生成された距離画像を記憶部3に記憶させておき、新たに生成された距離画像と記憶部3の距離画像との差分領域を抽出するとともに、差分領域のうち人の幅以上の距離差があるエッジを含んだ差分領域を当該エッジを境に分離する。そして、差分領域のうち人の大きさ範囲である差分領域の数を通行者数として計数するとともに、当該差分領域それぞれの位置を通行者位置として検出する。   For example, a distance image generated when no person is present in the monitoring space is stored in the storage unit 3, and a difference area between the newly generated distance image and the distance image in the storage unit 3 is extracted. A difference area including an edge having a distance difference equal to or greater than the width of the person in the area is separated from the edge. And while counting the number of difference areas which are a person's size range among difference areas as a passer's number, the position of each said difference area is detected as a passer's position.

[空間認識装置の動作について]
次に、上記のように構成される空間認識装置におけるカメラ2a及びカメラ2bと処理部4の動作について図6のフローチャートを参照しながら説明する。
[Operation of space recognition device]
Next, operations of the camera 2a and camera 2b and the processing unit 4 in the space recognition apparatus configured as described above will be described with reference to the flowchart of FIG.

カメラ2aにおいて、各光電変換部20aは定期的に電子シャッターが作動するたびに、撮像素子の電圧をA/D変換して輝度値をサンプリングし、サンプリングされた各輝度値を特徴量分布算出部21aがバッファに書き込むことで輝度信号をバッファリングする(S1)。   In the camera 2a, each photoelectric conversion unit 20a periodically samples the luminance value by A / D converting the voltage of the image sensor every time the electronic shutter is operated, and the sampled luminance value is converted into a feature amount distribution calculation unit. The luminance signal is buffered by 21a writing to the buffer (S1).

同様に、カメラ2bにおいて、各光電変換部20bは定期的に撮像素子が計測した輝度値をサンプリングし、特徴量分布算出部21bが輝度信号をバッファリングする(同じくS1)。   Similarly, in the camera 2b, each photoelectric conversion unit 20b periodically samples the luminance value measured by the image sensor, and the feature amount distribution calculation unit 21b buffers the luminance signal (also S1).

特徴量分布算出部21aおよび特徴量分布算出部21bは、それぞれ、バッファへの書き込み回数あるいはバッファにおける最新の書き込み位置などを基に頻度算出周期が到来したか否かを判定する(S2)。   The feature amount distribution calculating unit 21a and the feature amount distribution calculating unit 21b each determine whether or not the frequency calculation period has arrived based on the number of times of writing to the buffer or the latest writing position in the buffer (S2).

例えば、撮像周期を1/500秒、頻度算出周期を1/5秒とすれば、100個の輝度値を書き込むたびに頻度算出周期が到来する。   For example, if the imaging cycle is 1/500 seconds and the frequency calculation cycle is 1/5 second, the frequency calculation cycle comes every time 100 luminance values are written.

頻度算出周期が到来していなければ(S2にてNO)、特徴量分布算出部21aおよび特徴量分布算出部21bは、それぞれ、処理をステップS1へ戻し、バッファリングを続ける。   If the frequency calculation period has not arrived (NO in S2), the feature quantity distribution calculation unit 21a and the feature quantity distribution calculation unit 21b each return the process to step S1 and continue buffering.

他方、頻度算出周期が到来すると(S2にてYES)、特徴量分布算出部21aおよび特徴量分布算出部21bは、それぞれ、処理をステップS3へ進める。   On the other hand, when the frequency calculation period arrives (YES in S2), each of the feature amount distribution calculating unit 21a and the feature amount distribution calculating unit 21b advances the process to step S3.

特徴量分布算出部21aは、カメラ2aのバッファから最新の書き込み位置を終端とする頻度算出時間幅の輝度信号を第一小領域ごとに読み出し、第一小領域ごとに特徴量の時間頻度を算出して第一特徴量分布を算出する(S3)。   The feature amount distribution calculation unit 21a reads a luminance signal having a frequency calculation time width that ends at the latest writing position from the buffer of the camera 2a for each first small region, and calculates the time frequency of the feature amount for each first small region. Then, a first feature amount distribution is calculated (S3).

例えば、撮像周期を1/500秒、頻度算出時間幅を1/5秒間、特徴量としての輝度値を0〜255の整数、第一小領域を画素とすれば、画素ごとに、100個の輝度値から輝度値0,1,…,255の度数を計数して、計数結果のそれぞれを100で除した正規化ヒストグラムを算出する。   For example, if the imaging cycle is 1/500 seconds, the frequency calculation time width is 1/5 seconds, the luminance value as a feature value is an integer of 0 to 255, and the first small area is a pixel, 100 pixels are provided for each pixel. The frequency of luminance values 0, 1,..., 255 is counted from the luminance value, and a normalized histogram obtained by dividing each of the counting results by 100 is calculated.

同様に、特徴量分布算出部21bは、カメラ2bのバッファから最新の書き込み位置を終端とする頻度算出時間幅の輝度信号を第二小領域ごとに読み出し、第二小領域ごとに特徴量の時間頻度を算出して第二特徴量分布を算出する(S4)。   Similarly, the feature amount distribution calculation unit 21b reads out a luminance signal having a frequency calculation time width that ends at the latest writing position from the buffer of the camera 2b for each second small region, and sets the feature amount time for each second small region. The frequency is calculated to calculate the second feature amount distribution (S4).

ステップS3とS4は説明上、順序を付けて記載したが、各カメラにおいて同時並行で処理される。   Steps S3 and S4 are described in order for explanation, but are processed in parallel in each camera.

カメラ2aは、算出した第一特徴量分布の集まりである第一分布画像を処理部4に出力する。同様に、カメラ2bは、算出した第二特徴量分布の集まりである第二分布画像を処理部4に出力する。   The camera 2a outputs a first distribution image that is a collection of the calculated first feature amount distributions to the processing unit 4. Similarly, the camera 2b outputs a second distribution image that is a collection of the calculated second feature value distributions to the processing unit 4.

なお、図6のフローチャートではカメラ2a及びカメラ2bと処理部4の処理を一連の処理として表現しているが、特徴量分布を出力したカメラ2a及びカメラ2bは処理部4によるステップS5〜S12の処理終了を待たずに、ステップS1へ処理を戻してもよい。   In the flowchart of FIG. 6, the processes of the camera 2a and the camera 2b and the processing unit 4 are expressed as a series of processes. However, the camera 2a and the camera 2b that output the feature amount distribution are processed by the processing unit 4 in steps S5 to S12. The process may be returned to step S1 without waiting for the end of the process.

処理部4の対応指標値分布算出部23は、入力された第一分布画像に設定されている第一小領域のそれぞれを順次、注目小領域に設定して(S5)、ステップS5〜S9のループ処理を行う。   The corresponding index value distribution calculation unit 23 of the processing unit 4 sequentially sets each of the first small regions set in the input first distribution image as a target small region (S5), and performs steps S5 to S9. Perform loop processing.

ループ処理において、対応指標値分布算出部23は、まず、カメラパラメータ記憶部22からカメラパラメータを読み出し、カメラパラメータを用いて注目小領域を第二分布画像上に射影することによって探索範囲を算出し、探索範囲内の第二小領域を注目小領域と対応する第二小領域の候補に設定する(S6)。   In the loop processing, the correspondence index value distribution calculation unit 23 first reads the camera parameters from the camera parameter storage unit 22, and calculates the search range by projecting the attention subregion onto the second distribution image using the camera parameters. Then, the second small region in the search range is set as a candidate for the second small region corresponding to the target small region (S6).

続いて、対応指標値分布算出部23は、注目小領域と、ステップS6にて設定した各候補との間で対応指標値分布を算出する(S7)。   Subsequently, the corresponding index value distribution calculating unit 23 calculates a corresponding index value distribution between the target small area and each candidate set in step S6 (S7).

例えば、対応指標値分布算出部23は、注目小領域である第一分布画像の画素と、当該画素に対応する画素の候補として設定された第二特徴量分布中の複数の画素ごとに式(1)を適用して輝度差分布を算出する。第一分布画像の画素ごとに、0〜255の輝度差それぞれの時間頻度からなる正規化ヒストグラム(輝度差分布)が候補の数だけ算出される。   For example, the correspondence index value distribution calculation unit 23 calculates the formula (2) for each pixel in the first distribution image that is the target small region and a plurality of pixels in the second feature amount distribution set as a candidate pixel corresponding to the pixel. The luminance difference distribution is calculated by applying 1). For each pixel of the first distribution image, a normalized histogram (luminance difference distribution) composed of time frequencies of luminance differences of 0 to 255 is calculated for the number of candidates.

続いて、処理部4の対応領域認識部24は、ステップS7で算出した対応指標値分布を基に、複数の候補の中から、注目小領域に対応する第二小領域を検出する(S8)。   Subsequently, the corresponding area recognition unit 24 of the processing unit 4 detects a second small area corresponding to the target small area from among a plurality of candidates based on the corresponding index value distribution calculated in step S7 (S8). .

例えば、ステップS7で算出した輝度差分布それぞれのノルムを算出して閾値と比較し、閾値以下のノルムのうち最小のノルムが算出された第二小領域を検出する。   For example, the norm of each of the luminance difference distributions calculated in step S7 is calculated and compared with a threshold value, and the second small region in which the minimum norm is calculated among the norms equal to or less than the threshold value is detected.

そして、対応指標値分布算出部23は、全ての第一小領域を処理し終えたか確認する(S9)。   Then, the corresponding index value distribution calculation unit 23 checks whether all the first small areas have been processed (S9).

未処理の第一小領域があれば(ステップS9にてNO)、対応指標値分布算出部23は、処理をステップS5へ戻し、次の第一小領域を処理する。   If there is an unprocessed first small area (NO in step S9), the corresponding index value distribution calculation unit 23 returns the process to step S5 and processes the next first small area.

他方、全ての第一小領域を処理し終えていれば(ステップS9にてYES)、処理部4の距離画像生成部25が距離画像の生成を行う(S10)。   On the other hand, if all the first small regions have been processed (YES in step S9), the distance image generation unit 25 of the processing unit 4 generates a distance image (S10).

すなわち、距離画像生成部25は、カメラパラメータ記憶部22からカメラパラメータを読み出し、カメラパラメータを代入した式(3)に従い、第一分布画像の各第一小領域について、ステップS8にて当該第一小領域との対応関係が検出された第二小領域の、当該第一小領域に対するずらし量(視差)dminをカメラ2aからの距離Dに変換することによって距離画像を生成する。   In other words, the distance image generation unit 25 reads the camera parameters from the camera parameter storage unit 22 and, for each first small region of the first distribution image, according to Equation (3) into which the camera parameters are substituted, A distance image is generated by converting a shift amount (parallax) dmin of the second small area in which the correspondence relationship with the small area is detected with respect to the first small area into a distance D from the camera 2a.

続いて、処理部4の通行者認識部26は、ステップS10にて生成された距離画像から通行者による差分領域を検出して、通行者数の計数と通行者位置の検出を行い(S11)、計数した通行者数と検出した通行者位置(空間認識情報)を出力部5に出力する(S12)。   Subsequently, the passer-by identification unit 26 of the processing unit 4 detects a difference area by the passer-by from the distance image generated in step S10, and counts the number of passers-by and detects the passer-by position (S11). The counted number of passers and the detected passer position (spatial recognition information) are output to the output unit 5 (S12).

以上の処理を終えると処理はステップS1へ戻され、カメラ2a及びカメラ2bは次の特徴量分布の算出を行い、処理部4はカメラ2a及びカメラ2bからの特徴量分布の入力を待つ。   When the above process is completed, the process returns to step S1, the camera 2a and the camera 2b calculate the next feature quantity distribution, and the processing unit 4 waits for the input of the feature quantity distribution from the camera 2a and the camera 2b.

[変形例]
上述した実施の形態においては、特徴量どうしの相違性を表す対応指標値として輝度差、すなわち特徴量どうしの差を用いる例を示した。別の実施形態においては、特徴量どうしの相違性を表す対応指標値として特徴量間の距離値を用いることもできる。この場合も、対応指標値分布算出部23は、距離値ごとに、第一小領域の特徴量の時間頻度と第二小領域の特徴量の時間頻度の組み合わせのうち当該距離値が算出された組み合わせごとの時間頻度の積を総和して、当該距離値の時間頻度を算出することで距離値ごとの時間頻度を要素とする距離値分布を求める。また、対応領域認識部24は、距離値分布のそれぞれについて距離値と時間頻度の積和値(ノルム)を算出し、複数の第二小領域うち積和値が所定値以下である第二小領域の中から第一小領域と対応する空間内の位置を計測した第二小領域を決定する。
[Modification]
In the above-described embodiment, an example in which a luminance difference, that is, a difference between feature quantities is used as a corresponding index value representing a difference between feature quantities has been described. In another embodiment, a distance value between feature amounts can be used as a correspondence index value representing a difference between feature amounts. Also in this case, for each distance value, the correspondence index value distribution calculation unit 23 calculates the distance value from the combination of the time frequency of the feature amount of the first small region and the time frequency of the feature amount of the second small region. The product of the time frequencies for each combination is summed, and the time frequency of the distance value is calculated to obtain a distance value distribution having the time frequency for each distance value as an element. In addition, the corresponding area recognition unit 24 calculates the product sum value (norm) of the distance value and the time frequency for each of the distance value distributions, and among the plurality of second small areas, the product sum value is equal to or less than a predetermined value. A second small area obtained by measuring a position in the space corresponding to the first small area is determined from the areas.

また別の実施の形態においては、特徴量どうしの類似性を表す対応指標値を用いることができる。この場合、対応指標値は類似度または相関値などとすることができる。例えば、上述した輝度差を255から減じた値は類似度の例である。この場合も、対応指標値分布算出部23は、類似度(または相関値)ごとに、第一小領域の特徴量の時間頻度と第二小領域の特徴量の時間頻度の組み合わせのうち当該類似度(または相関値)が算出された組み合わせごとの時間頻度の積を総和して、当該類似度(または相関値)の時間頻度を算出することで類似度(または相関値)ごとの時間頻度を要素とする類似度分布(または相関値分布)を求める。また、対応領域認識部24は、類似度分布(または相関値分布)のそれぞれについて類似度(または相関値)と時間頻度の積和値を算出し、複数の第二小領域うち積和値が所定値以上である第二小領域の中から第一小領域と対応する空間内の位置を計測した第二小領域を決定する。   In another embodiment, it is possible to use a corresponding index value representing the similarity between feature quantities. In this case, the corresponding index value can be a similarity or a correlation value. For example, a value obtained by subtracting the above-described luminance difference from 255 is an example of similarity. Also in this case, the correspondence index value distribution calculation unit 23 calculates the similarity among the combinations of the time frequency of the feature amount of the first small region and the time frequency of the feature amount of the second small region for each similarity (or correlation value). The time frequency for each similarity (or correlation value) is calculated by summing the products of the time frequencies for each combination for which the degree (or correlation value) is calculated, and calculating the time frequency of the similarity (or correlation value). Find the similarity distribution (or correlation value distribution) as an element. In addition, the corresponding region recognition unit 24 calculates the product sum value of the similarity (or correlation value) and the time frequency for each of the similarity distribution (or correlation value distribution), and the product sum value of the plurality of second small regions is calculated. A second small region obtained by measuring a position in a space corresponding to the first small region is determined from the second small regions that are equal to or greater than a predetermined value.

さらに、上述した実施の形態においては、予めカメラパラメータが設定されているカメラを用いて対応する小領域を認識する例を示したが、カメラパラメータを算出するために対応する小領域を認識する処理(いわゆるキャリブレーション)に適用することも可能である。その場合、例えば、特徴量分布算出部21a、21bは上記と同様に第一特徴量分布、第二特徴量分布を算出し、処理部4は利用者からの設定入力を受け付ける或いは特徴点の自動検出処理などによって第一小領域と第二小領域の対応関係を複数通り初期設定する。対応指標値分布算出部23は、初期値が設定された第一小領域ごとに、当該第一小領域との対応関係の初期設定された第二小領域とその近傍の第二小領域を候補として対応指標値分布を算出し、対応領域認識部24は、複数の候補の中から各第一小領域と対応する第二小領域を認識する。そして、処理部4は、対応領域認識部24が対応関係を認識した第一小領域と第二小領域の座標にホモグラフィ行列を用いた方法など公知のキャリブレーション法を適用してカメラパラメータを算出する。   Furthermore, in the above-described embodiment, an example in which a corresponding small area is recognized using a camera in which camera parameters are set in advance has been described. However, a process for recognizing a corresponding small area in order to calculate camera parameters. It is also possible to apply to (so-called calibration). In this case, for example, the feature quantity distribution calculation units 21a and 21b calculate the first feature quantity distribution and the second feature quantity distribution in the same manner as described above, and the processing unit 4 accepts a setting input from the user or automatically sets feature points. A plurality of correspondence relationships between the first small area and the second small area are initially set by a detection process or the like. Corresponding index value distribution calculation unit 23 selects, for each first small region for which an initial value is set, a second small region that is initially set for correspondence with the first small region and a second small region in the vicinity thereof. The corresponding index value distribution is calculated as follows, and the corresponding area recognition unit 24 recognizes a second small area corresponding to each first small area from among a plurality of candidates. Then, the processing unit 4 applies a known calibration method such as a method using a homography matrix to the coordinates of the first small region and the second small region for which the corresponding region recognition unit 24 recognized the correspondence relationship, and sets camera parameters. calculate.

ところで、上述した実施形態および各変形例において、特徴量分布算出部21は、処理部4内で実現してもよい。その場合、撮像部2は、撮像周期ごとに輝度値を並べた撮像画像を処理部4に出力する。処理部4は、特徴量分布算出部21として動作し、撮像部2からの撮像画像を記憶部3にバッファリングして頻度算出周期ごとに特徴量分布を生成する。   Incidentally, in the above-described embodiment and each modification, the feature amount distribution calculation unit 21 may be realized in the processing unit 4. In that case, the imaging unit 2 outputs a captured image in which luminance values are arranged for each imaging cycle to the processing unit 4. The processing unit 4 operates as the feature amount distribution calculating unit 21, buffers the captured image from the imaging unit 2 in the storage unit 3, and generates a feature amount distribution for each frequency calculation period.

上述した実施の形態および各変形例では、計測部が監視空間の可視光線の強度に応じた振幅を有する輝度信号を出力する構成としているが、これに限定されるものではない。   In the above-described embodiment and each modification, the measurement unit outputs a luminance signal having an amplitude corresponding to the intensity of visible light in the monitoring space, but is not limited thereto.

例えば、計測部が監視空間の近赤外線の強度に応じた振幅を有する輝度信号を出力する構成、計測部が監視空間の赤外線の強度に応じた振幅を有する輝度信号を出力する構成、計測部が監視空間の紫外線の強度に応じた振幅を有する輝度信号を出力する構成、計測部が監視空間のX線の強度に応じた振幅を有する輝度信号を出力する構成、計測部としての距離センサが当該計測部から監視空間に存在する物体までの距離に応じた振幅を有する距離信号を出力する構成など、計測部が空間の所定物理量を計測して計測信号を出力する構成であってもよい。なお、上記距離センサは、例えば、レーザー光を投受光する方式、マイクロ波またはミリ波などの電磁波を送受信する方式、超音波を送受信する方式などが考えられる。   For example, a configuration in which the measurement unit outputs a luminance signal having an amplitude corresponding to the intensity of near infrared light in the monitoring space, a configuration in which the measurement unit outputs a luminance signal having an amplitude according to the intensity of infrared light in the monitoring space, and the measurement unit A configuration for outputting a luminance signal having an amplitude corresponding to the intensity of ultraviolet light in the monitoring space, a configuration for the measurement unit to output a luminance signal having an amplitude corresponding to the intensity of the X-ray in the monitoring space, and a distance sensor as the measurement unit A configuration in which the measurement unit measures a predetermined physical quantity in the space and outputs a measurement signal, such as a configuration that outputs a distance signal having an amplitude corresponding to the distance from the measurement unit to an object existing in the monitoring space, may be used. As the distance sensor, for example, a method of projecting and receiving laser light, a method of transmitting and receiving electromagnetic waves such as microwaves and millimeter waves, and a method of transmitting and receiving ultrasonic waves are conceivable.

以上、本発明に係る空間認識装置の最良の形態について説明したが、この形態による記述及び図面により本発明が限定されることはない。すなわち、この形態に基づいて当業者等によりなされる他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれることは勿論である。   The best mode of the space recognition device according to the present invention has been described above, but the present invention is not limited by the description and drawings according to this mode. That is, it is a matter of course that all other forms, examples, operation techniques, and the like made by those skilled in the art based on this form are included in the scope of the present invention.

1 空間認識装置
2 撮像部
2a,2b カメラ
3 記憶部
4 処理部
5 出力部
20a(20a−1,20a−2,…,20a−N),20b(20b−1,20b−2,…,20b−N) 光電変換部
21a,21b 特徴量分布算出部
22 カメラパラメータ記憶部
23 対応指標値分布算出部
24 対応領域認識部
25 距離画像生成部
26 通行者認識部
DESCRIPTION OF SYMBOLS 1 Space recognition apparatus 2 Imaging part 2a, 2b Camera 3 Memory | storage part 4 Processing part 5 Output part 20a (20a-1, 20a-2, ..., 20a-N), 20b (20b-1, 20b-2, ..., 20b) -N) Photoelectric conversion unit 21a, 21b Feature quantity distribution calculation unit 22 Camera parameter storage unit 23 Corresponding index value distribution calculation unit 24 Corresponding region recognition unit 25 Distance image generation unit 26 Passer recognition unit

Claims (5)

第一計測面上に配置された1または複数の第一計測部が任意の時間区間において任意の空間の物理量を計測して当該各第一計測部が出力した第一計測信号から、前記第一計測面上に設定された第一小領域における特徴量ごとの時間頻度を算出する第一特徴量分布算出部と、
前記第一計測面とは異なる第二計測面上に配置された複数の第二計測部のそれぞれが前記時間区間において前記空間の物理量を計測して当該各第二計測部が出力した第二計測信号から、前記第二計測面上に設定された複数の第二小領域のそれぞれにおける前記特徴量ごとの時間頻度を算出する第二特徴量分布算出部と、
前記第一小領域と前記複数の第二小領域それぞれとの間で、前記特徴量どうしの相違性または類似性を表す対応指標値を求め、前記対応指標値ごとの時間頻度を要素とする対応指標値分布を算出する対応指標値分布算出部と、
前記複数の第二小領域の前記対応指標値分布を用いて、前記複数の第二小領域の中から前記第一小領域と対応する前記空間内の位置の物理量を計測した第二小領域を認識する対応領域認識部と、
を備えたことを特徴とする空間認識装置。
From the first measurement signal output by each of the first measurement units, one or more first measurement units arranged on the first measurement surface measure a physical quantity in an arbitrary space in an arbitrary time interval. A first feature amount distribution calculating unit that calculates a time frequency for each feature amount in the first small region set on the measurement surface;
Each of a plurality of second measurement units arranged on a second measurement surface different from the first measurement surface measures a physical quantity of the space in the time interval and is output by each second measurement unit. A second feature amount distribution calculating unit that calculates a time frequency for each feature amount in each of the plurality of second small regions set on the second measurement surface from the signal;
A correspondence index value representing the difference or similarity between the feature quantities is obtained between the first small area and each of the plurality of second small areas, and the correspondence is obtained using the time frequency for each correspondence index value as an element. A corresponding index value distribution calculating unit for calculating the index value distribution;
Using the correspondence index value distribution of the plurality of second small areas, a second small area obtained by measuring a physical quantity at a position in the space corresponding to the first small area from among the plurality of second small areas. A corresponding area recognition unit for recognizing;
A space recognition device comprising:
前記対応指標値分布算出部は、前記対応指標値ごとに、前記第一小領域の前記特徴量の時間頻度と前記第二小領域の前記特徴量の時間頻度の組み合わせのうち当該対応指標値が算出された組み合わせごとの時間頻度の積を総和して、当該対応指標値の時間頻度を算出する請求項1に記載の空間認識装置。 The correspondence index value distribution calculating unit calculates, for each correspondence index value, a correspondence index value of a combination of a time frequency of the feature amount of the first small area and a time frequency of the feature amount of the second small area. The space recognition device according to claim 1, wherein the time frequency of the corresponding index value is calculated by summing up the products of the calculated time frequencies for each combination. 前記対応指標値分布算出部は、前記特徴量どうしの相違性を表す前記対応指標値を求めて前記対応指標値分布を算出し、
前記対応領域認識部は、前記対応指標値分布のそれぞれについて当該対応指標値分布における対応指標値と時間頻度の積和値を算出し、前記複数の第二小領域のうち前記積和値が所定値以下である第二小領域の中から前記第一小領域を決定する前記空間内の位置の物理量を計測した第二小領域と認識する請求項1または2に記載の空間認識装置。
The corresponding index value distribution calculating unit calculates the corresponding index value distribution by obtaining the corresponding index value indicating the difference between the feature quantities;
The corresponding area recognition unit calculates a product sum value of a corresponding index value and a time frequency in the corresponding index value distribution for each of the corresponding index value distributions, and the product sum value of the plurality of second small areas is predetermined. The space recognition apparatus according to claim 1, wherein the space recognition device recognizes a second small region obtained by measuring a physical quantity at a position in the space that determines the first small region from second small regions that are equal to or less than a value.
前記対応指標値分布算出部は、前記特徴量どうしの類似性を表す前記対応指標値を求めて前記対応指標値分布を算出し、
前記対応領域認識部は、前記対応指標値分布のそれぞれについて当該対応指標値分布における対応指標値と時間頻度の積和値を算出し、前記複数の第二小領域のうち前記積和値が所定値以上である第二小領域の中から前記第一小領域を決定する前記空間内の位置の物理量を計測した第二小領域と認識する請求項1または2に記載の空間認識装置。
The corresponding index value distribution calculating unit calculates the corresponding index value distribution by obtaining the corresponding index value representing the similarity between the feature quantities;
The corresponding area recognition unit calculates a product sum value of a corresponding index value and a time frequency in the corresponding index value distribution for each of the corresponding index value distributions, and the product sum value of the plurality of second small areas is predetermined. The space recognition apparatus according to claim 1, wherein the space recognition device recognizes a second small region obtained by measuring a physical quantity at a position in the space that determines the first small region from second small regions that are equal to or greater than a value.
前記複数の第一計測部は、前記第一計測面を第一撮像面として該第一撮像面上に配置され、前記空間を撮像してそれぞれが前記第一計測信号としての第一輝度信号を出力する複数の第一光電変換部からなり、
前記複数の第二計測部は、前記第一計測面とは異なる前記第二計測面を第二撮像面として該第二撮像面上に配置され、それぞれが前記空間を撮像して前記第二計測信号としての第二輝度信号を出力する複数の第二光電変換部からなる請求項1〜4の何れか一つに記載の空間認識装置。
The plurality of first measurement units are arranged on the first imaging surface with the first measurement surface as a first imaging surface, and each of the first measurement units images the space and outputs a first luminance signal as the first measurement signal. It consists of a plurality of first photoelectric conversion units that output,
The plurality of second measurement units are arranged on the second imaging surface with the second measurement surface different from the first measurement surface as a second imaging surface, and each of the second measurement units images the space and performs the second measurement. The space recognition apparatus according to claim 1, comprising a plurality of second photoelectric conversion units that output a second luminance signal as a signal.
JP2016037506A 2016-02-29 2016-02-29 Space recognition device Active JP6332703B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016037506A JP6332703B2 (en) 2016-02-29 2016-02-29 Space recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016037506A JP6332703B2 (en) 2016-02-29 2016-02-29 Space recognition device

Publications (2)

Publication Number Publication Date
JP2017157938A JP2017157938A (en) 2017-09-07
JP6332703B2 true JP6332703B2 (en) 2018-05-30

Family

ID=59810766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016037506A Active JP6332703B2 (en) 2016-02-29 2016-02-29 Space recognition device

Country Status (1)

Country Link
JP (1) JP6332703B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4424797B2 (en) * 1999-11-26 2010-03-03 富士通株式会社 3D shape detection method
JP4099011B2 (en) * 2002-07-10 2008-06-11 富士重工業株式会社 Monitoring device and monitoring method
JP5101429B2 (en) * 2008-08-11 2012-12-19 セコム株式会社 Image monitoring device
JP6344638B2 (en) * 2013-03-06 2018-06-20 株式会社リコー Object detection apparatus, mobile device control system, and object detection program

Also Published As

Publication number Publication date
JP2017157938A (en) 2017-09-07

Similar Documents

Publication Publication Date Title
TWI685798B (en) Object detection system, autonomous vehicle, and object detection method thereof
CN105335955B (en) Method for checking object and object test equipment
JP4961234B2 (en) Object tracking device
WO2014080613A1 (en) Color correction device, method, and program
JP4389602B2 (en) Object detection apparatus, object detection method, and program
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
JPWO2016199244A1 (en) Object recognition device and object recognition system
US8488878B2 (en) Sky detection system used in image extraction device and method using sky detection system
JP2006071471A (en) Moving body height discrimination device
JP2003244521A (en) Information processing method and apparatus, and recording medium
JP7334432B2 (en) Object tracking device, monitoring system and object tracking method
US8923552B2 (en) Object detection apparatus and object detection method
JP2018156408A (en) Image recognizing and capturing apparatus
EP2282224B1 (en) Image processing apparatus, image processing method, and computer program
JP7255173B2 (en) Human detection device and human detection method
CN105787429B (en) The method and apparatus for being used to check object using machine vision
JP6452361B2 (en) Information processing apparatus, information processing method, and program
JP2010140315A (en) Object detection device
JP2017135656A (en) Space recognition device
JP6332703B2 (en) Space recognition device
JP2018063675A (en) Image processor and control method
JP6482589B2 (en) Camera calibration device
JPWO2018168182A1 (en) MOBILE BODY DETECTING DEVICE, MOBILE BODY DETECTING METHOD, AND MOBILE BODY DETECTING PROGRAM
JP2693586B2 (en) Image identification / tracking device
JP6332704B2 (en) Object detection device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180418

R150 Certificate of patent or registration of utility model

Ref document number: 6332703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250