JP2003296710A - Identification method, identification device and traffic control system - Google Patents

Identification method, identification device and traffic control system

Info

Publication number
JP2003296710A
JP2003296710A JP2002098135A JP2002098135A JP2003296710A JP 2003296710 A JP2003296710 A JP 2003296710A JP 2002098135 A JP2002098135 A JP 2002098135A JP 2002098135 A JP2002098135 A JP 2002098135A JP 2003296710 A JP2003296710 A JP 2003296710A
Authority
JP
Japan
Prior art keywords
identification
image
image data
spatiotemporal
data obtained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002098135A
Other languages
Japanese (ja)
Other versions
JP3779229B2 (en
Inventor
Hidenori Yamamoto
英典 山本
Masakatsu Higashikubo
政勝 東久保
Yoshiyo Tanaka
佳代 田中
Masanori Aoki
正憲 青木
Kenji Terada
賢治 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2002098135A priority Critical patent/JP3779229B2/en
Publication of JP2003296710A publication Critical patent/JP2003296710A/en
Application granted granted Critical
Publication of JP3779229B2 publication Critical patent/JP3779229B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an identifying method and an identifying device capable of recognizing the existence/absence or types of objects to be measured with high by reducing the influence of an approximation between a background color and the color of an object to be measured. <P>SOLUTION: White line parts of a crosswalk are set to a first identification area, and parts other than the white line parts are set to a second identification area. First and second-temporal images to be reference are generated in advance in the first and second identification areas with no existence of objects to be measured. A first spatio-temporal image generated on the basis of image data obtained from the first identification area, a second spatio-temporal image generated on the basis of image data obtained from the second identification area, and the first and second reference spatio-temporal images are used to generate a difference spatio-temporal image. The existence/absence or types of objects to be measured are identified on the basis of the generated difference spatio-temporal image. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像した画像デー
タから計測対象物を識別する識別方法、識別装置及び交
通制御システムに関し、特に横断歩道のゼブラゾーンを
撮像した画像データから、歩行者または自動車の有無ま
たは種別を識別する識別方法、識別装置及び交通制御シ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an identification method, an identification device, and a traffic control system for identifying a measurement object from imaged image data, and more particularly, to a pedestrian or an automobile from image data obtained by imaging the zebra zone of a pedestrian crossing. The present invention relates to an identification method, an identification device, and a traffic control system for identifying the presence or absence or the type.

【0002】[0002]

【従来の技術】交通流の円滑化及び歩行者の安全を目的
として、交差点に設置されるカメラ等を用いて車両また
は歩行者を検出し、その検出結果に応じて信号機を制御
する交通制御システムの開発が進んでいる。特開平10
−63863号公報には、画面内の動物体の移動を、ス
リットを通して取得し取得したスリット状動画像を配列
して時間変化解析や形状解析を行う移動物体計数処理方
法が開示されている。これは計数線から得られる画像デ
ータを時系列に配列して時空間画像を生成し、生成した
時空間画像の形状を解析することにより移動物体を検出
するものである。
2. Description of the Related Art A traffic control system that detects a vehicle or a pedestrian using a camera or the like installed at an intersection and controls a traffic light according to the detection result for the purpose of smoothing traffic flow and safety of pedestrians. Is being developed. JP-A-10
Japanese Patent No. 63863 discloses a moving object counting processing method in which the movement of a moving object on a screen is acquired through a slit and the acquired slit-shaped moving images are arranged to perform time change analysis and shape analysis. This is to detect a moving object by arranging image data obtained from a counting line in time series to generate a spatiotemporal image and analyzing the shape of the generated spatiotemporal image.

【0003】さらに、特開平11−275562号公報
には道路の交差点に設置された信号機用支柱にカメラを
設置し、このカメラにより、横断歩道を含む所定範囲の
監視領域内の画像を撮像して、時間的に連続した画像と
して入力し、この入力画像の中から歩行者用信号機の近
傍で横断のために待機している歩行者を抽出して、その
ときに得られる様々な情報(人数等)から車両用信号
機、歩行者用信号機の制御を行う移動人物監視装置が開
示されている。
Further, in Japanese Unexamined Patent Application Publication No. 11-275562, a camera is installed on a signal pole installed at an intersection of roads, and an image of a surveillance area in a predetermined range including a pedestrian crossing is taken by the camera. , It is input as images that are continuous in time, and pedestrians waiting for crossing near the pedestrian traffic light are extracted from this input image, and various information obtained at that time (number of people, etc.) ) Discloses a moving person monitoring device for controlling a vehicular traffic light and a pedestrian traffic light.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、特開平
11−275562号公報に開示された移動人物監視装
置は、単純な背景差分画像及び時間差分画像に基づい
て、歩行者検出を行っているため、模様のない服装の人
物、または背景色に類似する服装の人物を検出すること
が困難であった。また、特開平10−63863号公報
に開示された移動物体計数処理方法は、計数線上に出力
される計測対象物の輝度または色が、計測対象物が存在
しない道路上の輝度または色に近似している場合、差分
が生じず、移動物体の検出精度が低くなるという問題が
あった。横断歩道を歩行する歩行者の検出に失敗し、誤
って信号機を制御した場合、重大事故につながる虞もあ
り、より高精度で道路上を移動する計測対象物の有無ま
たは種別を識別することが可能な識別装置の開発が望ま
れていた。
However, the moving person monitoring device disclosed in Japanese Patent Laid-Open No. 11-275562 performs pedestrian detection based on a simple background difference image and time difference image. It has been difficult to detect a person who is dressed without a pattern or a person whose clothes are similar to the background color. Further, in the moving object counting processing method disclosed in Japanese Patent Laid-Open No. 10-63863, the brightness or color of the measurement object output on the counting line approximates the brightness or color on the road where the measurement object does not exist. In that case, there is a problem that the difference does not occur and the detection accuracy of the moving object is lowered. If detection of a pedestrian walking on a pedestrian crossing fails and the traffic signal is controlled by mistake, it may lead to a serious accident.Therefore, it is possible to identify with high accuracy the presence or type of a measurement target moving on the road. It was desired to develop a possible identification device.

【0005】本発明は斯かる事情に鑑みてなされたもの
であり、その目的とするところは、識別領域から得られ
る画像データに基づき特定される特性値が所定値以上相
違する第1の識別領域と第2の識別領域とを設けて時空
間画像を生成し、さらに基準となる基準時空間画像から
差分時空間画像を生成して、該差分時空間画像を解析す
ることにより、背景色及び計測対象物の色の近似による
影響を低減してより高精度で計測対象物の有無または種
別を認識することが可能な識別方法、及び識別装置を提
供することにある。
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a first identification area in which characteristic values specified based on image data obtained from the identification area differ by a predetermined value or more. And a second identification region are provided to generate a spatiotemporal image, and a differential spatiotemporal image is further generated from a reference spatiotemporal image, and the differential spatiotemporal image is analyzed to obtain a background color and measurement. An object of the present invention is to provide an identification method and an identification device capable of recognizing the presence or absence or type of a measurement object with higher accuracy by reducing the influence of the color approximation of the object.

【0006】また、本発明の他の目的は、第1の識別領
域及び第2の識別領域からなる一組の識別領域を複数組
設け、この組間を移動する計測対象物を識別して計測対
象物の速度を計測して、信号の切り換え時間を制御する
ことにより、交通流を円滑にすることが可能な識別装置
を提供することにある。
Another object of the present invention is to provide a plurality of sets of a set of identification regions consisting of a first identification region and a second identification region, and to identify and measure a measuring object moving between the sets. An object of the present invention is to provide an identification device capable of smoothing a traffic flow by measuring the speed of an object and controlling the signal switching time.

【0007】さらに、本発明の他の目的は、信号制御装
置、電光表示板、交通管制センタ等に識別した計測対象
物の有無または種別に関する情報を出力することによ
り、歩行者、及びドライバーが安全に歩行または運転す
ることが可能な識別装置及び交通制御システムを提供す
ることにある。
Further, another object of the present invention is to provide a pedestrian and a driver with safety by outputting information regarding the presence or type of the measured object to be identified to a signal control device, an electronic display board, a traffic control center or the like. An object of the present invention is to provide an identification device and a traffic control system capable of walking or driving.

【0008】[0008]

【課題を解決するための手段】第1発明に係る識別方法
は、白線が描設された横断歩道を撮像した画像データか
ら、計測対象物を識別する識別方法において、横断歩道
の白線部分を第1の識別領域に設定し、前記白線以外の
部分を第2の識別領域に設定し、計測対象物が存在しな
い状態で、第1の識別領域及び第2の識別領域にて、基
準となる第1基準時空間画像及び第2基準時空間画像を
予め生成しておき、前記第1の識別領域から得られる画
像データに基づき生成した第1時空間画像及び前記第2
の識別領域から得られる画像データに基づき生成した第
2時空間画像と、前記第1基準時空間画像及び前記第2
基準時空間画像とを用いて差分時空間画像を生成し、生
成した差分時空間画像に基づき計測対象物の有無または
種別を識別することを特徴とする。
According to a first aspect of the present invention, there is provided an identification method for identifying an object to be measured from image data of a pedestrian crossing on which a white line is drawn. The first identification area and the second identification area are set as the reference in the state where the measurement target is not present and the portion other than the white line is set as the second identification area. The first reference spatiotemporal image and the second reference spatiotemporal image are generated in advance, and the first spatiotemporal image and the second spatiotemporal image generated based on the image data obtained from the first identification region are generated.
Second spatiotemporal image generated based on image data obtained from the identification area of the first reference spatiotemporal image and the second spatiotemporal image
It is characterized in that a difference spatiotemporal image is generated using the reference spatiotemporal image, and the presence or type of the measurement target is identified based on the generated difference spatiotemporal image.

【0009】第2発明に係る識別方法は、白線が描設さ
れた横断歩道を撮像した画像データから、計測対象物を
識別する識別方法において、横断歩道の白線部分を第1
の識別領域に設定し、前記白線以外の部分を第2の識別
領域に設定し、計測対象物が存在しない状態で、第1の
識別領域から得られる第1基準画像データ及び第2の識
別領域から得られる第2基準画像データを予め記憶して
おき、前記第1の識別領域から得られる画像データ及び
前記記憶した第1基準画像データに基づいて第1時空間
画像を生成し、前記第2の識別領域から得られる画像デ
ータ及び前記記憶した第2基準画像データに基づいて第
2時空間画像を生成し、生成した第1時空間画像と第2
時空間画像とを用いて差分時空間画像を生成し、生成し
た差分時空間画像に基づき計測対象物の有無または種別
を識別することを特徴とする。
The identification method according to the second aspect of the present invention is the identification method for identifying an object to be measured from image data of an image of a pedestrian crossing on which a white line is drawn.
Of the first reference image data and the second identification region obtained from the first identification region in the state where the measurement object is not present, with the portion other than the white line being set as the second identification region. Second pre-stored image data obtained from the second reference image data is stored in advance, a first spatiotemporal image is generated based on the image data obtained from the first identification region and the stored first reference image data, A second spatiotemporal image based on the image data obtained from the identification area and the stored second reference image data, and the generated first spatiotemporal image and the second spatiotemporal image.
A difference spatiotemporal image is generated using the spatiotemporal image, and the presence or type of the measurement target is identified based on the generated difference spatiotemporal image.

【0010】第3発明に係る識別方法は、撮像部から取
り込んだ画像データから計測対象物を識別する識別方法
において、前記撮像部の画像データ取り込み領域のう
ち、計測対象物の識別に利用する第1の識別領域を設定
するステップと、識別領域から得られる画像データに基
づき特定される特性値が、第1の識別領域とは所定値以
上相違する第2の識別領域を設定するステップと、前記
第1の識別領域及び第2の識別領域から得られる画像デ
ータに基づいて、予め基準となる第1基準時空間画像及
び第2基準時空間画像をそれぞれ生成しておくステップ
と、前記第1の識別領域から得られる画像データに基づ
き生成した第1時空間画像及び前記第2の識別領域から
得られる画像データに基づき生成した第2時空間画像
と、前記第1基準時空間画像及び前記第2基準時空間画
像とを用いて差分時空間画像を生成するステップと、生
成した差分時空間画像に基づき計測対象物の有無または
種別を識別する識別ステップとを備えることを特徴とす
る。
The identification method according to the third aspect of the present invention is an identification method for identifying a measurement object from image data taken in from an image pickup section, which is used for identifying a measurement object in an image data fetching area of the image pickup section. Setting a first identification region; setting a second identification region in which a characteristic value specified based on image data obtained from the identification region differs from the first identification region by a predetermined value or more; Generating a first reference spatio-temporal image and a second reference spatio-temporal image in advance based on the image data obtained from the first identification region and the second identification region, respectively; A first spatiotemporal image generated based on image data obtained from an identification region, a second spatiotemporal image generated based on image data obtained from the second identification region, and the first reference space-time And a step of generating a differential spatiotemporal image using the image and the second reference spatiotemporal image, and an identification step of identifying the presence or type of the measurement target based on the generated differential spatiotemporal image. To do.

【0011】第4発明に係る識別方法は、撮像部から取
り込んだ画像データから計測対象物を識別する識別方法
において、前記撮像部の画像データ取り込み領域のう
ち、計測対象物の識別に利用する第1の識別領域を設定
するステップと、識別領域から得られる画像データに基
づき特定される特性値が、第1の識別領域とは所定値以
上相違する第2の識別領域を設定するステップと、予め
基準となる第1の識別領域から得られる第1基準画像デ
ータ及び第2の識別領域から得られる第2基準画像デー
タを記憶するステップと、前記第1の識別領域から得ら
れる画像データ及び前記記憶した第1基準画像データに
基づいて第1時空間画像を生成するステップと、前記第
2の識別領域から得られる画像データ及び前記記憶した
第2基準画像データに基づいて第2時空間画像を生成す
るステップと、生成した第1時空間画像と第2時空間画
像とを用いて差分時空間画像を生成するステップと、生
成した差分時空間画像に基づき計測対象物の有無または
種別を識別するステップとを備えることを特徴とする。
The identification method according to a fourth aspect of the present invention is an identification method for identifying a measurement object from image data taken from an image pickup section, which is used to identify a measurement object in an image data fetching area of the image pickup section. A step of setting a first identification area, a step of setting a second identification area in which a characteristic value specified based on image data obtained from the identification area is different from the first identification area by a predetermined value or more; Storing the first reference image data obtained from the first identification area and the second reference image data obtained from the second identification area, and the image data obtained from the first identification area and the storage Generating a first spatiotemporal image based on the first reference image data, the image data obtained from the second identification region, and the stored second reference image data Generating a second spatiotemporal image based on the generated spatiotemporal image and a second spatiotemporal image using the generated spatiotemporal image, and a measurement target based on the generated differential spatiotemporal image And the step of identifying the presence or type of an object.

【0012】第5発明に係る識別装置は、撮像部から取
り込んだ画像データから計測対象物を識別する識別装置
において、前記撮像部の画像データ取り込み領域のう
ち、計測対象物の識別に利用する第1の識別領域を設定
する手段と、識別領域から得られる画像データに基づき
特定される特性値が、第1の識別領域とは所定値以上相
違する第2の識別領域を設定する手段と、前記第1の識
別領域及び第2の識別領域から得られる画像データに基
づいて、基準となる第1基準時空間画像及び第2基準時
空間画像をそれぞれ生成する手段と、前記第1の識別領
域から得られる画像データに基づき生成した第1時空間
画像及び前記第2の識別領域から得られる画像データに
基づき生成した第2時空間画像と、前記第1基準時空間
画像及び前記第2基準時空間画像とを用いて差分時空間
画像を生成する手段と、生成した差分時空間画像に基づ
き計測対象物の有無または種別を識別する識別手段とを
備えることを特徴とする。
According to a fifth aspect of the present invention, there is provided an identification device for identifying an object to be measured from image data taken from an image pickup section, which is used for identifying an object to be measured in an image data fetching area of the image pickup section. A unit for setting a first identification region, a unit for setting a second identification region in which a characteristic value specified based on image data obtained from the identification region differs from the first identification region by a predetermined value or more; Means for respectively generating a first reference spatiotemporal image and a second reference spatiotemporal image, which serve as a reference, based on image data obtained from the first identification region and the second identification region, and from the first identification region A first spatiotemporal image generated based on the obtained image data and a second spatiotemporal image generated based on the image data obtained from the second identification region, the first reference spatiotemporal image and the second group Characterized in that it comprises means for generating a differential space-time image, the identifying means for identifying the presence, absence or type of the measurement object based on the time-space image generated difference using a space-time image.

【0013】第6発明に係る識別装置は、撮像部から取
り込んだ画像データから計測対象物を識別する識別装置
において、前記撮像部の画像データ取り込み領域のう
ち、計測対象物の識別に利用する第1の識別領域を設定
する手段と、識別領域から得られる画像データに基づき
特定される特性値が、第1の識別領域とは所定値以上相
違する第2の識別領域を設定する手段と、予め基準とな
る第1の識別領域から得られる第1基準画像データ及び
第2の識別領域から得られる第2基準画像データを記憶
する手段と、前記第1の識別領域から得られる画像デー
タ及び前記記憶した第1基準画像データに基づいて第1
時空間画像を生成する手段と、前記第2の識別領域から
得られる画像データ及び前記記憶した第2基準画像デー
タに基づいて第2時空間画像を生成する手段と、生成し
た第1時空間画像と第2時空間画像とを用いて差分時空
間画像を生成する手段と、生成した差分時空間画像に基
づき計測対象物の有無または種別を識別する識別手段と
を備えることを特徴とする。
According to a sixth aspect of the present invention, there is provided a discrimination device for discriminating a measuring object from image data captured from an image pickup section, wherein the discriminating apparatus is used for identifying a measuring object in an image data capturing area of the image pickup section. Means for setting a first identification area, means for setting a second identification area whose characteristic value specified based on image data obtained from the identification area differs from the first identification area by a predetermined value or more, Means for storing first reference image data obtained from the first identification area and second reference image data obtained from the second identification area, and image data obtained from the first identification area and the storage Based on the first reference image data
Means for generating a spatiotemporal image, means for generating a second spatiotemporal image based on the image data obtained from the second identification region and the stored second reference image data, and the generated first spatiotemporal image And a second spatiotemporal image to generate a differential spatiotemporal image, and an identification unit that discriminates the presence or type of the measurement object based on the generated differential spatiotemporal image.

【0014】第7発明に係る識別装置は、第5または第
6発明において、前記特性値は、識別領域における明度
平均値であり、前記第1の識別領域の明度平均値と、前
記第2の識別領域の明度平均値との差が所定値以上相違
するよう構成してあることを特徴とする。
According to a seventh aspect of the invention, in the fifth or sixth aspect of the invention, the characteristic value is a lightness average value in a discrimination area, and the first lightness average value in the discrimination area and the second lightness average value. It is characterized in that the difference from the brightness average value of the identification region is different by a predetermined value or more.

【0015】第8発明に係る識別装置は、第5または第
6発明において、前記第1の識別領域は、歩行者が横断
する方向へ並設された横断歩道の白線部分に対応する画
素群を領域とし、前記第2の識別領域は、前記白線以外
の部分に対応する画素群を領域とするよう構成してある
ことを特徴とする。
According to an eighth aspect of the present invention, in the fifth or sixth aspect of the invention, the first identification area includes a pixel group corresponding to a white line portion of a pedestrian crossing arranged in a direction in which a pedestrian crosses. It is characterized in that the area is defined as the area, and the second identification area is structured such that the pixel group corresponding to a portion other than the white line is defined as the area.

【0016】第9発明に係る識別装置は、第5発明乃至
第8発明のいずれかにおいて、第1の識別領域及び第2
の識別領域を一組として、複数組の第1の識別領域及び
第2の識別領域を設定する手段と、前記識別手段にて計
測対象物を識別した場合、各組における計測対象物の識
別時刻及び各組の識別領域間の距離に基づいて計測対象
物の移動速度を算出する手段とを更に備えることを特徴
とする。
An identification device according to a ninth invention is the identification device according to any one of the fifth invention to the eighth invention, wherein the first identification area and the second identification area are provided.
When the measurement target is identified by the means for setting a plurality of sets of the first identification region and the second identification region, the identification time of each measurement target in each set And means for calculating the moving speed of the measurement object based on the distance between the identification regions of each set.

【0017】第10発明に係る識別装置は、第5発明乃
至第9発明のいずれかにおいて、前記識別手段により識
別した計測対象物の有無または種別に関する情報を外部
へ出力する手段を更に備えることを特徴とする。
According to a tenth aspect of the present invention, in the identification device according to any one of the fifth to ninth aspects of the present invention, the identification device further comprises means for outputting information regarding the presence or absence or the type of the measurement object identified by the identification means to the outside. Characterize.

【0018】第11発明に係る交通制御システムは、第
5発明乃至第10発明のいずれかに記載の識別装置及び
該識別装置に接続される信号機制御装置からなる交通制
御システムにおいて、前記識別装置は、前記識別手段に
より識別した計測対象物の有無または種別に関する情報
を前記信号機制御装置へ出力する手段を更に備え、前記
信号機制御装置は、前記識別装置から出力された情報に
基づいて、信号機の切り換え時間を制御する手段を備え
ることを特徴とする。
A traffic control system according to an eleventh invention is a traffic control system comprising the identification device according to any one of the fifth to tenth inventions and a traffic signal control device connected to the identification device, wherein the identification device is Further comprising means for outputting information on the presence or type of the measurement object identified by the identifying means to the traffic signal control device, wherein the traffic signal control device switches the traffic signal based on the information output from the identification device. It is characterized by comprising means for controlling the time.

【0019】第1発明乃至第8発明にあっては、撮像部
の画像データ取り込み領域のうち、計測対象物の識別に
利用する第1の識別領域及び第2の識別領域を設定す
る。第2の識別領域の画像データに基づき特定される特
性値は、第1の識別領域の特性値とは所定値以上相違す
るよう設定する。例えば、特性値を識別領域の明度平均
値とした場合、第1の識別領域の明度平均値と、第2の
識別領域の明度平均値との差が所定値以上相違する様に
設定する。または、第1の識別領域を、横断歩道の白線
部分、すなわち歩行者が横断する方向へ並設された横断
歩道の白線部分に対応する画素群を領域とし、第2の識
別領域を、前記白線以外の部分に対応する画素群を領域
とするよう設定する。
In the first to eighth inventions, the first identification region and the second identification region used for identifying the measurement object are set in the image data capturing region of the image pickup section. The characteristic value specified based on the image data of the second identification area is set to be different from the characteristic value of the first identification area by a predetermined value or more. For example, when the characteristic value is the average brightness value of the identification area, the difference between the average brightness value of the first identification area and the average brightness value of the second identification area is set to be different by a predetermined value or more. Alternatively, a pixel group corresponding to a white line part of a pedestrian crossing, that is, a white line part of a pedestrian crossing arranged in a direction crossing a pedestrian is set as a region, and a second identification region is defined as the white line. The pixel group corresponding to the other portion is set as the area.

【0020】計測対象が存在しないタイミングで、第1
の識別領域及び第2の識別領域から得られる画像データ
に基づいて、予め基準となる第1基準時空間画像及び第
2基準時空間画像をそれぞれ生成しておく。そして、第
1の識別領域から得られる画像データに基づき生成した
第1時空間画像及び前記第2の識別領域から得られる画
像データに基づき生成した第2時空間画像と、第1基準
時空間画像及び前記第2基準時空間画像とを用いて差分
時空間画像を生成する。または、計測対象物が存在しな
い状態で、第1の識別領域から得られる第1基準画像デ
ータ及び第2の識別領域から得られる第2基準画像デー
タを予め記憶しておき、第1の識別領域から時系列で得
られるそれぞれの画像データから第1基準画像データと
の差分をとることで第1時空間画像を生成する。同様に
第2の識別領域についても、第2の識別領域から時系列
で得られるそれぞれの画像データから記憶した第2基準
画像データとの差分をとることで、第2時空間画像を生
成する。最後に、これら生成した第1時空間画像と第2
時空間画像とを用いて差分時空間画像を生成する。そし
て、生成した差分時空間画像に基づき計測対象物の有無
または種別を識別する。識別は、例えば差分時空間画像
のヒストグラム解析、エッジ検出、フーリエ解析等を行
うことにより、計測対象物の有無、車両または歩行者の
種別を識別する。
At the timing when there is no measurement target, the first
The first reference spatiotemporal image and the second reference spatiotemporal image, which serve as the reference, are generated in advance based on the image data obtained from the identification region and the second identification region. Then, a first spatiotemporal image generated based on image data obtained from the first identification region, a second spatiotemporal image generated based on image data obtained from the second identification region, and a first reference spatiotemporal image And a differential spatiotemporal image is generated using the second reference spatiotemporal image. Alternatively, the first reference image data obtained from the first identification area and the second reference image data obtained from the second identification area are stored in advance in the state where the measurement target does not exist, and the first identification area is stored. The first spatiotemporal image is generated by taking the difference from the first reference image data from the respective image data obtained in time series. Similarly, for the second identification region, the second spatiotemporal image is generated by taking the difference from the stored second reference image data from the image data obtained in time series from the second identification region. Finally, these first spatiotemporal image and second
A difference spatiotemporal image is generated using the spatiotemporal image. Then, the presence or absence or the type of the measurement target is identified based on the generated difference-time space image. For the identification, the presence or absence of the measurement object and the type of the vehicle or the pedestrian are identified by performing histogram analysis, edge detection, Fourier analysis, etc. of the differential spatiotemporal image.

【0021】つまり、白線上では、白色の服を着ている
歩行者、または白色系統の車両の認識は困難であるが、
黒色または中間色の服を着ている歩行者または黒、中間
色系統の車両の認識は容易である。その一方で、白線以
外の部分、つまり道路上では、黒(特に灰色)または中
間色の服を着ている歩行者または黒、中間色系統の車両
の認識は困難であるが、白色の服を着ている歩行者、ま
たは白色系統の車両の認識は容易である。このように、
横断歩道のゼブラゾーンを利用し、いずれか一方の識別
領域の欠点を補うようこれらを合成した差分時空間画像
を生成して、識別を行うようにしたので、計測対象物の
色の影響を受けにくく高精度で計測対象物の有無または
種別を認識することが可能となる。
That is, on the white line, it is difficult to recognize a pedestrian wearing white clothes or a vehicle of a white system,
It is easy to recognize pedestrians wearing black or neutral clothes or vehicles of black or neutral colors. On the other hand, on parts other than the white line, that is, on the road, it is difficult to recognize pedestrians wearing black (particularly gray) or neutral clothes or vehicles with black or neutral colors, but wearing white clothes. It is easy to recognize pedestrians who are walking or white vehicles. in this way,
By using the zebra zone of the pedestrian crossing to generate a differential spatiotemporal image that combines these to compensate for the defects of either one of the identification areas, and to perform the identification, the influence of the color of the measurement target It is difficult and highly accurate to be able to recognize the presence or type of the measurement target.

【0022】第9発明にあっては、第1の識別領域及び
第2の識別領域を一組として、複数組の第1の識別領域
及び第2の識別領域を設定する。そして、計測対象物を
識別した場合、各組における計測対象物の識別時刻及び
各組の識別領域間の距離に基づいて計測対象物の移動速
度を算出するようにしたので、歩行者の走行速度を検出
でき、お年寄りと判断した場合、信号の切り換え時間を
長く制御し、走行速度が速い場合、信号の切り換え時間
を短く制御して車両の走行を優先する。これにより、交
通流を円滑にすることができ、また歩行者の安全を図る
ことが可能となる。
In the ninth aspect of the invention, a plurality of sets of the first identification area and the second identification area are set with the first identification area and the second identification area as one set. When the measurement target is identified, the moving speed of the measurement target is calculated based on the identification time of the measurement target in each set and the distance between the identification regions of each set. Can be detected and the elderly person is determined to control the switching time of the signal for a long time, and when the traveling speed is fast, the switching time of the signal is controlled to be short and the traveling of the vehicle is prioritized. As a result, the traffic flow can be made smooth and pedestrians can be safe.

【0023】第10発明及び第11発明にあっては、識
別した計測対象物の有無または種別に関する情報を外部
へ出力する。例えば、これらの情報を信号機制御装置へ
出力することにより、信号機制御装置は、信号機の切り
換え時間を制御する。また、歩行者と識別した場合、電
光掲示板、車載器へ「歩行者有り」等の情報を出力し、
または車両と識別した場合は、「自動車接近」等の情報
を携帯端末へ出力するようにしたので、歩行者、及びド
ライバーが安全に歩行または運転することが可能とな
る。
In the tenth invention and the eleventh invention, the information regarding the presence or absence or the type of the identified measurement object is output to the outside. For example, by outputting these pieces of information to the traffic light control device, the traffic light control device controls the switching time of the traffic light. Also, when a pedestrian is identified, information such as "there is a pedestrian" is output to the electronic bulletin board and the vehicle-mounted device,
Alternatively, when it is identified as a vehicle, information such as “vehicle approaching” is output to the mobile terminal, so that a pedestrian and a driver can safely walk or drive.

【0024】[0024]

【発明の実施の形態】実施の形態1 以下本発明を実施の形態を示す図面に基づいて詳述す
る。図1は本発明に係る交通制御システムの概要を示す
模式図である。図においてSは横断歩道の終端に設けら
れる歩行者用の信号機であり、信号機制御装置3の制御
に従い、信号機Sの内部に設けられる発光素子(図示せ
ず)を発光させる。信号機Sの近傍には横断歩道を撮像
するCCD(Charge Couple Device)カメラ等の撮像部2
が隣設されており、撮像部2から取り込まれた画像デー
タは識別装置1へ入力される。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiment 1 Hereinafter, the present invention will be described in detail with reference to the drawings showing an embodiment. FIG. 1 is a schematic diagram showing an outline of a traffic control system according to the present invention. In the figure, S is a pedestrian traffic light provided at the end of a pedestrian crossing, and under the control of the traffic light control device 3, a light emitting element (not shown) provided inside the traffic light S is caused to emit light. An image pickup unit 2 such as a CCD (Charge Couple Device) camera for picking up an image of a pedestrian crossing near the traffic light S
Are adjacent to each other, and the image data captured from the image pickup unit 2 is input to the identification device 1.

【0025】識別装置1は入力された画像データに基づ
いて計測対象物の有無または種別(歩行者または車両)
を識別し、また必要に応じて信号機Sの制御時間を調整
する。計測対象物の識別は一点鎖線で示す第1の識別領
域に係る画像データ(画素群)及び二点鎖線で示す第2
の識別領域に係る画像データ(画素群)を用いて処理す
る。第1の識別領域は横断歩道の白線部分、すなわち歩
行者が横断する方向へ並設された横断歩道の白線部分に
対応する画素群を領域とし、第2の識別領域を、前記白
線以外の部分に対応する画素群を領域とするよう設定す
る。
The identification device 1 determines the presence or absence or type (pedestrian or vehicle) of an object to be measured based on the input image data.
The control time of the traffic light S is adjusted if necessary. The object to be measured is identified by the image data (pixel group) relating to the first identification area indicated by the alternate long and short dash line and the second by the alternate long and two short dashes line
Processing is performed using the image data (pixel group) related to the identification area. The first identification area is a white line portion of the pedestrian crossing, that is, a pixel group corresponding to the white line portion of the pedestrian crossing lined up in the direction in which the pedestrian crosses, and the second identification area is a portion other than the white line. The pixel group corresponding to is set as an area.

【0026】図2は識別装置1のハードウェア構成を示
すブロック図である。図に示すように、CPU(Central
Processing Unit)11にはバス17を介してRAM(Ra
ndomAccess Memory)12,ハードディスク等の記憶部1
5、信号機制御装置3等と情報を送受信するための通信
部16,液晶ディスプレイ等の表示部14、及びキーボ
ード、マウス、操作パネル等の入力部13が接続され
る。RAM12には記憶部15、表示部14,及び入力
部13等を制御するための制御プログラム12Pが記憶
されている。
FIG. 2 is a block diagram showing the hardware configuration of the identification device 1. As shown in the figure, CPU (Central
A RAM (Ra) is connected to the processing unit) 11 via a bus 17.
ndomAccess Memory) 12, storage unit 1 such as a hard disk
5, a communication unit 16 for transmitting and receiving information to and from the traffic light control device 3, a display unit 14 such as a liquid crystal display, and an input unit 13 such as a keyboard, a mouse, and an operation panel are connected. The RAM 12 stores a control program 12P for controlling the storage unit 15, the display unit 14, the input unit 13, and the like.

【0027】撮像部2から出力された映像信号はA/D
変換部19にてディジタル化され、YC分離部10YC
により輝度信号を画像データとして抽出する。画像デー
タは1フィルード分の画像データをRAM12に格納す
る。なお、時計部18は日時データをCPU11へ出力
する。なお、本実施の形態においては画像データのうち
輝度信号を用いるが、これに代えて色信号により処理す
るようにしても良い。
The video signal output from the image pickup unit 2 is A / D.
The conversion unit 19 digitizes the YC separation unit 10YC.
Then, the luminance signal is extracted as image data. As the image data, the image data for one field is stored in the RAM 12. The clock unit 18 outputs the date and time data to the CPU 11. Although the luminance signal is used in the image data in the present embodiment, it may be processed by a color signal instead.

【0028】以上の構成において、本発明に係る識別装
置の処理手順を、フローチャート等を用いて説明する。
図3は初期設定の手順を示すフローチャートである。ま
ず、第1の識別領域の設定を行う(ステップS31)。
図4は撮像部2から得られる画像データを表示部14へ
出力した場合のイメージを示す説明図である。画面の左
右方向をX軸、上下方向をY軸とし、表示部14へはX
軸方向に1024の画素、Y軸方向に768の画素から
なる画像データを出力するよう構成している。
The processing procedure of the identifying apparatus according to the present invention having the above-mentioned configuration will be described with reference to a flowchart and the like.
FIG. 3 is a flowchart showing the procedure of initial setting. First, the first identification area is set (step S31).
FIG. 4 is an explanatory diagram showing an image when the image data obtained from the image pickup unit 2 is output to the display unit 14. The horizontal direction of the screen is the X axis, the vertical direction is the Y axis, and X is displayed on the display unit 14.
Image data composed of 1024 pixels in the axial direction and 768 pixels in the Y-axis direction is output.

【0029】図4において、10はY軸方向1画素、X
軸方向500画素からなる第1の識別領域であり、該第
1の識別領域10は、白線部分、すなわち歩行者が横断
する方向(図の矢印方向)へ並設された横断歩道の白線
部分に対応する画素群を領域としている。なお、第1の
識別領域10は一部分に白線以外の部分を含んでも良
い。この第1の識別領域10はオペレータが表示部14
を見ながら入力部13から、座標値を指定することによ
り設定するようにすればよい。なお、後述するようにこ
の設定は自動的に設定させるようにしても良い。
In FIG. 4, 10 is one pixel in the Y-axis direction, and X is
This is a first identification area consisting of 500 pixels in the axial direction, and the first identification area 10 is in a white line portion, that is, in a white line portion of a pedestrian crosswalk arranged in a direction in which a pedestrian crosses (direction of an arrow in the figure). The corresponding pixel group is set as an area. The first identification area 10 may partially include a portion other than the white line. This first identification area 10 is displayed on the display unit 14 by the operator.
It may be set by designating coordinate values from the input unit 13 while watching. Note that this setting may be automatically set as described later.

【0030】続いて第2の識別領域20の設定を行う
(ステップS32)。第2の識別領域20は図4に示す
ように、前記白線以外の部分、すなわち歩行者が横断す
る方向(図の矢印方向)へ並設された横断歩道の白線以
外の部分に対応する画素群を領域としている。この第2
の識別領域20についてもオペレータが表示部14を見
ながら入力部13から、座標値を指定することにより設
定するようにすればよい。なお、本実施の形態において
は短辺を1画素とする矩形状の領域としたが、必ずしも
短辺は1画素である必要はなく、また形状は矩形状以外
の形状であっても良い。
Then, the second identification area 20 is set (step S32). As shown in FIG. 4, the second identification region 20 is a pixel group corresponding to a portion other than the white line, that is, a portion other than the white line of a pedestrian crosswalk arranged in a direction crossed by a pedestrian (arrow direction in the figure). Is the area. This second
The operator may also set the identification area 20 by specifying the coordinate value from the input section 13 while looking at the display section 14. In the present embodiment, the rectangular area has one pixel on the short side, but the short side does not necessarily have to be one pixel, and the shape may be a shape other than the rectangular shape.

【0031】識別領域の設定後、CPU11は第1の識
別領域10の画像データを数フレーム(例えば100フ
レーム)分、RAM12に記憶して認識の基準となる第
1基準時空間画像を生成する(ステップS33)。具体
的には第1識別領域10の1フレーム分の明度データを
時計部18から出力される日時データに対応させてRA
M12に格納する。そして、これを100フレーム分繰
り返す。同様に第2の識別領域20の画像データを数フ
レーム(例えば100フレーム)分、RAM12に記憶
して認識の基準となる第2基準時空間画像を生成する
(ステップS34)。以上の処理により、認識の基準と
なる第1基準時空間画像及び第2基準時空間画像が完成
する。なお、基準時空間画像の生成は車両または歩行者
が存在しない状態で実行する。
After setting the identification area, the CPU 11 stores the image data of the first identification area 10 for several frames (for example, 100 frames) in the RAM 12 to generate a first reference spatiotemporal image as a reference for recognition ( Step S33). Specifically, the brightness data for one frame in the first identification area 10 is made to correspond to the date and time data output from the clock unit 18 by RA.
Store in M12. Then, this is repeated for 100 frames. Similarly, the image data of the second identification area 20 for several frames (for example, 100 frames) is stored in the RAM 12 and a second reference spatiotemporal image serving as a reference for recognition is generated (step S34). Through the above processing, the first reference spatiotemporal image and the second reference spatiotemporal image that serve as a reference for recognition are completed. The generation of the reference spatiotemporal image is executed in the state where no vehicle or pedestrian exists.

【0032】図5は生成した第1基準時空間画像及び第
2基準時空間画像のイメージを示す説明図である。図5
(a)は第1基準時空間画像、図5(b)は第2基準時
空間画像であり、横軸にX軸方向の画素位置をとり、縦
軸にフレームを単位とする時間軸をとったものである。
第1の基準時空間画像(図5(a))は白線に対応する
画像を取り込んでいるので、全体的に明度の高い時空間
画像が生成されている。一方、第2の時空間画像(図5
(b))はアスファルト部分に対応する画像を取り込ん
でいるので、全体的に明度の低い時空間画像が生成され
る。
FIG. 5 is an explanatory view showing images of the first reference spatiotemporal image and the second reference spatiotemporal image generated. Figure 5
5A is a first reference spatiotemporal image, and FIG. 5B is a second reference spatiotemporal image. The horizontal axis represents the pixel position in the X-axis direction, and the vertical axis represents the time axis in units of frames. It is a thing.
Since the first reference spatiotemporal image (FIG. 5A) captures the image corresponding to the white line, the spatiotemporal image having high brightness is generated as a whole. On the other hand, the second spatiotemporal image (see FIG.
Since the image corresponding to the asphalt portion is captured in (b), a spatiotemporal image having low brightness is generated as a whole.

【0033】CPU11は時計部18から出力される日
時データを参照して一定時間(例えば1時間)を経過し
たか否かを判断する(ステップS35)。つまり、時間
の経過に伴い、撮像部2から得られる明度値が変化する
ため(例えば夕方等)、適宜のタイミングで基準時空間
画像を作り直す。一定時間が経過していない場合(ステ
ップS35でNO)、この処理を繰り返す。一方、一定
時間を経過した場合(ステップS35でYES)、横断
歩道上の計測対象物を認識したか否かを判断する(ステ
ップS36)。なお、この認識処理については後述す
る。
The CPU 11 refers to the date and time data output from the clock unit 18 and determines whether or not a fixed time (for example, one hour) has passed (step S35). That is, since the brightness value obtained from the imaging unit 2 changes with the passage of time (for example, in the evening), the reference spatiotemporal image is recreated at an appropriate timing. If the fixed time has not elapsed (NO in step S35), this process is repeated. On the other hand, when the fixed time has passed (YES in step S35), it is determined whether or not the measurement target object on the pedestrian crossing is recognized (step S36). The recognition process will be described later.

【0034】計測対象物を認識した場合(ステップS3
6でYES)、計測対象物を認識しなくなるまで待機す
る。つまり、基準時空間画像の生成時に計測対象物が存
在する事態を回避するためこの処理を行う。一方、計測
対象物を認識していない場合(ステップS36でN
O)、入力部13から割り込み処理を示す信号が入力さ
れたか否かを判断する(ステップS37)。割り込み処
理がなされていない場合(ステップS37でNO)、ス
テップS33へ移行し、再び第1基準時空間画像及び第
2基準時空間画像を生成する。割り込み処理がなされた
場合(ステップS37でYES)、全ての処理を終了す
る。
When the object to be measured is recognized (step S3)
(YES in 6), and waits until the measurement object is no longer recognized. That is, this processing is performed in order to avoid the situation in which the measurement target object exists when the reference spatiotemporal image is generated. On the other hand, when the measurement target is not recognized (N in step S36)
O), and it is determined whether or not a signal indicating interrupt processing is input from the input unit 13 (step S37). When the interrupt process is not performed (NO in step S37), the process proceeds to step S33, and the first reference spatiotemporal image and the second reference spatiotemporal image are generated again. If interrupt processing has been performed (YES in step S37), all processing ends.

【0035】図6は識別領域の設定処理手順を示すフロ
ーチャートである。識別領域の設定は上述したように入
力部13からオペレータが入力するほか以下のように、
画像処理を用いて実行するようにしても良い。まず、隣
接する二つの識別領域について、座標値(x、y)を適
宜変化させる(ステップS51)。具体的には一の識別
領域を(x、y)、(x+500,y)、(x、y+
1)、(x+500,y+1)とし、隣接する他の識別
領域を(x、y+5)、(x+500,y+5)、
(x、y+5+1)、(x+500,y+5+1)とす
る。そしてCPU11はx、yを所定の範囲内で適宜変
化させて、各領域から得られる画像データに基づき特定
される特性値を算出する。なお、本実施の形態において
は一の識別領域と他の識別領域との間隔を5画素と設定
したが、その他の値を入力部13から入力して設定する
ようにしても良い。
FIG. 6 is a flowchart showing the procedure for setting the identification area. The setting of the identification area is input by the operator from the input unit 13 as described above, and in addition to the following,
It may be executed using image processing. First, the coordinate values (x, y) of two adjacent identification areas are changed as appropriate (step S51). Specifically, one identification area is (x, y), (x + 500, y), (x, y +).
1) and (x + 500, y + 1), and other adjacent identification areas are (x, y + 5), (x + 500, y + 5),
Let (x, y + 5 + 1) and (x + 500, y + 5 + 1). Then, the CPU 11 appropriately changes x and y within a predetermined range to calculate the characteristic value specified based on the image data obtained from each area. In the present embodiment, the interval between one identification area and another identification area is set to 5 pixels, but other values may be input from the input unit 13 and set.

【0036】x、yを変化させる範囲は横断歩道の白線
部分が含まれるよう予め適当な値を入力部13から入力
または記憶部15に記憶しておくようにすればよい。特
性値としては、例えば識別領域の平均明度、分散値、明
度の総和等がある。本実施例においては識別領域の平均
明度を特性値であるものとして説明する。
An appropriate value may be input from the input unit 13 or stored in the storage unit 15 in advance so that the range of changing x and y includes the white line portion of the pedestrian crossing. The characteristic values include, for example, the average brightness of the identification area, the variance value, the total brightness, and the like. In this embodiment, the average brightness of the identification area will be described as a characteristic value.

【0037】CPU11は座標値(x、y)を変化させ
て識別領域から得られる明度データの総和を領域内の画
像数で除して明度平均値を算出し、算出した2つの識別
領域の明度平均値及び座標値(x、y)をRAM12に
格納する(ステップS52)。CPU11は2つの識別
領域の、明度平均値の差を演算し、その差が所定値以上
であるか否かを判断する(ステップS53)。所定値以
上でない場合は(ステップS53でNO)、RAM12
から記憶した明度平均値及び座標値(x、y)を消去す
る(ステップS54)。なお、この基準となる所定値は
予め記憶部15に記憶または入力部13から適当な値を
設定するようにすれば良い。例えば明度データが8ビッ
ト256階調で出力される場合、所定値を150程度と
するようにすればよい。
The CPU 11 changes the coordinate values (x, y) and divides the total sum of the brightness data obtained from the identification area by the number of images in the area to calculate the brightness average value, and the calculated brightness of the two identification areas. The average value and the coordinate value (x, y) are stored in the RAM 12 (step S52). The CPU 11 calculates the difference between the average brightness values of the two identification areas and determines whether or not the difference is equal to or greater than a predetermined value (step S53). If it is less than the predetermined value (NO in step S53), the RAM 12
The brightness average value and the coordinate value (x, y) stored from are deleted (step S54). The predetermined value serving as the reference may be stored in the storage unit 15 in advance or an appropriate value may be set from the input unit 13. For example, when the brightness data is output in 8-bit 256 gradations, the predetermined value may be set to about 150.

【0038】明度平均値の差が所定値以上の場合(ステ
ップS53でYES)、記憶した座標値(x、y)を消
去せず保存しておく。このように座標値(x、y)を変
化させて抽出した複数の座標値(x、y)から、一の座
標値(x、y)を抽出する(ステップS55)。そし
て、抽出した一の座標値(x、y)を特定することによ
り第1の識別領域及び第2の識別領域が設定される(ス
テップS56)。なお、一の座標値(x、y)の抽出
は、最も平均明度の差が大きいものを抽出する等すれば
よい。
When the difference between the average brightness values is equal to or larger than the predetermined value (YES in step S53), the stored coordinate values (x, y) are not erased but saved. In this way, one coordinate value (x, y) is extracted from the plurality of coordinate values (x, y) extracted by changing the coordinate value (x, y) (step S55). Then, the first identification area and the second identification area are set by specifying the extracted one coordinate value (x, y) (step S56). Note that one coordinate value (x, y) may be extracted by extracting the one having the largest difference in average brightness.

【0039】図7は計測を開始した場合の差分時空間画
像を生成する手順を示すフローチャートである。まず基
準時空間画像を生成したときと同じ手順にて、第1の識
別領域10について第1の時空間画像を、第2の識別領
域20について第2の時空間画像を生成する(ステップ
S71)。そして生成した第1時空間画像と記憶した第
1基準時空間画像との差分により第1差分時空間画像を
生成する。同様に生成した第2時空間画像と記憶した第
2基準時空間画像との差分により第2差分時空間画像を
生成する(ステップS72)。
FIG. 7 is a flow chart showing the procedure for generating the differential spatiotemporal image when the measurement is started. First, in the same procedure as when the reference spatiotemporal image is generated, a first spatiotemporal image is generated for the first identification area 10 and a second spatiotemporal image is generated for the second identification area 20 (step S71). . Then, the first difference spatiotemporal image is generated from the difference between the generated first spatiotemporal image and the stored first reference spatiotemporal image. Similarly, a second difference spatiotemporal image is generated from the difference between the second spatiotemporal image generated and the stored second reference spatiotemporal image (step S72).

【0040】続いて、第1差分時空間画像と第2差分時
空間画像との平均をとって差分時空間画像を生成する
(ステップS73)。このように横断歩道のゼブラゾー
ンを利用して、いずれか一方の識別領域の欠点を補うよ
うこれらを合成した差分時空間画像を生成して、識別を
行うようにしたので、計測対象物の色の影響を受けにく
く高精度で計測対象物の有無または種別を認識すること
が可能となる。
Subsequently, the difference spatiotemporal image is generated by averaging the first difference spatiotemporal image and the second difference spatiotemporal image (step S73). In this way, the zebra zone of the pedestrian crossing is used to generate a differential spatiotemporal image that combines these so as to compensate for the defects of either one of the identification areas, and the identification is performed. It is possible to recognize the presence or absence of the measurement target or the type of the measurement target with high accuracy without being easily affected by.

【0041】図8は生成した差分時空間画像のイメージ
を示す説明図である。図8(a)は横断歩道を歩行中の
歩行者をとらえた差分時空間画像であり、図8(b)は
横断歩道を横切って走行する車両をとらえた差分時空間
画像である。CPU11はこれらの生成した差分時空間
画像を解析し、計測対象物が存在するか否かを判断する
(ステップS74)。計測対象物が存在しないと判断し
た場合(ステップS74でNO)、ステップS71へ移
行し以上の処理を繰り返す。計測対象物が存在すると判
断した場合(ステップS74でYES)、計測対象物が
車両であるか歩行者であるかを識別する(ステップS7
5)。なお、これらの処理の詳細については後述する。
CPU11は計測対象物の有無または種別に関する情報
を、通信部16を介して信号機制御装置3等、外部へ出
力する(ステップS76)。
FIG. 8 is an explanatory diagram showing an image of the generated differential spatiotemporal image. FIG. 8A is a differential spatiotemporal image of a pedestrian walking on a pedestrian crossing, and FIG. 8B is a differential spatiotemporal image of a vehicle traveling across the pedestrian crossing. The CPU 11 analyzes the generated difference spatiotemporal image and determines whether or not a measurement target object exists (step S74). When it is determined that the measurement target does not exist (NO in step S74), the process proceeds to step S71 and the above processing is repeated. When it is determined that the measurement target is present (YES in step S74), it is identified whether the measurement target is a vehicle or a pedestrian (step S7).
5). The details of these processes will be described later.
The CPU 11 outputs information regarding the presence or absence or the type of the measurement target to the outside such as the traffic light control device 3 via the communication unit 16 (step S76).

【0042】上述した実施例においては第1の識別領域
10及び第2の識別領域20を、Y軸方向に1画素設定
したが、識別誤差を低減するために、Y軸方向に2画素
分の領域を設定するようにしても良い。図9はY軸方向
に2画素分の領域を設定した場合の処理手順を示すフロ
ーチャート、図10はY軸方向に2画素分の領域を設定
した場合のイメージを示す説明図である。図10に示す
ように第1の識別領域10A及び該第1の識別領域10
Aに隣り合う第1の識別領域10Bを設定する。同様に
第2の識別領域20A及び該第2の識別領域20Aに隣
り合う第2の識別領域20Bを設定する。
In the above-described embodiment, the first discrimination area 10 and the second discrimination area 20 are set to one pixel in the Y-axis direction. However, in order to reduce the discrimination error, two pixels are arranged in the Y-axis direction. The area may be set. FIG. 9 is a flowchart showing a processing procedure when an area for two pixels is set in the Y-axis direction, and FIG. 10 is an explanatory diagram showing an image when an area for two pixels is set in the Y-axis direction. As shown in FIG. 10, the first identification area 10A and the first identification area 10
The first identification area 10B adjacent to A is set. Similarly, the second identification area 20A and the second identification area 20B adjacent to the second identification area 20A are set.

【0043】この場合、基準時空間画像の生成及び差分
時空間画像の生成は以下の手順に従い実行する。まず、
図3で説明したように第1の識別領域10A、10B及
び第2の識別領域20A、20Bから得られる画像デー
タから第1基準時空間画像A及び第1基準時空間画像
B、並びに第2基準時空間画像A及び第2基準時空間画
像Bを生成する(ステップS91)。計測が開始された
場合、画像データを取り込んで第1時空間画像A及び第
1時空間画像B、並びに、第2時空間画像A及び第2時
空間画像Bを生成する(ステップS92)。
In this case, the reference spatiotemporal image and the differential spatiotemporal image are generated according to the following procedure. First,
As described with reference to FIG. 3, the first reference space-time image A, the first reference space-time image B, and the second reference space-time image A are obtained from the image data obtained from the first identification regions 10A, 10B and the second identification regions 20A, 20B. The spatiotemporal image A and the second reference spatiotemporal image B are generated (step S91). When the measurement is started, the image data is captured to generate the first spatiotemporal image A and the first spatiotemporal image B, and the second spatiotemporal image A and the second spatiotemporal image B (step S92).

【0044】そして、第1時空間画像Aと第1基準時空
間画像Aとの差分時空間画像、及び第2時空間画像Aと
第2基準時空間画像Aとの差分時空間画像を求め、これ
ら求めた2つの差分時空間画像の和から第1差分時空間
画像を生成する。同様に、第1時空間画像Bと第1基準
時空間画像Bとの差分時空間画像、及び第2時空間画像
Bと第2基準時空間画像Bとの差分時空間画像を求め、
これら求めた2つの差分時空間画像の和から第2差分時
空間画像を生成する(ステップS93)。これ以降の処
理はステップS73と同様であるので省略する。
Then, a differential spatiotemporal image between the first spatiotemporal image A and the first reference spatiotemporal image A and a differential spatiotemporal image between the second spatiotemporal image A and the second reference spatiotemporal image A are obtained, A first difference spatiotemporal image is generated from the sum of these two calculated difference spatiotemporal images. Similarly, a differential spatiotemporal image between the first spatiotemporal image B and the first reference spatiotemporal image B and a differential spatiotemporal image between the second spatiotemporal image B and the second reference spatiotemporal image B are obtained,
A second differential spatiotemporal image is generated from the calculated sum of the two differential spatiotemporal images (step S93). The subsequent processing is the same as that in step S73 and will not be described.

【0045】図11は生成した差分時空間画像中の、計
測対象物の識別手順を示すフローチャートである。まず
生成した差分時空間画像を読み出す(ステップS11
1)。さらに予め記憶部15に記憶した閾値を読み出す
(ステップS112)。CPU11は各画素についての
明度が記憶した閾値以上であるか否かを判断する(ステ
ップS113)。閾値以上である場合は(ステップS1
13でYES)、RAM12に格納したカウント数N
(初期値N=0)をインクリメントする(ステップS1
14)。一方、閾値以上でない場合は(ステップS11
3でNO)、ステップS114の処理をスキップする。
FIG. 11 is a flow chart showing the procedure for identifying the measuring object in the generated differential spatiotemporal image. First, the generated differential spatiotemporal image is read (step S11).
1). Further, the threshold value stored in advance in the storage unit 15 is read (step S112). The CPU 11 determines whether or not the brightness of each pixel is equal to or greater than the stored threshold value (step S113). If it is greater than or equal to the threshold (step S1
13), the count number N stored in the RAM 12
Increment (initial value N = 0) (step S1)
14). On the other hand, if it is not greater than or equal to the threshold (step S11
No in step 3), the process of step S114 is skipped.

【0046】CPU11は全ての画素についてステップ
S113の処理を行ったか否かを判断する(ステップS
115)。全ての画素について判断を行っていない場合
は(ステップS115でNO)、ステップS113へ移
行し以上の処理を繰り返す。全ての画素について判断を
終えた場合(ステップS115でYES)、カウント数
Nが、所定値以上であるか否かを判断する(ステップS
116)。なお、この所定値は予め記憶部15に記憶さ
れている。所定値以上である場合(ステップS116で
YES)、計測対象物が存在すると判断し、計測対象物
有りのフラグをRAM12にセットする(ステップS1
17)。一方、所定値以上でない場合(ステップS11
6でNO)、計測対象物が存在しないと判断し、計測対
象物無しのフラグをRAM12にセットする(ステップ
S118)。
The CPU 11 determines whether or not the process of step S113 has been performed for all pixels (step S).
115). If the determination is not made for all pixels (NO in step S115), the process proceeds to step S113 and the above processing is repeated. When the determination is completed for all the pixels (YES in step S115), it is determined whether or not the count number N is a predetermined value or more (step S).
116). The predetermined value is stored in the storage unit 15 in advance. If it is equal to or larger than the predetermined value (YES in step S116), it is determined that the measurement target object exists, and the flag of the measurement target existence is set in the RAM 12 (step S1)
17). On the other hand, if it is not equal to or more than the predetermined value (step S11
(NO in 6), it is determined that the measurement object does not exist, and the flag of no measurement object is set in the RAM 12 (step S118).

【0047】計測対象物が存在すると判断した場合、カ
ウント数Nが設定値以上であるか否かを判断する(ステ
ップS119)。なお、この設定値も予め記憶部15に
記憶されており、ステップS116で用いる所定値より
も大きい値を設定している。CPU11はカウント数N
が設定値以上であると判断した場合(ステップS119
でYES)、計測対象物の種別は車両と判断し車両のフ
ラグをセットする(ステップS1111)。一方カウン
ト数Nが設定値以上でない場合は(ステップS119で
NO)、計測対象物の種別は歩行者と判断し、歩行者の
フラグをセットする(ステップS1110)。
When it is determined that the measurement object is present, it is determined whether the count number N is equal to or more than the set value (step S119). Note that this set value is also stored in the storage unit 15 in advance, and a value larger than the predetermined value used in step S116 is set. CPU 11 counts N
Is determined to be equal to or greater than the set value (step S119
If YES, the type of the measurement object is determined to be a vehicle, and the vehicle flag is set (step S1111). On the other hand, when the count number N is not equal to or greater than the set value (NO in step S119), the type of the measurement target object is determined to be a pedestrian, and the pedestrian flag is set (step S1110).

【0048】なお、計測対象物の種別を識別するには以
下の処理により実行しても良い。例えば、生成した差分
時空間画像から、横軸をX軸の画素位置、縦軸をX軸の
各画素位置におけるY軸方向の画素群の明度和とするヒ
ストグラムを作成し、この形状を解析することにより種
別を識別するようにしても良い。例えば、図8(a)に
示す歩行者の場合、急激なピークを持つ形状となり(特
に複数の歩行者が横断している場合は、複数の急激なピ
ークを持つ形状となる)、図8(b)に示す車両の場
合、ヒストグラムはX軸のほぼ全域に亘り、高い明度値
を示す形状となる。このことから、ヒストグラムの明度
和平均からのばらつき度を分散値として定義し、分散値
を算出してその値が大きい場合は歩行者と判断し、分散
値が小さい場合は車両と判断するようにすればよい。
In order to identify the type of the measuring object, the following processing may be performed. For example, from the generated differential spatiotemporal image, a histogram is created in which the horizontal axis is the pixel position on the X axis and the vertical axis is the sum of lightness of the pixel group in the Y axis direction at each pixel position on the X axis, and this shape is analyzed. It is also possible to identify the type by doing so. For example, in the case of the pedestrian shown in FIG. 8A, the shape has an abrupt peak (particularly, when a plurality of pedestrians cross, the shape has an abrupt peak). In the case of the vehicle shown in b), the histogram has a shape showing a high brightness value over almost the entire area of the X axis. From this, the degree of variation from the lightness sum average of the histogram is defined as a variance value, the variance value is calculated, and if the variance value is large, it is determined to be a pedestrian, and if the variance value is small, it is determined to be a vehicle. do it.

【0049】また、ヒストグラムのX軸方向において隣
り合う画素間での差分を求める。そして、これを全ての
隣り合う画素間について差分を求め、その差分の総和を
X軸の画素数で除して平均値を算出する。この平均値が
大きい場合、歩行者と判断し、その平均値が小さい場
合、車両と判断する。これらの他、ヒストグラムをFF
T(Fast Fourier Transform)を用いて周波数解析し、周
波数が高い場合は歩行者と判断し、周波数が低い場合は
車両と判断する。さらに、ヒストグラムを解析する以外
に、差分時空間画像についてエッジ検出を行って種別を
認識するようにしても良い。まず、エッジを検出すると
共に検出した各エッジの方向を検出する。なお、エッジ
の検出は物体領域の輪郭部分のエッジだけではなく、物
体領域内部のエッジも併せて求める。次いで360度を
8方向に分けてそれぞれの角度が存在する割合を検出し
たエッジの方向から算出する。これにより時空間画像の
「テクスチャの整然らしさ」が数値化できることから、
計測対象物が歩行者であるか車両であるかの種別を判断
することができる。なお、種別の判断は以上述べた方法
に限らず、他の処理方法を用いて解析するようにしても
良い。
Further, the difference between adjacent pixels in the X-axis direction of the histogram is calculated. Then, the difference is calculated for all the adjacent pixels, and the sum of the differences is divided by the number of pixels on the X axis to calculate the average value. If this average value is large, it is determined to be a pedestrian, and if the average value is small, it is determined to be a vehicle. In addition to these, the histogram is FF
Frequency analysis is performed using T (Fast Fourier Transform). When the frequency is high, it is determined to be a pedestrian, and when the frequency is low, it is determined to be a vehicle. Further, instead of analyzing the histogram, edge detection may be performed on the differential spatiotemporal image to recognize the type. First, the edges are detected and the direction of each detected edge is detected. It should be noted that the edge detection is performed not only on the edge of the contour portion of the object area but also on the edge inside the object area. Next, 360 degrees is divided into eight directions, and the ratio of the existence of each angle is calculated from the detected edge direction. With this, the “texture orderliness” of the spatiotemporal image can be quantified,
It is possible to determine whether the measurement target is a pedestrian or a vehicle. The determination of the type is not limited to the method described above, and analysis may be performed using another processing method.

【0050】続いて、上述した識別処理を用いて、歩行
者の歩行速度を算出する処理手順について説明する。図
12は他の形態に係る識別領域のイメージを示す説明図
である。第1の識別領域10及び第2の識別領域20の
組からなる一の識別領域Rに加えて、これとは異なる第
1の識別領域10および第2の識別領域20の組からな
る他の識別領域Qを設定する。CPU11はそれぞれの
識別領域にて歩行者フラグがセットされた時刻及び識別
領域間の距離に基づいて歩行者の歩行速度を算出する。
Next, a processing procedure for calculating the walking speed of a pedestrian using the above-described identification processing will be described. FIG. 12 is an explanatory diagram showing an image of an identification area according to another embodiment. In addition to one identification region R including a set of the first identification region 10 and the second identification region 20, another identification including a different set of the first identification region 10 and the second identification region 20. Area Q is set. The CPU 11 calculates the walking speed of the pedestrian based on the time when the pedestrian flag is set in each identification area and the distance between the identification areas.

【0051】図13は歩行者の歩行速度を算出する処理
手順を示すフローチャートである。一の識別領域R及び
他の識別領域Qについて上述した設定を終えた後、これ
らの領域Q−R間の距離を測定し、記憶部15に予め記
憶して設定しておく(ステップS131)。CPU11
は一の識別領域Rで歩行者のフラグがセットされたか否
かを判断する(ステップS132)。歩行者のフラグが
セットされていない場合は(ステップS132でN
O)、この処理を繰り返し実行する。
FIG. 13 is a flowchart showing the processing procedure for calculating the walking speed of a pedestrian. After the above-described setting of the one identification area R and the other identification area Q is completed, the distance between these areas QR is measured and stored in the storage unit 15 in advance and set (step S131). CPU11
Determines whether the pedestrian flag is set in one identification region R (step S132). If the pedestrian flag is not set (N in step S132)
O), this process is repeated.

【0052】一方、歩行者のフラグがセットされた場合
(ステップS132でYES)、時計部18から出力さ
れる日時データをRAM12に格納する(ステップS1
33)。続いて、CPU11は他の識別領域Qで歩行者
のフラグがセットされたか否かを判断する(ステップS
134)。歩行者のフラグがセットされていない場合は
(ステップS134でNO)、この処理を繰り返し実行
する。
On the other hand, when the pedestrian flag is set (YES in step S132), the date / time data output from the clock unit 18 is stored in the RAM 12 (step S1).
33). Subsequently, the CPU 11 determines whether or not the pedestrian flag is set in another identification area Q (step S).
134). If the pedestrian flag is not set (NO in step S134), this process is repeated.

【0053】一方、歩行者のフラグがセットされた場合
(ステップS134でYES)、時計部18から出力さ
れる日時データをRAM12に格納する(ステップS1
35)。CPU11は格納した2つの日時データからこ
れらの領域を通過するのに要した所要時間を算出する
(ステップS136)。そして記憶した距離を読み出し
所要時間で除することにより歩行者速度を算出する(ス
テップS137)。
On the other hand, when the pedestrian flag is set (YES in step S134), the date and time data output from the clock section 18 is stored in the RAM 12 (step S1).
35). The CPU 11 calculates the time required to pass through these areas from the stored two date / time data (step S136). Then, the pedestrian speed is calculated by dividing the stored distance by the required reading time (step S137).

【0054】最後に、計測対象物の有無または種別に関
する情報を信号機制御装置3へ出力した場合の処理手順
について説明する。図14は計測対象物の有無または種
別に関する情報を受け付けた信号機制御装置3の処理手
順を示すフローチャートである。信号機制御装置3は内
部の時計部(図示せず)からの出力に基づいて、青信号
から赤信号への切り換え時間を算出し、赤信号への切り
換え10秒前であるか否かを判断する(ステップS14
1)。10秒前でない場合は(ステップS141でN
O)、この処理を繰り返す。
Finally, the processing procedure when the information regarding the presence or absence or the type of the measuring object is output to the traffic light control device 3 will be described. FIG. 14 is a flowchart showing a processing procedure of the traffic light control device 3 that has received the information regarding the presence or absence or the type of the measurement target. The traffic light control device 3 calculates the switching time from the green signal to the red signal based on the output from the internal clock section (not shown), and determines whether it is 10 seconds before the switching to the red signal ( Step S14
1). If it is not 10 seconds before (N in step S141
O), this process is repeated.

【0055】一方10秒前である場合(ステップS14
1でYES)、その後に歩行者フラグが識別装置2から
出力されたか否かを判断する(ステップS142)。歩
行者フラグが出力された場合(ステップS142でYE
S)、切り換え時間を数秒程度延長する処理を行う(ス
テップS143)。切り換え時間の延長処理後、再度ス
テップS142へ移行し手歩行者が存在するか否かを判
断する。なお、故障等により一定時間以上連続して歩行
者フラグがセットされている場合は、外部の監視センタ
ーコンピュータ等へ警告信号を出力するようにしても良
い。一方、歩行者フラグが出力されない場合(ステップ
S142でNO)、切り換え時間を延長することなく、
信号機Sの切り換え信号を信号機Sへ出力し、信号機S
を赤信号に切り換える(ステップS144)。これによ
り歩行者の安全が確保されると共に、交通流の円滑化を
図ることが可能となる。
On the other hand, if it is 10 seconds before (step S14)
If YES in step 1), then it is determined whether a pedestrian flag is output from the identification device 2 (step S142). When the pedestrian flag is output (YES in step S142)
S), processing for extending the switching time by several seconds is performed (step S143). After the process of extending the switching time, the process proceeds to step S142 again and it is determined whether or not a hand pedestrian exists. If the pedestrian flag is continuously set for a certain period of time due to a failure or the like, a warning signal may be output to an external monitoring center computer or the like. On the other hand, when the pedestrian flag is not output (NO in step S142), without extending the switching time,
The switching signal of the traffic signal S is output to the traffic signal S, and the traffic signal S
Is switched to a red traffic light (step S144). This ensures the safety of pedestrians and facilitates smooth traffic flow.

【0056】なお、計測対象物の有無または種別に関す
る情報が信号機制御装置3へ出力された場合の信号機S
に対する制御はこれに限らず、他の制御を行うようにし
ても良い。例えば、歩行者の歩行速度から信号機Sの切
り換え時間を最適化する、歩行者が継続して検出されな
い場合(例えば夜間など)は、切り換え時間をデフォル
ト値よりも短く設定する等の制御を行っても良い。さら
に、計測対象物の有無または種別に関する情報は、信号
機制御装置3へ出力する形態につき説明したが、これに
限らず他の装置へ出力するようにしても良い。例えば係
る情報を交通流総合管理センターへ出力する、赤信号時
に歩行者フラグが出力された場合は、Bluetoot
h機能をもつ歩行者の携帯電話へ警告信号を、電光掲示
板へ「歩行者有り」の信号を、またはカーナビゲーショ
ン等の車載機へ歩行者横断中の情報を出力する等するよ
うにしても良い。
Note that the traffic signal S when information regarding the presence or absence of the measurement object or the type of the measurement object is output to the traffic signal control device 3.
The control for is not limited to this, and other control may be performed. For example, the switching time of the traffic light S is optimized from the walking speed of the pedestrian, and when the pedestrian is not continuously detected (for example, at night), the switching time is set shorter than the default value. Is also good. Furthermore, although the information regarding the presence or absence or the type of the measurement object is output to the traffic light control device 3, the information is not limited to this, and may be output to another device. For example, when the pedestrian flag is output at the time of a red light, such information is output to the traffic flow comprehensive management center.
A warning signal may be output to the mobile phone of a pedestrian having the h function, a signal of "there is a pedestrian" to the electronic bulletin board, or information on pedestrian crossing may be output to an in-vehicle device such as a car navigation system. .

【0057】実施の形態2 差分時空間画像の生成処理は、実施の形態1で述べた処
理とは異なる以下の処理により生成するようにしても良
い。図15は差分時空間画像の生成処理を示すフローチ
ャートである。まず、識別装置1は実施の形態1で述べ
た手順と同様に第1の識別領域10の設定(ステップS
151)、及び第2の識別領域20の設定を行う(ステ
ップS152)。
Embodiment 2 The difference spatiotemporal image generation processing may be executed by the following processing different from the processing described in Embodiment 1. FIG. 15 is a flowchart showing the generation process of the differential spatiotemporal image. First, the identification device 1 sets the first identification area 10 in the same manner as the procedure described in the first embodiment (step S
151) and the second identification area 20 is set (step S152).

【0058】そして、第1の識別領域10から1フレー
ム分の画像データを取り込み第1基準画像データとして
RAM12に記憶する。また、第2の識別領域20から
1フレーム分の画像データを取り込み第2基準画像デー
タとしてRAM12に記憶する(ステップS153)。
計測が開始(ステップS154)された後、第1の識別
領域10から得られる画像データと、RAM12に記憶
した第1基準画像データとの差分を画素毎に演算し、そ
の画素毎の差分データを時計部18から出力される日時
データに対応づけてRAM12に記憶する(ステップS
155)。同様に、第2の識別領域20から得られる画
像データと、RAM12に記憶した第2基準画像データ
との差分を画素毎に演算し、その画素毎の差分データを
時計部18から出力される日時データに対応づけてRA
M12に記憶する(ステップS156)。
Then, the image data for one frame is fetched from the first identification area 10 and stored in the RAM 12 as the first reference image data. Further, one frame of image data is fetched from the second identification area 20 and stored in the RAM 12 as second reference image data (step S153).
After the measurement is started (step S154), the difference between the image data obtained from the first identification area 10 and the first reference image data stored in the RAM 12 is calculated for each pixel, and the difference data for each pixel is calculated. The data is stored in the RAM 12 in association with the date and time data output from the clock unit 18 (step S
155). Similarly, the difference between the image data obtained from the second identification area 20 and the second reference image data stored in the RAM 12 is calculated for each pixel, and the date and time when the difference data for each pixel is output from the clock unit 18. RA in association with data
It is stored in M12 (step S156).

【0059】続いてRAM12に記憶した差分データを
所定時間分(例えば、1秒分)記憶したか否かを判断す
る(ステップS157)。所定時間分記憶していない場
合は(ステップS157でNO)、ステップS155及
びS156の処理を繰り返し、次のフレームの差分デー
タを記憶する。一方、所定時間分記憶している場合は
(ステップS157でYES)、ステップS155にお
いて日時データに対応させて記憶した差分データを、時
系列に読み出して第1時空間画像を生成し、更にステッ
プS156において日時データに対応させて記憶した差
分データを、時系列に読み出して第2時空間画像を生成
する(ステップS158)。最後に第1時空間画像及び
第2時空間画像の各画素の明度を加算して、差分時空間
画像を生成する(ステップS159)。なお、差分時空
間画像は第1時空間画像と第2時空間画像とを加算して
生成するほか、平均を取る等により生成すればよい。
Subsequently, it is determined whether or not the difference data stored in the RAM 12 has been stored for a predetermined time (for example, one second) (step S157). If not stored for the predetermined time (NO in step S157), the processes of steps S155 and S156 are repeated to store the difference data of the next frame. On the other hand, when the data is stored for the predetermined time (YES in step S157), the difference data stored in association with the date and time data in step S155 is read in time series to generate the first spatiotemporal image, and further in step S156. In step S158, the second spatiotemporal image is generated by reading out the difference data stored in association with the date / time data in time series. Finally, the brightness of each pixel of the first spatiotemporal image and the second spatiotemporal image is added to generate a differential spatiotemporal image (step S159). The differential spatiotemporal image may be generated by adding the first spatiotemporal image and the second spatiotemporal image, or may be generated by taking an average or the like.

【0060】続いて、図10に示すように識別領域の幅
を複数画素にした場合の他の処理手順について説明す
る。図16及び図17は識別領域の幅を複数画素にした
場合の他の処理手順を示すフローチャートである。ま
ず、識別装置1は実施の形態1で述べた手順と同様に第
1の識別領域10A及び10Bの設定、並びに第2の識
別領域20A及び20Bの設定を行う(ステップS16
1)。
Next, another processing procedure when the width of the identification area is set to a plurality of pixels as shown in FIG. 10 will be described. 16 and 17 are flowcharts showing another processing procedure when the width of the identification area is set to a plurality of pixels. First, the identification device 1 sets the first identification areas 10A and 10B and the second identification areas 20A and 20B in the same manner as the procedure described in the first embodiment (step S16).
1).

【0061】そして、第1の識別領域10Aから1フレ
ーム分の画像データを取り込み第1基準画像データAと
してRAM12に記憶する。同様に、第1の識別領域1
0Bから1フレーム分の画像データを取り込み第1基準
画像データBとしてRAM12に記憶する。また、第2
の識別領域20Aから1フレーム分の画像データを取り
込み第2基準画像データAとしてRAM12に記憶し、
第2の識別領域20Bから1フレーム分の画像データを
取り込み第2基準画像データBとしてRAM12に記憶
する(ステップS162)。計測が開始(ステップS1
63)された後、白線以外の部分である第1の識別領域
10Aから得られる画像データと、RAM12に記憶し
た第1基準画像データAとの差分を画素毎に演算し、そ
の画素毎の差分データ10Aを時計部18から出力され
る日時データに対応づけてRAM12に記憶する(ステ
ップS164)。また、白線部分である第2の識別領域
20Aから得られる画像データと、RAM12に記憶し
た第2基準画像データAとの差分を画素毎に演算し、そ
の画素毎の差分データ20Aを時計部18から出力され
る日時データに対応づけてRAM12に記憶する(ステ
ップS165)。
Then, one frame of image data is fetched from the first identification area 10A and stored in the RAM 12 as the first reference image data A. Similarly, the first identification area 1
Image data for one frame is taken in from 0B and stored in the RAM 12 as the first reference image data B. Also, the second
Image data for one frame is fetched from the identification area 20A, and is stored in the RAM 12 as the second reference image data A.
Image data for one frame is fetched from the second identification area 20B and stored in the RAM 12 as the second reference image data B (step S162). Measurement starts (step S1
63), the difference between the image data obtained from the first identification area 10A other than the white line and the first reference image data A stored in the RAM 12 is calculated for each pixel, and the difference for each pixel is calculated. The data 10A is stored in the RAM 12 in association with the date and time data output from the clock unit 18 (step S164). Further, the difference between the image data obtained from the second identification area 20A, which is the white line portion, and the second reference image data A stored in the RAM 12 is calculated for each pixel, and the difference data 20A for each pixel is calculated as the clock unit 18. The data is stored in the RAM 12 in association with the date and time data output from (step S165).

【0062】上述した処理手順と同様に、第1の識別領
域10B及び第2の識別領域20Bについても同様の処
理を行う。まず、白線以外の部分である第1の識別領域
10Bから得られる画像データと、RAM12に記憶し
た第1基準画像データBとの差分を画素毎に演算し、そ
の画素毎の差分データ10Bを時計部18から出力され
る日時データに対応づけてRAM12に記憶する(ステ
ップS166)。また、白線部分である第2の識別領域
20Bから得られる画像データと、RAM12に記憶し
た第2基準画像データBとの差分を画素毎に演算し、そ
の画素毎の差分データ20Bを時計部18から出力され
る日時データに対応づけてRAM12に記憶する(ステ
ップS167)。
Similar to the processing procedure described above, similar processing is performed for the first identification area 10B and the second identification area 20B. First, the difference between the image data obtained from the first identification area 10B other than the white line and the first reference image data B stored in the RAM 12 is calculated for each pixel, and the difference data 10B for each pixel is calculated. The data is stored in the RAM 12 in association with the date and time data output from the unit 18 (step S166). In addition, the difference between the image data obtained from the second identification area 20B, which is the white line portion, and the second reference image data B stored in the RAM 12 is calculated for each pixel, and the difference data 20B for each pixel is calculated as the clock unit 18. It is stored in the RAM 12 in association with the date and time data output from (step S167).

【0063】続いてRAM12に記憶した差分データ1
0A,20A、10B、20Bを所定時間分(例えば、
1秒分)記憶したか否かを判断する(ステップS16
8)。所定時間分記憶していない場合は(ステップS1
68でNO)、ステップS164〜S167の処理を繰
り返し、次のフレームの差分データ10A,20A、1
0B、20Bを記憶する。一方、所定時間分記憶してい
る場合は(ステップS168でYES)、ステップS1
64において日時データに対応させて記憶した差分デー
タ10Aを、時系列に読み出して第1時空間画像10A
を生成し、更にステップS165において日時データに
対応させて記憶した差分データ20Aを、時系列に読み
出して第2時空間画像20Aを生成する(ステップS1
71)。
Subsequently, the difference data 1 stored in the RAM 12
0A, 20A, 10B, 20B for a predetermined time (for example,
It is determined whether or not it has been stored (for one second) (step S16).
8). If not stored for a predetermined time (step S1
No in step 68), the processes of steps S164 to S167 are repeated, and the difference data 10A, 20A, 1 of the next frame,
Store 0B and 20B. On the other hand, if the predetermined time has been stored (YES in step S168), step S1
The difference data 10A stored corresponding to the date and time data in 64 is read in time series to obtain the first spatiotemporal image 10A.
And further, the difference data 20A stored in association with the date and time data in step S165 is read in time series to generate the second spatiotemporal image 20A (step S1).
71).

【0064】同様に、ステップS166において日時デ
ータに対応させて記憶した差分データ10Bを、時系列
に読み出して第1時空間画像10Bを生成し、更にステ
ップS167において日時データに対応させて記憶した
差分データ20Bを、時系列に読み出して第2時空間画
像20Bを生成する(ステップS172)。このように
して生成された第1時空間画像10A及び第2時空間画
像20Aの各画素の明度を加算し、また、生成された第
1時空間画像10B及び第2時空間画像20Bの各画素
の明度を加算し、これらの合計値を識別領域の幅である
2で除して差分時空間画像を生成する(ステップS17
3)。なお、識別領域の幅を複数画素(例えば、3画素
(計6本))設けた場合、ステップS173においては
生成した各時空間画像を幅数(この例では3)で除する
ようにすればよい。
Similarly, the difference data 10B stored in association with the date and time data in step S166 is read in time series to generate the first spatiotemporal image 10B, and the difference stored in association with the date and time data in step S167. The data 20B is read in time series to generate the second spatiotemporal image 20B (step S172). The brightness of each pixel of the first spatiotemporal image 10A and the second spatiotemporal image 20A generated in this way is added, and each pixel of the generated first spatiotemporal image 10B and the second spatiotemporal image 20B is added. , And the sum of these values is divided by 2 which is the width of the identification area to generate a differential spatiotemporal image (step S17).
3). If a plurality of pixels (for example, three pixels (six in total)) are provided as the width of the identification region, each spatiotemporal image generated in step S173 may be divided by the number of widths (three in this example). Good.

【0065】本実施の形態2は以上の如き構成としてあ
り、その他の構成及び作用は実施の形態1と同様である
ので、対応する部分には同一の参照番号を付してその詳
細な説明を省略する。
The second embodiment is configured as described above, and other configurations and operations are similar to those of the first embodiment. Therefore, corresponding parts are designated by the same reference numerals and detailed description thereof will be given. Omit it.

【0066】[0066]

【発明の効果】以上詳述した如く、第1発明乃至第8発
明にあっては、撮像部の画像データ取り込み領域のう
ち、計測対象物の識別に利用する第1の識別領域及び第
2の識別領域を設定する。第2の識別領域の画像データ
に基づき特定される特性値は、第1の識別領域の特性値
とは所定値以上相違するよう設定する。計測対象が存在
しないタイミングで、第1の識別領域及び第2の識別領
域から得られる画像データに基づいて、予め基準となる
第1基準時空間画像及び第2基準時空間画像をそれぞれ
生成しておく。そして、第1の識別領域から得られる画
像データに基づき生成した第1時空間画像及び前記第2
の識別領域から得られる画像データに基づき生成した第
2時空間画像と、第1基準時空間画像及び前記第2基準
時空間画像とを用いて差分時空間画像を生成する。また
は、計測対象物が存在しない状態で、第1の識別領域か
ら得られる第1基準画像データ及び第2の識別領域から
得られる第2基準画像データを予め記憶しておき、第1
の識別領域から時系列で得られるそれぞれの画像データ
から第1基準画像データとの差分をとることで第1時空
間画像を生成する。同様に第2の識別領域についても、
第2の識別領域から時系列で得られるそれぞれの画像デ
ータから記憶した第2基準画像データとの差分をとるこ
とで、第2時空間画像を生成する。最後に、これら生成
した第1時空間画像と第2時空間画像とを用いて差分時
空間画像を生成する。そして、生成した差分時空間画像
に基づき計測対象物の有無または種別を識別する。
As described above in detail, in the first to eighth inventions, the first identification area and the second identification area, which are used to identify the measurement object, in the image data acquisition area of the image pickup unit. Set the identification area. The characteristic value specified based on the image data of the second identification area is set to be different from the characteristic value of the first identification area by a predetermined value or more. A first reference spatiotemporal image and a second reference spatiotemporal image, which are references in advance, are generated based on the image data obtained from the first identification region and the second identification region at the timing when the measurement target does not exist. deep. The first spatiotemporal image generated based on the image data obtained from the first identification area and the second spatiotemporal image.
The differential spatiotemporal image is generated using the second spatiotemporal image generated based on the image data obtained from the identification area, the first reference spatiotemporal image, and the second reference spatiotemporal image. Alternatively, the first reference image data obtained from the first identification region and the second reference image data obtained from the second identification region are stored in advance in the state where the measurement object does not exist,
The first spatio-temporal image is generated by taking the difference from the first reference image data from the respective image data obtained in time series from the identification area. Similarly for the second identification area,
A second spatiotemporal image is generated by taking the difference from the stored second reference image data from the respective image data obtained in time series from the second identification region. Finally, a differential spatiotemporal image is generated using the generated first spatiotemporal image and second spatiotemporal image. Then, the presence or absence or the type of the measurement target is identified based on the generated difference-time space image.

【0067】このように、横断歩道のゼブラゾーンを利
用し、いずれか一方の識別領域の欠点を補うようこれら
を合成した差分時空間画像を生成して、識別を行うよう
にしたので、計測対象物の色の影響を受けにくく高精度
で計測対象物の有無または種別を認識することが可能と
なる。
As described above, the zebra zone of the pedestrian crossing is used to generate the differential spatiotemporal image by combining these so as to compensate for the defect in either one of the identification areas, and the identification is performed. The presence or type of the measurement object can be recognized with high accuracy, being less affected by the color of the object.

【0068】第9発明にあっては、第1の識別領域及び
第2の識別領域を一組として、複数組の第1の識別領域
及び第2の識別領域を設定する。そして、計測対象物を
識別した場合、各組における計測対象物の識別時刻及び
各組の識別領域間の距離に基づいて計測対象物の移動速
度を算出するようにしたので、歩行者の走行速度を検出
でき、お年寄りと判断した場合、信号の切り換え時間を
長く制御し、走行速度が速い場合、信号の切り換え時間
を短く制御して車両の走行を優先する。これにより、交
通流を円滑にすることができ、また歩行者の安全を図る
ことが可能となる。
In the ninth invention, a plurality of sets of the first identification area and the second identification area are set with the first identification area and the second identification area as one set. When the measurement target is identified, the moving speed of the measurement target is calculated based on the identification time of the measurement target in each set and the distance between the identification regions of each set. Can be detected and the elderly person is determined to control the switching time of the signal for a long time, and when the traveling speed is fast, the switching time of the signal is controlled to be short and the traveling of the vehicle is prioritized. As a result, the traffic flow can be made smooth and pedestrians can be safe.

【0069】第10発明及び第11発明にあっては、識
別した計測対象物の有無または種別に関する情報を外部
へ出力する。例えば、これらの情報を信号機制御装置へ
出力することにより、信号機制御装置は、信号機の切り
換え時間を制御する。また、歩行者と識別した場合、電
光掲示板、車載器へ「歩行者有り」等の情報を出力し、
または車両と識別した場合は、「自動車接近」等の情報
を携帯端末へ出力するようにしたので、歩行者、及びド
ライバーが安全に歩行または運転することが可能となる
等、本発明は優れた効果を奏し得る。
In the tenth invention and the eleventh invention, the information regarding the presence or absence or the type of the identified measurement object is output to the outside. For example, by outputting these pieces of information to the traffic light control device, the traffic light control device controls the switching time of the traffic light. Also, when a pedestrian is identified, information such as "there is a pedestrian" is output to the electronic bulletin board and the vehicle-mounted device,
Alternatively, when the vehicle is identified as a vehicle, information such as “vehicle approaching” is output to the mobile terminal, so that the pedestrian and the driver can walk or drive safely, and the present invention is excellent. It can be effective.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る交通制御システムの概要を示す模
式図である。
FIG. 1 is a schematic diagram showing an outline of a traffic control system according to the present invention.

【図2】識別装置のハードウェア構成を示すブロック図
である。
FIG. 2 is a block diagram showing a hardware configuration of an identification device.

【図3】初期設定の手順を示すフローチャートである。FIG. 3 is a flowchart showing a procedure of initial setting.

【図4】撮像部から得られる画像データを表示部へ出力
した場合のイメージを示す説明図である。
FIG. 4 is an explanatory diagram showing an image when image data obtained from an imaging unit is output to a display unit.

【図5】生成した第1基準時空間画像及び第2基準時空
間画像のイメージを示す説明図である。
FIG. 5 is an explanatory diagram showing images of a first reference spatiotemporal image and a second reference spatiotemporal image generated.

【図6】識別領域の設定処理手順を示すフローチャート
である。
FIG. 6 is a flowchart showing a procedure for setting an identification area.

【図7】計測を開始した場合の差分時空間画像を生成す
る手順を示すフローチャートである。
FIG. 7 is a flowchart showing a procedure for generating a differential spatiotemporal image when measurement is started.

【図8】生成した差分時空間画像のイメージを示す説明
図である。
FIG. 8 is an explanatory diagram showing an image of a generated differential spatiotemporal image.

【図9】Y軸方向に2画素分の領域を設定した場合の処
理手順を示すフローチャート
FIG. 9 is a flowchart showing a processing procedure when an area for two pixels is set in the Y-axis direction.

【図10】Y軸方向に2画素分の領域を設定した場合の
イメージを示す説明図である。
FIG. 10 is an explanatory diagram showing an image when a region for two pixels is set in the Y-axis direction.

【図11】生成した差分時空間画像中の、計測対象物の
識別手順を示すフローチャートである。
FIG. 11 is a flowchart showing a procedure for identifying an object to be measured in a generated differential spatiotemporal image.

【図12】他の形態に係る識別領域のイメージを示す説
明図である。
FIG. 12 is an explanatory diagram showing an image of an identification area according to another embodiment.

【図13】歩行者の歩行速度を算出する処理手順を示す
フローチャートである。
FIG. 13 is a flowchart showing a processing procedure for calculating a walking speed of a pedestrian.

【図14】計測対象物の有無または種別に関する情報を
受け付けた信号機制御装置の処理手順を示すフローチャ
ートである。
FIG. 14 is a flowchart showing a processing procedure of a traffic light control device that has received information regarding the presence or absence or type of a measurement object.

【図15】差分時空間画像の生成処理を示すフローチャ
ートである。
FIG. 15 is a flowchart showing a process of generating a differential spatiotemporal image.

【図16】識別領域の幅を複数画素にした場合の他の処
理手順を示すフローチャートである。
FIG. 16 is a flowchart showing another processing procedure when the width of the identification area is set to a plurality of pixels.

【図17】識別領域の幅を複数画素にした場合の他の処
理手順を示すフローチャートである。
FIG. 17 is a flowchart showing another processing procedure when the width of the identification area is set to a plurality of pixels.

【符号の説明】 1 識別装置 18 時計部 13 入力部 14 表示部 16 通信部 19 A/D変換部 10YC YC分離部 2 撮像部 3 信号機制御装置 S 信号機 10 第1の識別領域 20 第2の識別領域[Explanation of symbols] 1 identification device 18 clock 13 Input section 14 Display 16 Communication unit 19 A / D converter 10YC YC separation unit 2 Imaging unit 3 Traffic light control device S traffic light 10 First identification area 20 Second identification area

───────────────────────────────────────────────────── フロントページの続き (72)発明者 東久保 政勝 大阪府大阪市此花区島屋一丁目1番3号 住友電気工業株式会社大阪製作所内 (72)発明者 田中 佳代 大阪府大阪市此花区島屋一丁目1番3号 住友電気工業株式会社大阪製作所内 (72)発明者 青木 正憲 大阪府大阪市此花区島屋一丁目1番3号 住友電気工業株式会社大阪製作所内 (72)発明者 寺田 賢治 徳島県徳島市安宅3丁目6番10号―211 Fターム(参考) 5B057 AA16 AA19 BA02 DA06 DA12 DA15 DB02 DB05 DB09 DC22 DC33 DC36 DC39 5H180 AA01 AA21 CC04 JJ02 JJ05 JJ15 5L096 AA06 BA02 CA04 CA07 GA08 HA03    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Masakatsu Higashikubo             1-3-3 Shimaya, Konohana-ku, Osaka City, Osaka Prefecture             Sumitomo Electric Industries, Ltd. Osaka Works (72) Inventor Kayo Tanaka             1-3-3 Shimaya, Konohana-ku, Osaka City, Osaka Prefecture             Sumitomo Electric Industries, Ltd. Osaka Works (72) Masanori Aoki, inventor             1-3-3 Shimaya, Konohana-ku, Osaka City, Osaka Prefecture             Sumitomo Electric Industries, Ltd. Osaka Works (72) Inventor Kenji Terada             3-6-10 Ataka, Tokushima City, Tokushima Prefecture-211 F term (reference) 5B057 AA16 AA19 BA02 DA06 DA12                       DA15 DB02 DB05 DB09 DC22                       DC33 DC36 DC39                 5H180 AA01 AA21 CC04 JJ02 JJ05                       JJ15                 5L096 AA06 BA02 CA04 CA07 GA08                       HA03

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 白線が描設された横断歩道を撮像した画
像データから、計測対象物を識別する識別方法におい
て、 横断歩道の白線部分を第1の識別領域に設定し、 前記白線以外の部分を第2の識別領域に設定し、 計測対象物が存在しない状態で、第1の識別領域及び第
2の識別領域にて、基準となる第1基準時空間画像及び
第2基準時空間画像を予め生成しておき、 前記第1の識別領域から得られる画像データに基づき生
成した第1時空間画像及び前記第2の識別領域から得ら
れる画像データに基づき生成した第2時空間画像と、前
記第1基準時空間画像及び前記第2基準時空間画像とを
用いて差分時空間画像を生成し、 生成した差分時空間画像に基づき計測対象物の有無また
は種別を識別することを特徴とする識別方法。
1. An identification method for identifying an object to be measured from image data of a pedestrian crossing with a white line drawn therein, wherein a white line portion of the pedestrian crossing is set as a first identification region, and a portion other than the white line is set. Is set as the second identification region, and the first reference space-time image and the second reference space-time image serving as the reference are set in the first identification region and the second identification region in the state where the measurement object does not exist. A first spatiotemporal image generated based on image data obtained from the first identification region and a second spatiotemporal image generated based on image data obtained from the second identification region; Discrimination characterized by generating a differential spatiotemporal image using the first reference spatiotemporal image and the second reference spatiotemporal image, and discriminating the presence or absence or the type of the measurement object based on the generated differential spatiotemporal image Method.
【請求項2】 白線が描設された横断歩道を撮像した画
像データから、計測対象物を識別する識別方法におい
て、 横断歩道の白線部分を第1の識別領域に設定し、 前記白線以外の部分を第2の識別領域に設定し、 計測対象物が存在しない状態で、第1の識別領域から得
られる第1基準画像データ及び第2の識別領域から得ら
れる第2基準画像データを予め記憶しておき、前記第1
の識別領域から得られる画像データ及び前記記憶した第
1基準画像データに基づいて第1時空間画像を生成し、 前記第2の識別領域から得られる画像データ及び前記記
憶した第2基準画像データに基づいて第2時空間画像を
生成し、 生成した第1時空間画像と第2時空間画像とを用いて差
分時空間画像を生成し、 生成した差分時空間画像に基づき計測対象物の有無また
は種別を識別することを特徴とする識別方法。
2. An identification method for identifying an object to be measured from image data of a pedestrian crossing with a white line drawn therein, wherein a white line portion of the pedestrian crossing is set as a first identification area, and a portion other than the white line is set. Is set in the second identification area, and the first reference image data obtained from the first identification area and the second reference image data obtained from the second identification area are stored in advance in the state where the measurement object does not exist. Aside from the first
A first spatiotemporal image based on the image data obtained from the identification region and the stored first reference image data, and the image data obtained from the second identification region and the stored second reference image data are generated. A second spatiotemporal image is generated based on the generated spatiotemporal image and a second spatiotemporal image, and a differential spatiotemporal image is generated based on the generated differential spatiotemporal image. An identification method characterized by identifying a type.
【請求項3】 撮像部から取り込んだ画像データから計
測対象物を識別する識別方法において、 前記撮像部の画像データ取り込み領域のうち、計測対象
物の識別に利用する第1の識別領域を設定するステップ
と、 識別領域から得られる画像データに基づき特定される特
性値が、第1の識別領域とは所定値以上相違する第2の
識別領域を設定するステップと、 前記第1の識別領域及び第2の識別領域から得られる画
像データに基づいて、予め基準となる第1基準時空間画
像及び第2基準時空間画像をそれぞれ生成しておくステ
ップと、 前記第1の識別領域から得られる画像データに基づき生
成した第1時空間画像及び前記第2の識別領域から得ら
れる画像データに基づき生成した第2時空間画像と、前
記第1基準時空間画像及び前記第2基準時空間画像とを
用いて差分時空間画像を生成するステップと、 生成した差分時空間画像に基づき計測対象物の有無また
は種別を識別する識別ステップとを備えることを特徴と
する識別方法。
3. An identification method for identifying a measurement target from image data captured from an image capturing unit, wherein a first identification region used for identifying a measurement target is set in an image data capturing region of the image capturing unit. A step of setting a second identification area in which a characteristic value specified based on image data obtained from the identification area is different from the first identification area by a predetermined value or more; Generating a first reference spatiotemporal image and a second reference spatiotemporal image in advance based on image data obtained from the second identification region; and image data obtained from the first identification region. And a second spatiotemporal image generated based on image data obtained from the second identification region, the first reference spatiotemporal image, and the second reference Identification method characterized by comprising the steps of: generating a differential space-time image, an identification step of identifying the presence, absence or type of basis measurement object when space image generated difference with a spatial image.
【請求項4】 撮像部から取り込んだ画像データから計
測対象物を識別する識別方法において、 前記撮像部の画像データ取り込み領域のうち、計測対象
物の識別に利用する第1の識別領域を設定するステップ
と、 識別領域から得られる画像データに基づき特定される特
性値が、第1の識別領域とは所定値以上相違する第2の
識別領域を設定するステップと、 予め基準となる第1の識別領域から得られる第1基準画
像データ及び第2の識別領域から得られる第2基準画像
データを記憶するステップと、 前記第1の識別領域から得られる画像データ及び前記記
憶した第1基準画像データに基づいて第1時空間画像を
生成するステップと、 前記第2の識別領域から得られる画像データ及び前記記
憶した第2基準画像データに基づいて第2時空間画像を
生成するステップと、 生成した第1時空間画像と第2時空間画像とを用いて差
分時空間画像を生成するステップと、 生成した差分時空間画像に基づき計測対象物の有無また
は種別を識別するステップとを備えることを特徴とする
識別方法。
4. An identification method for identifying a measurement target from image data captured from an image capturing unit, wherein a first identification region used for identifying a measurement target is set in an image data capturing region of the image capturing unit. A step of setting a second identification area in which a characteristic value specified based on image data obtained from the identification area differs from the first identification area by a predetermined value or more; and a first identification serving as a reference in advance. Storing the first reference image data obtained from the area and the second reference image data obtained from the second identification area; the image data obtained from the first identification area and the stored first reference image data; Generating a first spatiotemporal image based on the image data obtained from the second identification region and the stored second reference image data. And a step of generating a differential spatiotemporal image using the generated first spatiotemporal image and second spatiotemporal image, and identifying the presence or type of the measurement target based on the differential spatiotemporal image generated And a step of performing.
【請求項5】 撮像部から取り込んだ画像データから計
測対象物を識別する識別装置において、 前記撮像部の画像データ取り込み領域のうち、計測対象
物の識別に利用する第1の識別領域を設定する手段と、 識別領域から得られる画像データに基づき特定される特
性値が、第1の識別領域とは所定値以上相違する第2の
識別領域を設定する手段と、 前記第1の識別領域及び第2の識別領域から得られる画
像データに基づいて、基準となる第1基準時空間画像及
び第2基準時空間画像をそれぞれ生成する手段と、 前記第1の識別領域から得られる画像データに基づき生
成した第1時空間画像及び前記第2の識別領域から得ら
れる画像データに基づき生成した第2時空間画像と、前
記第1基準時空間画像及び前記第2基準時空間画像とを
用いて差分時空間画像を生成する手段と、 生成した差分時空間画像に基づき計測対象物の有無また
は種別を識別する識別手段とを備えることを特徴とする
識別装置。
5. An identification device for identifying a measurement target from image data captured from an image capturing unit, wherein a first identification region used for identifying a measurement target is set in an image data capturing region of the image capturing unit. Means for setting a second identification area in which the characteristic value specified based on the image data obtained from the identification area is different from the first identification area by a predetermined value or more, the first identification area and the first identification area Means for generating a first reference spatiotemporal image and a second reference spatiotemporal image, respectively, based on image data obtained from the second identification region; and generation based on image data obtained from the first identification region Using the first spatiotemporal image and the second spatiotemporal image generated based on the image data obtained from the second identification region, the first reference spatiotemporal image, and the second reference spatiotemporal image Minute means for generating a spatial image, the identification device characterized by comprising an identifying means for identifying the presence, absence or type of basis measurement object in the generated differential space-time images.
【請求項6】 撮像部から取り込んだ画像データから計
測対象物を識別する識別装置において、 前記撮像部の画像データ取り込み領域のうち、計測対象
物の識別に利用する第1の識別領域を設定する手段と、 識別領域から得られる画像データに基づき特定される特
性値が、第1の識別領域とは所定値以上相違する第2の
識別領域を設定する手段と、 予め基準となる第1の識別領域から得られる第1基準画
像データ及び第2の識別領域から得られる第2基準画像
データを記憶する手段と、 前記第1の識別領域から得られる画像データ及び前記記
憶した第1基準画像データに基づいて第1時空間画像を
生成する手段と、 前記第2の識別領域から得られる画像データ及び前記記
憶した第2基準画像データに基づいて第2時空間画像を
生成する手段と、 生成した第1時空間画像と第2時空間画像とを用いて差
分時空間画像を生成する手段と、 生成した差分時空間画像に基づき計測対象物の有無また
は種別を識別する識別手段とを備えることを特徴とする
識別装置。
6. An identification device for identifying a measurement target from image data captured from an image capturing unit, wherein a first identification region used for identifying a measurement target is set in an image data capturing region of the image capturing unit. Means for setting a second identification area in which the characteristic value specified based on the image data obtained from the identification area differs from the first identification area by a predetermined value or more; and the first identification serving as a reference in advance. Means for storing first reference image data obtained from the area and second reference image data obtained from the second identification area; and image data obtained from the first identification area and the stored first reference image data. Means for generating a first spatiotemporal image based on the image data obtained from the second identification region and the stored second reference image data, and means for generating a second spatiotemporal image A means for generating a differential spatiotemporal image using the generated first spatiotemporal image and the second spatiotemporal image, and identification means for identifying the presence or type of the measurement object based on the differential spatiotemporal image. An identification device comprising:
【請求項7】 前記特性値は、 識別領域における明度平均値であり、前記第1の識別領
域の明度平均値と、前記第2の識別領域の明度平均値と
の差が所定値以上相違するよう構成してあることを特徴
とする請求項5または6に記載の識別装置。
7. The characteristic value is a lightness average value in an identification area, and a difference between a lightness average value of the first identification area and a lightness average value of the second identification area is different by a predetermined value or more. The identification device according to claim 5, wherein the identification device is configured as described above.
【請求項8】 前記第1の識別領域は、 歩行者が横断する方向へ並設された横断歩道の白線部分
に対応する画素群を領域とし、 前記第2の識別領域は、 前記白線以外の部分に対応する画素群を領域とするよう
構成してあることを特徴とする請求項5または6に記載
の識別装置。
8. The first identification area includes a pixel group corresponding to a white line portion of a pedestrian crosswalk arranged in a direction crossing a pedestrian, and the second identification area includes areas other than the white line. The identification device according to claim 5 or 6, wherein a pixel group corresponding to the portion is configured as an area.
【請求項9】 第1の識別領域及び第2の識別領域を一
組として、複数組の第1の識別領域及び第2の識別領域
を設定する手段と、 前記識別手段にて計測対象物を識別した場合、各組にお
ける計測対象物の識別時刻及び各組の識別領域間の距離
に基づいて計測対象物の移動速度を算出する手段とを更
に備えることを特徴とする請求項5乃至8のいずれかに
記載の識別装置。
9. A means for setting a plurality of sets of the first identification area and the second identification area, with the first identification area and the second identification area as one set, and an object to be measured by the identification means. 9. When it is identified, it further comprises means for calculating the moving speed of the measurement object based on the identification time of the measurement object in each set and the distance between the identification regions of each set. The identification device according to any one.
【請求項10】 前記識別手段により識別した計測対象
物の有無または種別に関する情報を外部へ出力する手段
を更に備えることを特徴とする請求項5乃至9のいずれ
かに記載の識別装置。
10. The identification device according to claim 5, further comprising a unit that outputs information regarding the presence or absence or the type of the measurement target identified by the identification unit to the outside.
【請求項11】 請求項5乃至10のいずれかに記載の
識別装置及び該識別装置に接続される信号機制御装置か
らなる交通制御システムにおいて、 前記識別装置は、 前記識別手段により識別した計測対象物の有無または種
別に関する情報を前記信号機制御装置へ出力する手段を
更に備え、 前記信号機制御装置は、 前記識別装置から出力された情報に基づいて、信号機の
切り換え時間を制御する手段を備えることを特徴とする
交通制御システム。
11. A traffic control system comprising the identification device according to any one of claims 5 to 10 and a traffic light control device connected to the identification device, wherein the identification device is an object to be measured identified by the identification means. Further comprising means for outputting information regarding the presence or absence of the type to the traffic light control device, wherein the traffic light control device comprises means for controlling the switching time of the traffic light based on the information output from the identification device. Traffic control system.
JP2002098135A 2002-04-01 2002-04-01 Identification method, identification device, and traffic control system Expired - Lifetime JP3779229B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002098135A JP3779229B2 (en) 2002-04-01 2002-04-01 Identification method, identification device, and traffic control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002098135A JP3779229B2 (en) 2002-04-01 2002-04-01 Identification method, identification device, and traffic control system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005324072A Division JP2006134339A (en) 2005-11-08 2005-11-08 Identification method, identification device and traffic control system

Publications (2)

Publication Number Publication Date
JP2003296710A true JP2003296710A (en) 2003-10-17
JP3779229B2 JP3779229B2 (en) 2006-05-24

Family

ID=29387863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002098135A Expired - Lifetime JP3779229B2 (en) 2002-04-01 2002-04-01 Identification method, identification device, and traffic control system

Country Status (1)

Country Link
JP (1) JP3779229B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012018109A1 (en) * 2010-08-06 2012-02-09 株式会社ニコン Information management apparatus, data analysis apparatus, signal machine, server, information management system, signal machine control apparatus, and program
JP2012038089A (en) * 2010-08-06 2012-02-23 Nikon Corp Information management device, data analysis device, signal, server, information management system, and program
JP2012221270A (en) * 2011-04-11 2012-11-12 Nippon Signal Co Ltd:The Signal control system
KR20190001265A (en) * 2017-06-27 2019-01-04 대한민국(행정안전부 국립재난안전연구원장) Apparatus and method for generating a signal for extending the traffic signal for protecting a pedestrian in crosswalk
CN111738043A (en) * 2019-12-10 2020-10-02 珠海大横琴科技发展有限公司 Pedestrian re-identification method and device
CN112164232A (en) * 2020-10-16 2021-01-01 腾讯科技(深圳)有限公司 Control method and device of non-maneuvering object, electronic equipment and storage medium
JP2023030765A (en) * 2021-08-24 2023-03-08 七海 松田 Measurement method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012018109A1 (en) * 2010-08-06 2012-02-09 株式会社ニコン Information management apparatus, data analysis apparatus, signal machine, server, information management system, signal machine control apparatus, and program
JP2012038089A (en) * 2010-08-06 2012-02-23 Nikon Corp Information management device, data analysis device, signal, server, information management system, and program
US10977938B2 (en) 2010-08-06 2021-04-13 Nikon Corporation Signal control apparatus and signal having the same
JP2012221270A (en) * 2011-04-11 2012-11-12 Nippon Signal Co Ltd:The Signal control system
KR20190001265A (en) * 2017-06-27 2019-01-04 대한민국(행정안전부 국립재난안전연구원장) Apparatus and method for generating a signal for extending the traffic signal for protecting a pedestrian in crosswalk
KR102006626B1 (en) * 2017-06-27 2019-08-06 대한민국 Apparatus and method for generating a signal for extending the traffic signal for protecting a pedestrian in crosswalk
CN111738043A (en) * 2019-12-10 2020-10-02 珠海大横琴科技发展有限公司 Pedestrian re-identification method and device
CN112164232A (en) * 2020-10-16 2021-01-01 腾讯科技(深圳)有限公司 Control method and device of non-maneuvering object, electronic equipment and storage medium
CN112164232B (en) * 2020-10-16 2023-12-26 腾讯科技(深圳)有限公司 Control method and device for non-motorized object, electronic equipment and storage medium
JP2023030765A (en) * 2021-08-24 2023-03-08 七海 松田 Measurement method

Also Published As

Publication number Publication date
JP3779229B2 (en) 2006-05-24

Similar Documents

Publication Publication Date Title
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
US20050100192A1 (en) Moving object detection using low illumination depth capable computer vision
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
WO2014002534A1 (en) Object recognition device
JP2002074368A (en) Moving object recognizing and tracking device
JP2570378B2 (en) Vehicle sign recognition device
JPH11175880A (en) Vehicle height measuring device and vehicle monitoring system using same
JPH1186185A (en) Vehicle-type discriminating device
JP3606223B2 (en) Vehicle side image generation method and vehicle side image generation device
JP2003296710A (en) Identification method, identification device and traffic control system
KR20120098292A (en) Method for detecting traffic lane
JP3999088B2 (en) Obstacle detection device
JP2002197588A (en) Method for discriminating tire type of traveling vehicle and method and device for discriminating vehicle model
JPH07249128A (en) Picture processor for vehicle
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP2008077154A (en) Vehicle periphery supervision unit
JP2006134339A (en) Identification method, identification device and traffic control system
JP5642785B2 (en) Vehicle periphery monitoring device
JP2014006820A (en) Vehicle periphery monitoring device
JP2001126192A (en) Method for judging parked or vacancy state in parking space of parking lot
JPH0520593A (en) Travelling lane recognizing device and precedence automobile recognizing device
JPH1131296A (en) Parking lot managing method/device
JPH09128548A (en) Vehicle detecting method
US20230230344A1 (en) Signal color determination device and signal color determination method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060301

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090310

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7