JP4287647B2 - Environmental status monitoring device - Google Patents

Environmental status monitoring device Download PDF

Info

Publication number
JP4287647B2
JP4287647B2 JP2002380109A JP2002380109A JP4287647B2 JP 4287647 B2 JP4287647 B2 JP 4287647B2 JP 2002380109 A JP2002380109 A JP 2002380109A JP 2002380109 A JP2002380109 A JP 2002380109A JP 4287647 B2 JP4287647 B2 JP 4287647B2
Authority
JP
Japan
Prior art keywords
image
monitoring
laser radar
camera
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002380109A
Other languages
Japanese (ja)
Other versions
JP2004212129A (en
Inventor
宏一郎 永田
清英 関本
実 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2002380109A priority Critical patent/JP4287647B2/en
Priority to CN2008101492633A priority patent/CN101393013B/en
Priority to PCT/JP2003/012412 priority patent/WO2004029546A1/en
Priority to CNB038032759A priority patent/CN1306243C/en
Publication of JP2004212129A publication Critical patent/JP2004212129A/en
Application granted granted Critical
Publication of JP4287647B2 publication Critical patent/JP4287647B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、所定の監視領域における移動物体や監視領域の状況変化を把握するに好適な環境状況把握装置に関する。
【0002】
【関連する背景技術】
所定の監視領域における侵入物を監視する場合、或いはその状況を把握する場合、従来一般的には監視カメラが用いられる。しかしながら監視カメラを用いて得られるカメラ画像は、一般に天候(気象)の影響を受け易く、また夜間における監視が困難である。
【0003】
一方、最近ではレーザレーダを用いて所定の監視領域における侵入物等を監視することが提唱されている(例えば特許文献1,2を参照)。このレーザレーダを用いた監視システムによれば、天候(気象)等の影響を受けることなく物体検出を行い得る。
【0004】
【特許文献1】
特開平11−227608号公報
【特許文献2】
特開平11−352245号公報
【0005】
【発明が解決しようとする課題】
しかしながら上述したレーザレーダを用いた監視システムにおいては、監視領域に侵入した移動物体等の空間座標(監視点からの距離と方位)を精度良く検出し得るものの、一般にその物体が何であるかを把握することが困難である。この点、前述した監視カメラによる画像であれば、カメラ画像そのものが人間の視覚感性に即したものであるので、その画像情報から個々の物体が何であるかを容易に判別することができる。しかしカメラ画像からは、例えばステレオ視カメラ等を用いない限り検出対象物までの距離情報を得ることはできない。
【0006】
本発明はこのような事情を考慮してなされたもので、その目的は、所定の監視領域内における移動物体等に関する情報を、その空間位置情報と共に容易に得ることのできる環境状況把握装置を提供することにある。
【0007】
【課題を解決するための手段】
上述した目的を達成するべく本発明の請求項1に係る環境状況把握装置は、所定の監視領域を走査するレーザレーダと、このレーザレーダにより検出される距離情報を可視化したレーダ画像を作成するレーダ画像作成手段と、前記レーザレーダの設置位置と同一と看做し得る位置に設けられて該レーザレーダの監視領域を撮像する監視カメラとを備え、
特に前記レーダ画像から前記監視領域において不変的な物体の面を検出する平面認識手段と、前記監視カメラにより撮像されたカメラ画像と前記レーダ画像との間において相互に対応付けられた複数の特徴点の位置座標に基づいて、前記カメラ画像の座標系と前記レーダ画像の座標系とを重ね合わせる画像マッチング手段と、この画像マッチング結果に基づいて前記平面認識手段にて認識された平面を、その輪郭線またはポリゴン線図として前記カメラ画像上に重ねて表示する画像表示手段と、前記レーザレーダ画像から前記監視領域における移動物体を認識する移動物体認識手段と、この移動物体認識手段にて認識した移動物体を特定する補助情報を前記カメラ画像上に重ねて表示する補助情報表示手段とを備えたことを特徴としている。
【0008】
好ましくは前記レーダ画像作成手段は、検出された距離情報を濃淡変換または色調変換して3次元情報を可視化したレーダ画像を作成するように構成される。また前記画像マッチング手段は、前記カメラ画像およびレーダ画像間において相互に対応付けられた複数の特徴点の位置座標に基づいて前記カメラ画像の座標系と前記レーダ画像の座標系とを重ね合わせるように構成される。
【0009】
このように構成された環境状況把握装置によれば、カメラ画像とレーダ画像とを相互に対応付けることができるので、例えばカメラ画像から監視対象領域における個々の物体を容易に判別しながら、その物体の空間座標(監視点からの距離と方位)をレーダ画像から容易に、しかも精度良く求めることが可能となる。また逆に天候等の影響を受けてカメラ画像が不鮮明である場合でも、レーダ画像によってその不鮮明さを補うことが可能となるので、監視対象領域の的確な状況把握を行うことが可能となる。
【0010】
好ましくは前記カメラ画像上に重ねて表示する移動物体を特定する補助情報として、認識した移動物体を囲むマーカを用いるようにすれば良い。
【0011】
このように構成された環境状況把握装置によれば、レーザレーダ画像から物体の面および/または移動物体を特定する補助情報、例えば輪郭線や識別マークをカメラ画像上に重ねて表示することで、監視対象領域における不変的な固定構造物を明確に明示したり、上記監視対象領域における注目すべき物体をその他の物体と容易に識別表示することが可能となる。この結果、天候等に左右されることなく監視対象領域における種々の状況を的確に把握することが可能となる。
【0012】
【発明の実施の形態】
以下、図面を参照して本発明の一実施形態に係る環境状況把握装置について説明する。
図1はこの実施形態に係る環境状況把握装置の概略構成を示すものであって、10は所定の監視対象領域を走査するレーザレーダ、また20は上記レーザレーダ10の近傍に設けられて上記監視対象領域を撮像する監視カメラ(例えばTVカメラ)である。これらのレーザレーダ10と監視カメラ20は、1つの筐体30に一体に収容されてセンサユニットを構成し、建屋の壁面や電柱等の所定高さの監視点に設置されてその監視対象領域である地表面を俯瞰するように設けられる。即ち、レーザレーダ10と監視カメラ20は、実質的に同一と看做し得る監視点から、同じ監視対象領域をそれぞれ視野するように設けられている。
【0013】
ちなみにレーザレーダ10は、例えば多面体ミラー11を一定速度で回転駆動する主走査モータ12と、この主走査モータ12に対してその回転軸を直交させて設けられて上記多面体ミラー11の回転軸を所定の角度範囲内で傾動させることで該多面体ミラー11の回転面を所定速度で揺動させる副走査モータ13とを備える。そしてレーザ光源14から発せられたレーザパルス光をハーフミラー15を介して前記多面体ミラー11に照射することで、上記レーザパルス光を該多面体ミラー11の回転と傾きとに応じて所定の監視領域に照射し、またレーザパルス光の監視領域からの反射光を前記多面体ミラー11から集光レンズ16を介して受光器17により受光検知するように構成される。
【0014】
即ち、このレーザレーダ10は、多面体ミラー11の回転とその揺動とによってレーザパルス光の照射方向を主走査方向(x方向)に高速に走査しながら、その走査面を副走査方向(y方向)に走査し、これによって図2に例示するように所定の監視対象領域の全域を走査している。そして監視対象領域に存在する種々の物体による反射光を上記レーザパルス光の照射に同期して受光し、その受光タイミング(レーザパルス光の照射タイミングからその反射光の受光タイミングまでの経過時間)から物体(反射点)までの距離情報を求めるように構成されている。
【0015】
このようなレーザレーダ10を用いて検出される距離情報を可視化したレーダ画像を作成するレーダ画像作成手段40は、例えばパーソナルコンピュータからなる監視装置本体50が備える機能の一部として実現される。具体的にはこのレーダ画像作成手段40は、例えば図3に示すように前記レーザ光源14を駆動するレーザパルス走査回路41からの同期信号を受けて前記レーザパルス光の物体による反射光の受光タイミングを計測する反射光検出部42と、この計測時間を距離情報に変換する距離情報変換部43、およびこの距離情報を濃淡情報に変換する濃淡変換部44とを備える。尚、前記計測時間を直接的に濃淡情報に変換することも勿論可能である。またこの実施形態においては距離情報を、例えば遠距離ほど濃度が濃くなる濃淡情報に変換する例について示すが、距離に応じて色が段階的に変化する色調変換を施すようにしても良い。
【0016】
レーザレーダ画像は、上述したようにして求められる濃淡情報(距離情報)を前記レーザパルス走査回路41から求められる主走査角度および副走査角度の情報に従って所定の画像メモリ45上に順次マッピングしていくことにより作成される。即ち、レーザパルス光の走査方向を示す主走査角度および副走査角度によって特定される座標(画像メモリ45のアドレス)に、そのときに求められた濃淡情報(距離情報)を書き込むことで、画像メモリ45上にレーザパルス光の反射点を前述した監視対象領域において3次元的に特定するレーザレーダ画像を作成するものとなっている。
【0017】
さてこの発明に係る環境状況把握装置が特徴とするところは、上述した如くして求められる監視対象領域のレーザレーダ画像Aの座標と、前述した監視カメラ20を用いて撮像された上記監視対象領域のカメラ画像Bの座標とを相互に対応付ける画像マッチング手段60を備えている点にある。この画像マッチング手段60も前述した監視装置本体50が備える機能の一部として実現される。そしてこの画像マッチング手段60は、レーザレーダ10と監視カメラ20とを一体に備えたセンサユニット30を、前述した電柱等に所定の監視対象領域を視野するように設置したとき、その初期設定処理として起動される。
【0018】
具体的には画像マッチング手段60は、前記監視装置本体50に設けられモニタ(ディスプレイ)70にレーザレーダ画像Aおよびカメラ画像Bをそれぞれ表示し、これらの各画像A,Bにおける前記監視対象領域での互いに対応する代表的な特徴点が複数点に亘ってそれぞれ指定されたとき、これらの指定された特徴点の位置座標に従って前記レーザレーダ画像Aの座標系とカメラ画像Bの座標系とを互いに対応付ける処理を実行する。
【0019】
即ち、図4にその処理概念を示すようにレーザレーダ画像Aにおいて明確に識別可能な複数の物体の位置を示す座標をその代表的な特徴点a1,a2,a3,…として指定し、またカメラ画像Bにおける上記各物体の位置を示す座標を上記各特徴点a1,a2,a3,…にそれぞれ対応する特徴点b1,b2,b3,…として指定する。これらの特徴点a1,a2,a3,…(b1,b2,b3,…)については、例えばオペレータの経験や画像認知感覚に基づいて、各画像A,Bにおいて明らかに同一と認められる物体や着目点を、監視点から近距離にあるものおよび監視点から遠距離にあるものとして選択的に指定するようにすれば良い。そしてこれらの指定された特徴点a1,a2,a3,…(b1,b2,b3,…)の各座標が互いに重なり合うように一方の画像(レーザレーダ画像Aまたはカメラ画像B)の座標系を変換し、これによってレーザレーダ画像Aとカメラ画像Bとを互いに重ね合わせるようにすれば良い。
【0020】
より具体的には図5にその処理手順を示すように、先ずレーザレーダ画像Aにおいて垂直となる対象物の座標、具体的にはレーザレーダ画像Aにおける水平方向ドット位置と垂直方向ドット位置とを4箇所に亘ってそれぞれ指定する〈ステップS1〉。次にカメラ画像Bにおいて、上記レーザレーダ画像Aと同じ対象物の同一部位を示す4箇所の座標(水平方向ドット位置と垂直方向ドット位置)をそれぞれ指定する〈ステップS2〉。そしてこれらの指定された複数の座標から各画像A,Bのゲイン(空間傾き比較値)をそれぞれ求める〈ステップS3〉。
【0021】
次いでレーザレーダ画像Aにおける対象物の特定部位の座標と、カメラ画像Bにおける同じ対象物の同じ部位の座標とが一致するように、上記座標間のずれを示す水平方向ドット差および垂直方向ドット差とにより示されるオフセットを入力する〈ステップS4〉。そして前記ゲインとオフセットとに基づき、例えば
[レーザレーダ画面座標]=[カメラ画面座標]/[ゲイン]−[オフセット]
として、レーザレーダ画像Aの座標系をカメラ画像Bの座標系に合わせる〈ステップS5〉。
【0022】
かくしてこのようにしてレーザレーダ画像Aの座標系とカメラ画像Bの座標系とをマッチングさせれば、その後の監視動作時には一般的には撮像対象領域の状況を把握することが容易なカメラ画像Bの各部に上記レーザレーダ画像Aによって示される距離情報をそれぞれ付与することが可能となる。そしてカメラ画像Bにおいては一見したところ識別が困難な、例えばその一部が重なり合っている似たような色調の複数の物体であっても、或いは気象条件の影響を受けて複数の物体間の区切りを識別することが困難な場合であっても、上記レーザレーダ画像Aから求められる距離情報に従って個々の物体をそれぞれ明確に識別することが可能となる。従ってレーザレーダ画像Aおよびカメラ画像Bがそれぞれ有する欠点を互いに補いながら、またレーザレーダ画像Aおよびカメラ画像Bがそれぞれ有する利点をそれぞれ活かしながら所定の監視対象領域における移動物体等の状況を容易に、しかも的確に把握することが可能となる。
【0023】
ところでこの発明に係る環境状況把握装置は、上述した画像マッチング処理手段60に加えて、更に前記レーザレーダ画像Aから前記監視対象領域における固定物体の面や移動物体を認識する物体認識手段80を備えている。具体的にはこの物体認識手段80は、図5に示すように監視対象領域における固定物のまとまりの情報からその固定物を構成する面を認識する平面認識処理部81と、前記監視対象領域において一走査毎に検出座標が変化する情報から移動物体を認識する移動物体検出処理部82とからなる。
【0024】
即ち、平面認識処理部81は、例えばレーザレーダ画像Aにおいて連続的に連なる空間座標の並びの方向を調べることにより、前記監視対象領域において不変的な道路面や建物等の固定構造物の面を認識する機能を備えている。この平面認識処理部81にて認識された結果は、例えばその面を特定する輪郭線やポリゴン線図等の補助情報としてレーザレーダ画像Aまたはカメラ画像B上に重ねて表示される。また移動物体検出処理部82は、上述したようにレーザレーダの一走査毎に検出座標が順次変化する物体の情報からその物体が人や車等の移動体であると認識するもので、例えばその移動物体を囲む四角形状のマーカー等を補助情報として前記レーザレーダ画像Aまたはカメラ画像B上に重ねて表示する機能を備える。このような補助情報については、オペレータの指示の下で選択的に表示したり、注目すべき移動物体に対してのみ表示するようにしても良い。
【0025】
かくしてこのような物体認識手段80と前述した画像マッチング手段60とを備えて構成される環境状況把握装置によれば、画像マッチング処理した監視画像をモニタ70に表示して所定の監視対象領域の状況を監視するに際して、例えば図6(a)〜(d)にその代表的な表示例を示すように監視対象領域の環境(状況)に応じて、その状況把握に必要な情報を適切に表示しながら監視に供することができる。
【0026】
即ち、監視画像が前述した如くカメラ画像Bの座標とレーザレーダ画像Aの座標とを対応付けたものであるから、例えば図6(a)に示すようにマウス等の座標入力デバイスを用いてポインタPを移動させ、監視画像上の着目点を指定するだけで当該指定部位の空間位置座標、具体的には監視点からの距離を表示することが可能となる。また移動物が検出された場合には、例えば図6(b)に示すように認識した移動物を囲むようなマーカー(補助情報)Mを監視画像に重ねて表示することで、注目すべき移動物を明確に識別表示することが可能となる。
【0027】
更には或る物体の大きさや形状を認識したいような場合には、例えば図6(c)に示すように、注目する物体の隅部等を示す複数の点を指定すれば、前述した平面認識処理によって当該物体の主要な面の大きさと形状とをそれぞれ把握することが可能となるので、この認識結果から物体の立体的な大きさを容易に推定し、その存在位置を容易に求めることが可能となる。
【0028】
また前述した平面認識処理によって求められた物体の平面をそれぞれ特定するポリゴン線図(補助情報)を、例えば図6(d)に示すように監視画像に重ねて表示すれば、仮に時間帯や天候条件の影響を受けてカメラ画像Bを鮮明に得ることができないような場合であっても、上記ポリゴン線図(補助情報)から監視対象領域の概要を把握することが可能となる。この結果、監視時間帯や天候条件等に左右されることなく監視対象領域の状況を容易に、しかも的確に把握することが可能となる。
【0029】
尚、本発明は上述した実施形態に限定されるものではない。ここでは屋外における所定の監視対象領域の状況を把握する例について示したが、例えば図6(a)に示す監視画像を用いること、各部の測距機能を備えたカメラを実現することができ、船舶監視カメラやロボットアイ、距離計測器等に適用することができる。また図6(b)を示す監視画像を用いることで、屋外等の広範囲な領域に亘る監視システムを構築し、移動物体の検知をトリガとして警報を発したり、その監視画像を記録する等の対策を講じることが可能となる。更には交差点等における交通量把握システムや横断歩行者の把握システム等に応用したり、移動体の追尾システム等に応用することが可能となる。
【0030】
また図6(c)に示す画像を用いることにより、コンテナクレーンの位置決めやベルトコンベア上を流れる各種荷物の大きさ判定処理等に応用することが可能となる。更には図6(d)に示す画像を用いることで、各種物体の凹凸判定や地形測量等を行うことが可能となる。その他、本発明はその要旨を逸脱しない範囲で種々変形して実施することができ、各種の物体認識分野に応用することが可能である。
【0031】
【発明の効果】
以上説明したように本発明によれば、レーザレーダから求められるレーダ画像の座標と、前記レーザレーダの近傍に設けられた監視カメラにより撮像されるカメラ画像の座標とを対応付けて所定の監視対象領域の監視処理に供するので、気象条件や監視時間帯の影響を受けることなく、常に安定に上記監視対象領域の状況を容易に監視することができる。しかも注目点までの距離情報を得ながら、その状況を的確に監視することができる。
【0032】
更にはレーザレーダ画像から認識される物体の面に関する情報や移動物体の情報を補助情報として監視画像上に重ねて表示するので、その状況把握をより適切なものとすることができる等、実用上多大なる効果が奏せられる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る環境状況把握装置の概略構成図。
【図2】レーザレーダによる監視対象領域の走査形態を示す図。
【図3】レーザレーダ画像の概略的な作成処理手段を示すブロック図。
【図4】レーザレーダ画像Aとカメラ画像Bとのマッチング処理の概念を示す図。
【図5】画像マッチング処理の具体的な処理手順の一例を示す図。
【図6】図1に示す環境状況把握装置における監視画像の代表的な表示例を示す図。
【符号の説明】
10 レーザレーダ
20 監視カメラ
40 レーザレーダ画像作成手段
50 監視装置本体
60 画像マッチング手段
70 モニタ(ディスプレイ)
80 物体認識手段
81 平面認識処理部
82 移動物体検出処理部
A レーザレーダ画像
B カメラ画像
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an environment situation grasping apparatus suitable for grasping a moving object in a predetermined monitoring area and a situation change of the monitoring area.
[0002]
[Related background]
When monitoring an intruder in a predetermined monitoring area or grasping the situation, a monitoring camera is generally used conventionally. However, a camera image obtained using a surveillance camera is generally easily affected by the weather (meteorology) and is difficult to monitor at night.
[0003]
On the other hand, recently, it has been proposed to monitor an intruder or the like in a predetermined monitoring area using a laser radar (see, for example, Patent Documents 1 and 2). According to the monitoring system using this laser radar, object detection can be performed without being affected by the weather (meteorology) or the like.
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 11-227608 [Patent Document 2]
Japanese Patent Laid-Open No. 11-352245
[Problems to be solved by the invention]
However, although the above-described monitoring system using a laser radar can accurately detect the spatial coordinates (distance and azimuth from the monitoring point) of a moving object or the like that has entered the monitoring area, it generally knows what the object is. Difficult to do. In this regard, in the case of an image obtained by the monitoring camera described above, the camera image itself is in accordance with human visual sensibility, and therefore it is possible to easily determine what each object is from the image information. However, distance information to the detection target cannot be obtained from the camera image unless a stereo camera or the like is used, for example.
[0006]
The present invention has been made in consideration of such circumstances, and an object thereof is to provide an environmental condition grasping device that can easily obtain information on a moving object or the like in a predetermined monitoring area together with its spatial position information. There is to do.
[0007]
[Means for Solving the Problems]
In order to achieve the above-described object, an environmental condition grasping apparatus according to claim 1 of the present invention includes a laser radar that scans a predetermined monitoring area and a radar that creates a radar image that visualizes distance information detected by the laser radar. An image creating means, and a monitoring camera provided at a position that can be regarded as the same as the installation position of the laser radar and imaging a monitoring area of the laser radar;
In particular, plane recognition means for detecting a surface of an invariant object in the monitoring area from the radar image, and a plurality of feature points associated with each other between the camera image captured by the monitoring camera and the radar image Image matching means for superimposing the coordinate system of the camera image and the coordinate system of the radar image based on the position coordinates of the image, and a plane recognized by the plane recognition means on the basis of the image matching result. An image display means for displaying a line or polygon diagram on the camera image, a moving object recognition means for recognizing a moving object in the monitoring area from the laser radar image, and a movement recognized by the moving object recognition means Auxiliary information display means for superimposing and displaying auxiliary information for specifying an object on the camera image is provided.
[0008]
Preferably, the radar image creating means is configured to create a radar image obtained by visualizing three-dimensional information by performing grayscale conversion or color conversion on the detected distance information. Further, the image matching means superimposes the coordinate system of the camera image and the coordinate system of the radar image based on the position coordinates of a plurality of feature points mutually associated between the camera image and the radar image. Composed.
[0009]
According to the environmental situation grasping device configured as described above, since the camera image and the radar image can be associated with each other, for example, while easily identifying each object in the monitoring target region from the camera image, Spatial coordinates (distance and direction from the monitoring point) can be easily and accurately obtained from the radar image. Conversely, even when the camera image is unclear due to the influence of the weather or the like, the unclearness can be compensated for by the radar image, so that it is possible to accurately grasp the monitoring target area.
[0010]
Preferably , a marker surrounding the recognized moving object may be used as auxiliary information for specifying the moving object to be displayed superimposed on the camera image .
[0011]
According to the environmental situation grasping device configured as described above, by displaying the auxiliary information for identifying the object surface and / or the moving object from the laser radar image, for example, the contour line and the identification mark, superimposed on the camera image, It is possible to clearly specify an invariant fixed structure in the monitoring target area, and to easily identify and display an object of interest in the monitoring target area from other objects. As a result, it is possible to accurately grasp various situations in the monitoring target area without being influenced by the weather or the like.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an environment situation grasping device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a schematic configuration of an environmental condition grasping apparatus according to this embodiment, in which 10 is a laser radar that scans a predetermined monitoring target area, and 20 is provided in the vicinity of the laser radar 10 to monitor the monitoring. It is a surveillance camera (for example, a TV camera) that images a target area. The laser radar 10 and the monitoring camera 20 are housed integrally in a single casing 30 to form a sensor unit, and are installed at a monitoring point of a predetermined height such as a wall surface of a building or a utility pole. It is provided so as to overlook a certain ground surface. That is, the laser radar 10 and the monitoring camera 20 are provided so as to respectively view the same monitoring target area from monitoring points that can be regarded as substantially the same.
[0013]
Incidentally, the laser radar 10 is provided, for example, with a main scanning motor 12 that rotates the polyhedral mirror 11 at a constant speed, and a rotation axis of the polyhedral mirror 11 that is provided so as to be orthogonal to the main scanning motor 12. And a sub-scanning motor 13 that swings the rotating surface of the polyhedral mirror 11 at a predetermined speed by being tilted within the angle range. By irradiating the polyhedral mirror 11 with laser pulse light emitted from the laser light source 14 via the half mirror 15, the laser pulse light is applied to a predetermined monitoring region according to the rotation and tilt of the polyhedral mirror 11. The reflected light from the monitoring region of the laser pulse light is received and detected by the light receiver 17 from the polyhedral mirror 11 through the condenser lens 16.
[0014]
That is, the laser radar 10 scans the scanning surface in the sub-scanning direction (y direction) while scanning the irradiation direction of the laser pulse light at high speed in the main scanning direction (x direction) by rotating and swinging the polyhedral mirror 11. ), Thereby scanning the entire area of the predetermined monitoring target area as illustrated in FIG. Then, the reflected light from various objects existing in the monitoring target area is received in synchronization with the irradiation of the laser pulse light, and from the light reception timing (the elapsed time from the laser pulse light irradiation timing to the reflected light reception timing). The distance information to the object (reflection point) is obtained.
[0015]
The radar image creating means 40 for creating a radar image in which distance information detected using such a laser radar 10 is visualized is realized as a part of the function of the monitoring apparatus main body 50 composed of a personal computer, for example. Specifically, the radar image creating means 40 receives the synchronization signal from the laser pulse scanning circuit 41 that drives the laser light source 14 as shown in FIG. 3, for example, and receives the reflected light by the object of the laser pulse light. The reflected light detection unit 42 that measures the distance, the distance information conversion unit 43 that converts the measurement time into distance information, and the gray level conversion unit 44 that converts the distance information into gray level information. Of course, it is possible to directly convert the measurement time into grayscale information. In this embodiment, an example is shown in which distance information is converted into light and dark information whose density increases with distance, for example, but tone conversion in which the color changes stepwise according to the distance may be performed.
[0016]
In the laser radar image, the grayscale information (distance information) obtained as described above is sequentially mapped onto a predetermined image memory 45 in accordance with the main scanning angle and subscanning angle information obtained from the laser pulse scanning circuit 41. It is created by. That is, the density information (distance information) obtained at that time is written in the coordinates (address of the image memory 45) specified by the main scanning angle and the sub-scanning angle indicating the scanning direction of the laser pulse light. A laser radar image that three-dimensionally identifies the reflection point of the laser pulse light on the above-described monitoring target region on 45 is created.
[0017]
The environmental condition grasping device according to the present invention is characterized by the coordinates of the laser radar image A of the monitoring target area obtained as described above and the monitoring target area imaged using the monitoring camera 20 described above. The image matching means 60 is provided for associating the coordinates of the camera image B with each other. This image matching means 60 is also realized as a part of the function of the monitoring apparatus main body 50 described above. The image matching means 60 is an initial setting process when the sensor unit 30 including the laser radar 10 and the monitoring camera 20 is installed so as to view a predetermined monitoring target area on the above-described power pole or the like. It is activated.
[0018]
Specifically, the image matching unit 60 displays the laser radar image A and the camera image B on the monitor (display) 70 provided in the monitoring apparatus main body 50, and in the monitoring target area in each of these images A and B. When the representative feature points corresponding to each other are designated over a plurality of points, the coordinate system of the laser radar image A and the coordinate system of the camera image B are mutually set according to the position coordinates of the designated feature points. Execute the association process.
[0019]
That is, as shown in FIG. 4, the coordinates indicating the positions of a plurality of objects that can be clearly identified in the laser radar image A are designated as the representative feature points a1, a2, a3,. Coordinates indicating the positions of the objects in the image B are designated as feature points b1, b2, b3,... Corresponding to the feature points a1, a2, a3,. For these feature points a1, a2, a3,... (B1, b2, b3,...), For example, based on the experience of the operator and the image recognition sensation, The points may be selectively designated as being at a short distance from the monitoring point and as being at a long distance from the monitoring point. Then, the coordinate system of one image (laser radar image A or camera image B) is transformed so that the coordinates of these designated feature points a1, a2, a3,... (B1, b2, b3,...) Overlap each other. Thus, the laser radar image A and the camera image B may be superimposed on each other.
[0020]
More specifically, as shown in FIG. 5, first, the coordinates of an object that is vertical in the laser radar image A, specifically, the horizontal dot position and the vertical dot position in the laser radar image A are obtained. Each of the four locations is designated <Step S1>. Next, in the camera image B, four coordinates (horizontal dot position and vertical dot position) indicating the same part of the same object as the laser radar image A are designated <step S2>. Then, the gain (spatial slope comparison value) of each of the images A and B is obtained from the plurality of designated coordinates (step S3).
[0021]
Next, the horizontal dot difference and the vertical dot difference indicating the deviation between the coordinates so that the coordinates of the specific part of the object in the laser radar image A coincide with the coordinates of the same part of the same object in the camera image B. The offset indicated by is input <step S4>. And based on the gain and offset, for example
[Laser radar screen coordinates] = [Camera screen coordinates] / [Gain]-[Offset]
Then, the coordinate system of the laser radar image A is matched with the coordinate system of the camera image B <Step S5>.
[0022]
Thus, if the coordinate system of the laser radar image A and the coordinate system of the camera image B are matched in this way, the camera image B that can generally easily grasp the state of the imaging target region during the subsequent monitoring operation. It is possible to assign distance information indicated by the laser radar image A to each of the components. In the camera image B, it is difficult to identify at a glance, for example, even if there are a plurality of similar-colored objects that overlap with each other, or due to the influence of weather conditions, Even when it is difficult to identify each object, it is possible to clearly identify each object according to the distance information obtained from the laser radar image A. Therefore, while making up for the disadvantages of the laser radar image A and the camera image B, and taking advantage of the advantages of the laser radar image A and the camera image B, respectively, the situation of moving objects and the like in a predetermined monitoring target area can be easily achieved. Moreover, it becomes possible to accurately grasp.
[0023]
By the way, in addition to the image matching processing means 60 described above, the environmental condition grasping apparatus according to the present invention further includes an object recognition means 80 for recognizing a surface of a fixed object or a moving object in the monitoring target area from the laser radar image A. ing. Specifically, as shown in FIG. 5, the object recognition unit 80 includes a plane recognition processing unit 81 that recognizes a surface constituting a fixed object from information on a group of fixed objects in the monitoring target area, and the monitoring target area. The moving object detection processing unit 82 recognizes a moving object from information whose detection coordinates change for each scan.
[0024]
In other words, the plane recognition processing unit 81 examines the direction of the arrangement of spatial coordinates that are continuously connected in the laser radar image A, for example, so that the surface of a fixed structure such as a road surface or a building that is invariable in the monitoring target area. It has a recognition function. The result recognized by the plane recognition processing unit 81 is displayed on the laser radar image A or the camera image B as auxiliary information such as a contour line or a polygon diagram specifying the surface, for example. Further, as described above, the moving object detection processing unit 82 recognizes that the object is a moving object such as a person or a car from the information of the object whose detection coordinates sequentially change for each scan of the laser radar. A function of displaying a rectangular marker or the like surrounding a moving object as auxiliary information on the laser radar image A or the camera image B is provided. Such auxiliary information may be selectively displayed under an operator's instruction or may be displayed only for a moving object to be noticed.
[0025]
Thus, according to the environmental situation grasping device configured to include such an object recognition unit 80 and the above-described image matching unit 60, the monitor image subjected to the image matching process is displayed on the monitor 70, and the status of a predetermined monitoring target region is displayed. For example, as shown in FIGS. 6A to 6D, representative display examples appropriately display information necessary for grasping the situation according to the environment (situation) of the monitoring target area. It can be used for monitoring.
[0026]
That is, since the monitoring image is obtained by associating the coordinates of the camera image B and the coordinates of the laser radar image A as described above, for example, as shown in FIG. 6A, the pointer is used by using a coordinate input device such as a mouse. It is possible to display the spatial position coordinates of the designated part, specifically, the distance from the monitoring point, only by moving P and specifying the point of interest on the monitoring image. When a moving object is detected, for example, as shown in FIG. 6B, a marker (auxiliary information) M surrounding the recognized moving object is displayed on the monitoring image so as to be noticed. Objects can be clearly identified and displayed.
[0027]
Furthermore, when it is desired to recognize the size and shape of a certain object, for example, as shown in FIG. 6C, the plane recognition described above can be performed by specifying a plurality of points indicating the corners of the object of interest. Since it is possible to grasp the size and shape of the main surface of the object by processing, it is possible to easily estimate the three-dimensional size of the object from this recognition result and easily find its existence position. It becomes possible.
[0028]
Further, if a polygon diagram (auxiliary information) for specifying each plane of the object obtained by the above-described plane recognition processing is displayed superimposed on the monitoring image as shown in FIG. Even when the camera image B cannot be clearly obtained due to the influence of the conditions, it is possible to grasp the outline of the monitoring target area from the polygon diagram (auxiliary information). As a result, it is possible to easily and accurately grasp the status of the monitoring target area without being influenced by the monitoring time zone, weather conditions, or the like.
[0029]
The present invention is not limited to the embodiment described above. Here, an example of grasping the situation of a predetermined monitoring target area outdoors has been shown, but for example, by using the monitoring image shown in FIG. 6A, a camera having a ranging function of each part can be realized, It can be applied to a ship monitoring camera, a robot eye, a distance measuring device, and the like. In addition, by using the monitoring image shown in FIG. 6 (b), a monitoring system covering a wide range of areas such as outdoors is constructed, and an alarm is triggered by detection of a moving object, and the monitoring image is recorded. Can be taken. Furthermore, it can be applied to a traffic volume grasping system at an intersection or the like, a crossing pedestrian grasping system, or a tracking system for a moving body.
[0030]
Further, by using the image shown in FIG. 6C, it is possible to apply to positioning of a container crane, size determination processing of various loads flowing on a belt conveyor, and the like. Furthermore, by using the image shown in FIG. 6 (d), it is possible to perform unevenness determination and topographic surveying of various objects. In addition, the present invention can be variously modified and implemented without departing from the scope of the invention, and can be applied to various object recognition fields.
[0031]
【The invention's effect】
As described above, according to the present invention, the coordinates of the radar image obtained from the laser radar and the coordinates of the camera image captured by the monitoring camera provided in the vicinity of the laser radar are associated with each other and the predetermined monitoring target. Since it is used for the area monitoring process, it is possible to easily and stably monitor the situation of the monitoring target area without being affected by the weather conditions and the monitoring time zone. In addition, the situation can be accurately monitored while obtaining the distance information to the attention point.
[0032]
Furthermore, since information on the object surface recognized from the laser radar image and information on the moving object are displayed as auxiliary information superimposed on the monitoring image, the situation can be grasped more appropriately. A great effect is produced.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of an environmental situation grasping apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a scanning form of a monitoring target area by a laser radar.
FIG. 3 is a block diagram showing a schematic creation processing means for a laser radar image.
FIG. 4 is a diagram showing a concept of matching processing between a laser radar image A and a camera image B.
FIG. 5 is a diagram showing an example of a specific processing procedure of image matching processing.
6 is a diagram showing a typical display example of a monitoring image in the environmental situation grasping apparatus shown in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Laser radar 20 Monitoring camera 40 Laser radar image preparation means 50 Monitoring apparatus main body 60 Image matching means 70 Monitor (display)
80 Object recognition means 81 Plane recognition processing unit 82 Moving object detection processing unit A Laser radar image B Camera image

Claims (2)

所定の監視領域を走査するレーザレーダと、
このレーザレーダにより検出される距離情報を可視化したレーダ画像を作成するレーダ画像作成手段と、
このレーダ画像から前記監視領域において不変的な物体の面を検出する平面認識手段と、
前記レーザレーダの設置位置と同一と看做し得る位置に設けられて該レーザレーダの監視領域を撮像する監視カメラと、
この監視カメラにより撮像されたカメラ画像と前記レーダ画像との間において相互に対応付けられた複数の特徴点の位置座標に基づいて、前記カメラ画像の座標系と前記レーダ画像の座標系とを重ね合わせる画像マッチング手段と、
この画像マッチング結果に基づいて前記平面認識手段にて認識された平面を、その輪郭線またはポリゴン線図として前記カメラ画像上に重ねて表示する画像表示手段と、
前記レーザレーダ画像から前記監視領域における移動物体を認識する移動物体認識手段と、
この移動物体認識手段にて認識した移動物体を特定する補助情報を前記カメラ画像上に重ねて表示する補助情報表示手段と
を具備したことを特徴とする環境状況監視装置。
A laser radar that scans a predetermined monitoring area;
Radar image creating means for creating a radar image in which distance information detected by the laser radar is visualized;
Plane recognition means for detecting a surface of an invariant object in the monitoring area from the radar image;
A monitoring camera that images the monitoring area of the laser radar provided at a position that can be regarded as the same as the installation position of the laser radar;
Based on the position coordinates of a plurality of feature points associated with each other between the camera image captured by the monitoring camera and the radar image, the coordinate system of the camera image and the coordinate system of the radar image are superimposed. an image matching means to match,
The recognized plane in the previous SL plane recognizing means based on the image matching result, image display means for displaying superimposed on the camera image as a contour or polygon diagrams,
Moving object recognition means for recognizing a moving object in the monitoring area from the laser radar image;
An environmental condition monitoring apparatus comprising: auxiliary information display means for displaying auxiliary information for identifying a moving object recognized by the moving object recognition means so as to overlap the camera image.
前記カメラ画像上に重ねて表示する移動物体を特定する補助情報は、認識した移動物体を囲むマーカからなる請求項1に記載の環境状況監視装置。The environmental condition monitoring apparatus according to claim 1, wherein the auxiliary information for specifying a moving object to be displayed superimposed on the camera image includes a marker surrounding the recognized moving object.
JP2002380109A 2002-09-30 2002-12-27 Environmental status monitoring device Expired - Lifetime JP4287647B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002380109A JP4287647B2 (en) 2002-12-27 2002-12-27 Environmental status monitoring device
CN2008101492633A CN101393013B (en) 2002-09-30 2003-09-29 Device for measuring object
PCT/JP2003/012412 WO2004029546A1 (en) 2002-09-30 2003-09-29 Method of measuring object and system for measuring object
CNB038032759A CN1306243C (en) 2002-09-30 2003-09-29 Method of measuring object and system for measuring object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002380109A JP4287647B2 (en) 2002-12-27 2002-12-27 Environmental status monitoring device

Publications (2)

Publication Number Publication Date
JP2004212129A JP2004212129A (en) 2004-07-29
JP4287647B2 true JP4287647B2 (en) 2009-07-01

Family

ID=32816420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002380109A Expired - Lifetime JP4287647B2 (en) 2002-09-30 2002-12-27 Environmental status monitoring device

Country Status (1)

Country Link
JP (1) JP4287647B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4069926B2 (en) * 2005-01-11 2008-04-02 株式会社Ihi Object detection device
JP4639812B2 (en) 2005-01-19 2011-02-23 株式会社デンソー Scanning device
JP4907911B2 (en) * 2005-07-07 2012-04-04 株式会社東芝 Camera image offset correction display device
JP4726621B2 (en) * 2005-12-13 2011-07-20 アルパイン株式会社 In-vehicle sensor correction device
JP5339493B2 (en) * 2006-02-08 2013-11-13 総務大臣 Radio wave emission source visualization device and method
JP2009186353A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Object detecting device and object detecting method
JP5518321B2 (en) * 2008-11-12 2014-06-11 東日本旅客鉄道株式会社 Laser radar installation position verification apparatus, laser radar installation position verification method, and laser radar installation position verification apparatus program
JP2011122851A (en) * 2009-12-08 2011-06-23 Ihi Corp Method and device for detecting object
KR101036833B1 (en) 2010-03-31 2011-05-25 국방과학연구소 Apparatus and method for estimating an alignment error between a radar sensor and an image sensor in a target tracking system
JP5598100B2 (en) * 2010-06-07 2014-10-01 株式会社Ihi Object detection device
KR101030763B1 (en) * 2010-10-01 2011-04-26 위재영 Image acquisition unit, acquisition method and associated control unit
JP5621822B2 (en) * 2012-09-06 2014-11-12 株式会社デンソーウェーブ Laser radar equipment
JP6355543B2 (en) * 2014-12-09 2018-07-11 株式会社キーエンス Monitoring system
JP6637331B2 (en) * 2016-02-22 2020-01-29 株式会社キーエンス Safety scanner and optical safety system
JP6689095B2 (en) * 2016-02-22 2020-04-28 株式会社キーエンス Optical safety system, setting support device and setting support program for safety scanner
US10989791B2 (en) 2016-12-05 2021-04-27 Trackman A/S Device, system, and method for tracking an object using radar data and imager data
EP3385747B1 (en) 2017-04-05 2021-03-31 Axis AB Method, device and system for mapping position detections to a graphical representation
KR101763165B1 (en) 2017-04-18 2017-08-04 (주)엠제빈 Optical sensor system with guide light
KR101814135B1 (en) * 2017-08-23 2018-01-02 (주)엠제빈 Lidar System
JP6989819B2 (en) * 2017-08-10 2022-01-12 富士通株式会社 Data correction device, data correction method, and data correction program
JP2019117432A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
CN110927708B (en) 2018-08-30 2022-10-11 阿波罗智能技术(北京)有限公司 Calibration method, device and equipment of intelligent road side unit
CN109507689A (en) * 2018-12-25 2019-03-22 肖湘江 Multilasered optical radar data fusion method with barrier memory function
EP4071516A4 (en) * 2019-12-03 2022-12-14 Konica Minolta, Inc. Image processing device, monitoring system, and image processing method
EP3879260A1 (en) 2020-03-10 2021-09-15 NEC Corporation Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program
CN113702995B (en) * 2021-09-01 2022-08-19 国网江苏省电力有限公司扬州供电分公司 Space positioning system for assisting in hanging and placing grounding wire operation
WO2023189691A1 (en) * 2022-03-30 2023-10-05 Nec Corporation Potential object pathway determination method, apparatus and system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE203844T1 (en) * 1992-03-20 2001-08-15 Commw Scient Ind Res Org OBJECT MONITORING SYSTEM
JPH11153664A (en) * 1997-09-30 1999-06-08 Sumitomo Electric Ind Ltd Object detector utilizing repetitively pulsed light
JP2000227963A (en) * 1999-02-08 2000-08-15 Nippon Telegr & Teleph Corp <Ntt> Device and method for preparing image with distance information and recording medium recording program for the method
JP2001280932A (en) * 2000-03-31 2001-10-10 Minolta Co Ltd Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system
JP2002104117A (en) * 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
JP3572252B2 (en) * 2000-11-15 2004-09-29 日本電信電話株式会社 Method and apparatus for aligning photographed image and range data, and recording medium recording program for executing the method
JP4460782B2 (en) * 2001-01-10 2010-05-12 セコム株式会社 Intrusion monitoring device
JP2002340534A (en) * 2001-05-18 2002-11-27 Yaskawa Electric Corp Position-measuring instrument and position-measuring method
JP4348028B2 (en) * 2001-06-12 2009-10-21 株式会社リコー Image processing method, image processing apparatus, imaging apparatus, and computer program

Also Published As

Publication number Publication date
JP2004212129A (en) 2004-07-29

Similar Documents

Publication Publication Date Title
JP4287647B2 (en) Environmental status monitoring device
US7116246B2 (en) Apparatus and method for sensing the occupancy status of parking spaces in a parking lot
CN110084895B (en) Method and equipment for marking point cloud data
US8420998B2 (en) Target detecting and determining method for detecting and determining target based on height information and storage medium for storing program executing target detecting and determining method
JP4691701B2 (en) Number detection device and method
US20080027648A1 (en) Detection-Object-Position-Specifying Device and Method of Specifying Position of Object to Be Detected
JPH06293236A (en) Travel environment monitoring device
KR102151815B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence
WO2004029546A1 (en) Method of measuring object and system for measuring object
KR20020010257A (en) Apparatus and method for recognizing self-position in robort system
JP2019100985A (en) Three-dimensional information acquisition system
US11624833B2 (en) System and method for automatically generating scan locations for performing a scan of an environment
JP2007013709A (en) Setting apparatus
CN114299146A (en) Parking assisting method, device, computer equipment and computer readable storage medium
JP5021913B2 (en) Method and system for searching object at sea and recording medium for executing method for searching object
JP4754283B2 (en) Monitoring system and setting device
US11614528B2 (en) Setting method of monitoring system and monitoring system
JP2002083383A (en) Movable body following spotlight control device and its movable body detection method and control method
Djuricic et al. Supporting UAVs in low visibility conditions by multiple-pulse laser scanning devices
JP3443106B2 (en) Floating object detection / monitoring method and device
JP2004210045A (en) Monitoring device
JP3547946B2 (en) Apron monitoring device
US20220414925A1 (en) Tracking with reference to a world coordinate system
JPH0511052A (en) Vehicle mounted type obstacle detecting apparatus
JP4506299B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070627

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20071012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090327

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4287647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term