JP4287647B2 - Environmental status monitoring device - Google Patents
Environmental status monitoring device Download PDFInfo
- Publication number
- JP4287647B2 JP4287647B2 JP2002380109A JP2002380109A JP4287647B2 JP 4287647 B2 JP4287647 B2 JP 4287647B2 JP 2002380109 A JP2002380109 A JP 2002380109A JP 2002380109 A JP2002380109 A JP 2002380109A JP 4287647 B2 JP4287647 B2 JP 4287647B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- monitoring
- laser radar
- camera
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、所定の監視領域における移動物体や監視領域の状況変化を把握するに好適な環境状況把握装置に関する。
【0002】
【関連する背景技術】
所定の監視領域における侵入物を監視する場合、或いはその状況を把握する場合、従来一般的には監視カメラが用いられる。しかしながら監視カメラを用いて得られるカメラ画像は、一般に天候(気象)の影響を受け易く、また夜間における監視が困難である。
【0003】
一方、最近ではレーザレーダを用いて所定の監視領域における侵入物等を監視することが提唱されている(例えば特許文献1,2を参照)。このレーザレーダを用いた監視システムによれば、天候(気象)等の影響を受けることなく物体検出を行い得る。
【0004】
【特許文献1】
特開平11−227608号公報
【特許文献2】
特開平11−352245号公報
【0005】
【発明が解決しようとする課題】
しかしながら上述したレーザレーダを用いた監視システムにおいては、監視領域に侵入した移動物体等の空間座標(監視点からの距離と方位)を精度良く検出し得るものの、一般にその物体が何であるかを把握することが困難である。この点、前述した監視カメラによる画像であれば、カメラ画像そのものが人間の視覚感性に即したものであるので、その画像情報から個々の物体が何であるかを容易に判別することができる。しかしカメラ画像からは、例えばステレオ視カメラ等を用いない限り検出対象物までの距離情報を得ることはできない。
【0006】
本発明はこのような事情を考慮してなされたもので、その目的は、所定の監視領域内における移動物体等に関する情報を、その空間位置情報と共に容易に得ることのできる環境状況把握装置を提供することにある。
【0007】
【課題を解決するための手段】
上述した目的を達成するべく本発明の請求項1に係る環境状況把握装置は、所定の監視領域を走査するレーザレーダと、このレーザレーダにより検出される距離情報を可視化したレーダ画像を作成するレーダ画像作成手段と、前記レーザレーダの設置位置と同一と看做し得る位置に設けられて該レーザレーダの監視領域を撮像する監視カメラとを備え、
特に前記レーダ画像から前記監視領域において不変的な物体の面を検出する平面認識手段と、前記監視カメラにより撮像されたカメラ画像と前記レーダ画像との間において相互に対応付けられた複数の特徴点の位置座標に基づいて、前記カメラ画像の座標系と前記レーダ画像の座標系とを重ね合わせる画像マッチング手段と、この画像マッチング結果に基づいて前記平面認識手段にて認識された平面を、その輪郭線またはポリゴン線図として前記カメラ画像上に重ねて表示する画像表示手段と、前記レーザレーダ画像から前記監視領域における移動物体を認識する移動物体認識手段と、この移動物体認識手段にて認識した移動物体を特定する補助情報を前記カメラ画像上に重ねて表示する補助情報表示手段とを備えたことを特徴としている。
【0008】
好ましくは前記レーダ画像作成手段は、検出された距離情報を濃淡変換または色調変換して3次元情報を可視化したレーダ画像を作成するように構成される。また前記画像マッチング手段は、前記カメラ画像およびレーダ画像間において相互に対応付けられた複数の特徴点の位置座標に基づいて前記カメラ画像の座標系と前記レーダ画像の座標系とを重ね合わせるように構成される。
【0009】
このように構成された環境状況把握装置によれば、カメラ画像とレーダ画像とを相互に対応付けることができるので、例えばカメラ画像から監視対象領域における個々の物体を容易に判別しながら、その物体の空間座標(監視点からの距離と方位)をレーダ画像から容易に、しかも精度良く求めることが可能となる。また逆に天候等の影響を受けてカメラ画像が不鮮明である場合でも、レーダ画像によってその不鮮明さを補うことが可能となるので、監視対象領域の的確な状況把握を行うことが可能となる。
【0010】
好ましくは前記カメラ画像上に重ねて表示する移動物体を特定する補助情報として、認識した移動物体を囲むマーカを用いるようにすれば良い。
【0011】
このように構成された環境状況把握装置によれば、レーザレーダ画像から物体の面および/または移動物体を特定する補助情報、例えば輪郭線や識別マークをカメラ画像上に重ねて表示することで、監視対象領域における不変的な固定構造物を明確に明示したり、上記監視対象領域における注目すべき物体をその他の物体と容易に識別表示することが可能となる。この結果、天候等に左右されることなく監視対象領域における種々の状況を的確に把握することが可能となる。
【0012】
【発明の実施の形態】
以下、図面を参照して本発明の一実施形態に係る環境状況把握装置について説明する。
図1はこの実施形態に係る環境状況把握装置の概略構成を示すものであって、10は所定の監視対象領域を走査するレーザレーダ、また20は上記レーザレーダ10の近傍に設けられて上記監視対象領域を撮像する監視カメラ(例えばTVカメラ)である。これらのレーザレーダ10と監視カメラ20は、1つの筐体30に一体に収容されてセンサユニットを構成し、建屋の壁面や電柱等の所定高さの監視点に設置されてその監視対象領域である地表面を俯瞰するように設けられる。即ち、レーザレーダ10と監視カメラ20は、実質的に同一と看做し得る監視点から、同じ監視対象領域をそれぞれ視野するように設けられている。
【0013】
ちなみにレーザレーダ10は、例えば多面体ミラー11を一定速度で回転駆動する主走査モータ12と、この主走査モータ12に対してその回転軸を直交させて設けられて上記多面体ミラー11の回転軸を所定の角度範囲内で傾動させることで該多面体ミラー11の回転面を所定速度で揺動させる副走査モータ13とを備える。そしてレーザ光源14から発せられたレーザパルス光をハーフミラー15を介して前記多面体ミラー11に照射することで、上記レーザパルス光を該多面体ミラー11の回転と傾きとに応じて所定の監視領域に照射し、またレーザパルス光の監視領域からの反射光を前記多面体ミラー11から集光レンズ16を介して受光器17により受光検知するように構成される。
【0014】
即ち、このレーザレーダ10は、多面体ミラー11の回転とその揺動とによってレーザパルス光の照射方向を主走査方向(x方向)に高速に走査しながら、その走査面を副走査方向(y方向)に走査し、これによって図2に例示するように所定の監視対象領域の全域を走査している。そして監視対象領域に存在する種々の物体による反射光を上記レーザパルス光の照射に同期して受光し、その受光タイミング(レーザパルス光の照射タイミングからその反射光の受光タイミングまでの経過時間)から物体(反射点)までの距離情報を求めるように構成されている。
【0015】
このようなレーザレーダ10を用いて検出される距離情報を可視化したレーダ画像を作成するレーダ画像作成手段40は、例えばパーソナルコンピュータからなる監視装置本体50が備える機能の一部として実現される。具体的にはこのレーダ画像作成手段40は、例えば図3に示すように前記レーザ光源14を駆動するレーザパルス走査回路41からの同期信号を受けて前記レーザパルス光の物体による反射光の受光タイミングを計測する反射光検出部42と、この計測時間を距離情報に変換する距離情報変換部43、およびこの距離情報を濃淡情報に変換する濃淡変換部44とを備える。尚、前記計測時間を直接的に濃淡情報に変換することも勿論可能である。またこの実施形態においては距離情報を、例えば遠距離ほど濃度が濃くなる濃淡情報に変換する例について示すが、距離に応じて色が段階的に変化する色調変換を施すようにしても良い。
【0016】
レーザレーダ画像は、上述したようにして求められる濃淡情報(距離情報)を前記レーザパルス走査回路41から求められる主走査角度および副走査角度の情報に従って所定の画像メモリ45上に順次マッピングしていくことにより作成される。即ち、レーザパルス光の走査方向を示す主走査角度および副走査角度によって特定される座標(画像メモリ45のアドレス)に、そのときに求められた濃淡情報(距離情報)を書き込むことで、画像メモリ45上にレーザパルス光の反射点を前述した監視対象領域において3次元的に特定するレーザレーダ画像を作成するものとなっている。
【0017】
さてこの発明に係る環境状況把握装置が特徴とするところは、上述した如くして求められる監視対象領域のレーザレーダ画像Aの座標と、前述した監視カメラ20を用いて撮像された上記監視対象領域のカメラ画像Bの座標とを相互に対応付ける画像マッチング手段60を備えている点にある。この画像マッチング手段60も前述した監視装置本体50が備える機能の一部として実現される。そしてこの画像マッチング手段60は、レーザレーダ10と監視カメラ20とを一体に備えたセンサユニット30を、前述した電柱等に所定の監視対象領域を視野するように設置したとき、その初期設定処理として起動される。
【0018】
具体的には画像マッチング手段60は、前記監視装置本体50に設けられモニタ(ディスプレイ)70にレーザレーダ画像Aおよびカメラ画像Bをそれぞれ表示し、これらの各画像A,Bにおける前記監視対象領域での互いに対応する代表的な特徴点が複数点に亘ってそれぞれ指定されたとき、これらの指定された特徴点の位置座標に従って前記レーザレーダ画像Aの座標系とカメラ画像Bの座標系とを互いに対応付ける処理を実行する。
【0019】
即ち、図4にその処理概念を示すようにレーザレーダ画像Aにおいて明確に識別可能な複数の物体の位置を示す座標をその代表的な特徴点a1,a2,a3,…として指定し、またカメラ画像Bにおける上記各物体の位置を示す座標を上記各特徴点a1,a2,a3,…にそれぞれ対応する特徴点b1,b2,b3,…として指定する。これらの特徴点a1,a2,a3,…(b1,b2,b3,…)については、例えばオペレータの経験や画像認知感覚に基づいて、各画像A,Bにおいて明らかに同一と認められる物体や着目点を、監視点から近距離にあるものおよび監視点から遠距離にあるものとして選択的に指定するようにすれば良い。そしてこれらの指定された特徴点a1,a2,a3,…(b1,b2,b3,…)の各座標が互いに重なり合うように一方の画像(レーザレーダ画像Aまたはカメラ画像B)の座標系を変換し、これによってレーザレーダ画像Aとカメラ画像Bとを互いに重ね合わせるようにすれば良い。
【0020】
より具体的には図5にその処理手順を示すように、先ずレーザレーダ画像Aにおいて垂直となる対象物の座標、具体的にはレーザレーダ画像Aにおける水平方向ドット位置と垂直方向ドット位置とを4箇所に亘ってそれぞれ指定する〈ステップS1〉。次にカメラ画像Bにおいて、上記レーザレーダ画像Aと同じ対象物の同一部位を示す4箇所の座標(水平方向ドット位置と垂直方向ドット位置)をそれぞれ指定する〈ステップS2〉。そしてこれらの指定された複数の座標から各画像A,Bのゲイン(空間傾き比較値)をそれぞれ求める〈ステップS3〉。
【0021】
次いでレーザレーダ画像Aにおける対象物の特定部位の座標と、カメラ画像Bにおける同じ対象物の同じ部位の座標とが一致するように、上記座標間のずれを示す水平方向ドット差および垂直方向ドット差とにより示されるオフセットを入力する〈ステップS4〉。そして前記ゲインとオフセットとに基づき、例えば
[レーザレーダ画面座標]=[カメラ画面座標]/[ゲイン]−[オフセット]
として、レーザレーダ画像Aの座標系をカメラ画像Bの座標系に合わせる〈ステップS5〉。
【0022】
かくしてこのようにしてレーザレーダ画像Aの座標系とカメラ画像Bの座標系とをマッチングさせれば、その後の監視動作時には一般的には撮像対象領域の状況を把握することが容易なカメラ画像Bの各部に上記レーザレーダ画像Aによって示される距離情報をそれぞれ付与することが可能となる。そしてカメラ画像Bにおいては一見したところ識別が困難な、例えばその一部が重なり合っている似たような色調の複数の物体であっても、或いは気象条件の影響を受けて複数の物体間の区切りを識別することが困難な場合であっても、上記レーザレーダ画像Aから求められる距離情報に従って個々の物体をそれぞれ明確に識別することが可能となる。従ってレーザレーダ画像Aおよびカメラ画像Bがそれぞれ有する欠点を互いに補いながら、またレーザレーダ画像Aおよびカメラ画像Bがそれぞれ有する利点をそれぞれ活かしながら所定の監視対象領域における移動物体等の状況を容易に、しかも的確に把握することが可能となる。
【0023】
ところでこの発明に係る環境状況把握装置は、上述した画像マッチング処理手段60に加えて、更に前記レーザレーダ画像Aから前記監視対象領域における固定物体の面や移動物体を認識する物体認識手段80を備えている。具体的にはこの物体認識手段80は、図5に示すように監視対象領域における固定物のまとまりの情報からその固定物を構成する面を認識する平面認識処理部81と、前記監視対象領域において一走査毎に検出座標が変化する情報から移動物体を認識する移動物体検出処理部82とからなる。
【0024】
即ち、平面認識処理部81は、例えばレーザレーダ画像Aにおいて連続的に連なる空間座標の並びの方向を調べることにより、前記監視対象領域において不変的な道路面や建物等の固定構造物の面を認識する機能を備えている。この平面認識処理部81にて認識された結果は、例えばその面を特定する輪郭線やポリゴン線図等の補助情報としてレーザレーダ画像Aまたはカメラ画像B上に重ねて表示される。また移動物体検出処理部82は、上述したようにレーザレーダの一走査毎に検出座標が順次変化する物体の情報からその物体が人や車等の移動体であると認識するもので、例えばその移動物体を囲む四角形状のマーカー等を補助情報として前記レーザレーダ画像Aまたはカメラ画像B上に重ねて表示する機能を備える。このような補助情報については、オペレータの指示の下で選択的に表示したり、注目すべき移動物体に対してのみ表示するようにしても良い。
【0025】
かくしてこのような物体認識手段80と前述した画像マッチング手段60とを備えて構成される環境状況把握装置によれば、画像マッチング処理した監視画像をモニタ70に表示して所定の監視対象領域の状況を監視するに際して、例えば図6(a)〜(d)にその代表的な表示例を示すように監視対象領域の環境(状況)に応じて、その状況把握に必要な情報を適切に表示しながら監視に供することができる。
【0026】
即ち、監視画像が前述した如くカメラ画像Bの座標とレーザレーダ画像Aの座標とを対応付けたものであるから、例えば図6(a)に示すようにマウス等の座標入力デバイスを用いてポインタPを移動させ、監視画像上の着目点を指定するだけで当該指定部位の空間位置座標、具体的には監視点からの距離を表示することが可能となる。また移動物が検出された場合には、例えば図6(b)に示すように認識した移動物を囲むようなマーカー(補助情報)Mを監視画像に重ねて表示することで、注目すべき移動物を明確に識別表示することが可能となる。
【0027】
更には或る物体の大きさや形状を認識したいような場合には、例えば図6(c)に示すように、注目する物体の隅部等を示す複数の点を指定すれば、前述した平面認識処理によって当該物体の主要な面の大きさと形状とをそれぞれ把握することが可能となるので、この認識結果から物体の立体的な大きさを容易に推定し、その存在位置を容易に求めることが可能となる。
【0028】
また前述した平面認識処理によって求められた物体の平面をそれぞれ特定するポリゴン線図(補助情報)を、例えば図6(d)に示すように監視画像に重ねて表示すれば、仮に時間帯や天候条件の影響を受けてカメラ画像Bを鮮明に得ることができないような場合であっても、上記ポリゴン線図(補助情報)から監視対象領域の概要を把握することが可能となる。この結果、監視時間帯や天候条件等に左右されることなく監視対象領域の状況を容易に、しかも的確に把握することが可能となる。
【0029】
尚、本発明は上述した実施形態に限定されるものではない。ここでは屋外における所定の監視対象領域の状況を把握する例について示したが、例えば図6(a)に示す監視画像を用いること、各部の測距機能を備えたカメラを実現することができ、船舶監視カメラやロボットアイ、距離計測器等に適用することができる。また図6(b)を示す監視画像を用いることで、屋外等の広範囲な領域に亘る監視システムを構築し、移動物体の検知をトリガとして警報を発したり、その監視画像を記録する等の対策を講じることが可能となる。更には交差点等における交通量把握システムや横断歩行者の把握システム等に応用したり、移動体の追尾システム等に応用することが可能となる。
【0030】
また図6(c)に示す画像を用いることにより、コンテナクレーンの位置決めやベルトコンベア上を流れる各種荷物の大きさ判定処理等に応用することが可能となる。更には図6(d)に示す画像を用いることで、各種物体の凹凸判定や地形測量等を行うことが可能となる。その他、本発明はその要旨を逸脱しない範囲で種々変形して実施することができ、各種の物体認識分野に応用することが可能である。
【0031】
【発明の効果】
以上説明したように本発明によれば、レーザレーダから求められるレーダ画像の座標と、前記レーザレーダの近傍に設けられた監視カメラにより撮像されるカメラ画像の座標とを対応付けて所定の監視対象領域の監視処理に供するので、気象条件や監視時間帯の影響を受けることなく、常に安定に上記監視対象領域の状況を容易に監視することができる。しかも注目点までの距離情報を得ながら、その状況を的確に監視することができる。
【0032】
更にはレーザレーダ画像から認識される物体の面に関する情報や移動物体の情報を補助情報として監視画像上に重ねて表示するので、その状況把握をより適切なものとすることができる等、実用上多大なる効果が奏せられる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る環境状況把握装置の概略構成図。
【図2】レーザレーダによる監視対象領域の走査形態を示す図。
【図3】レーザレーダ画像の概略的な作成処理手段を示すブロック図。
【図4】レーザレーダ画像Aとカメラ画像Bとのマッチング処理の概念を示す図。
【図5】画像マッチング処理の具体的な処理手順の一例を示す図。
【図6】図1に示す環境状況把握装置における監視画像の代表的な表示例を示す図。
【符号の説明】
10 レーザレーダ
20 監視カメラ
40 レーザレーダ画像作成手段
50 監視装置本体
60 画像マッチング手段
70 モニタ(ディスプレイ)
80 物体認識手段
81 平面認識処理部
82 移動物体検出処理部
A レーザレーダ画像
B カメラ画像[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an environment situation grasping apparatus suitable for grasping a moving object in a predetermined monitoring area and a situation change of the monitoring area.
[0002]
[Related background]
When monitoring an intruder in a predetermined monitoring area or grasping the situation, a monitoring camera is generally used conventionally. However, a camera image obtained using a surveillance camera is generally easily affected by the weather (meteorology) and is difficult to monitor at night.
[0003]
On the other hand, recently, it has been proposed to monitor an intruder or the like in a predetermined monitoring area using a laser radar (see, for example, Patent Documents 1 and 2). According to the monitoring system using this laser radar, object detection can be performed without being affected by the weather (meteorology) or the like.
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 11-227608 [Patent Document 2]
Japanese Patent Laid-Open No. 11-352245
[Problems to be solved by the invention]
However, although the above-described monitoring system using a laser radar can accurately detect the spatial coordinates (distance and azimuth from the monitoring point) of a moving object or the like that has entered the monitoring area, it generally knows what the object is. Difficult to do. In this regard, in the case of an image obtained by the monitoring camera described above, the camera image itself is in accordance with human visual sensibility, and therefore it is possible to easily determine what each object is from the image information. However, distance information to the detection target cannot be obtained from the camera image unless a stereo camera or the like is used, for example.
[0006]
The present invention has been made in consideration of such circumstances, and an object thereof is to provide an environmental condition grasping device that can easily obtain information on a moving object or the like in a predetermined monitoring area together with its spatial position information. There is to do.
[0007]
[Means for Solving the Problems]
In order to achieve the above-described object, an environmental condition grasping apparatus according to claim 1 of the present invention includes a laser radar that scans a predetermined monitoring area and a radar that creates a radar image that visualizes distance information detected by the laser radar. An image creating means, and a monitoring camera provided at a position that can be regarded as the same as the installation position of the laser radar and imaging a monitoring area of the laser radar;
In particular, plane recognition means for detecting a surface of an invariant object in the monitoring area from the radar image, and a plurality of feature points associated with each other between the camera image captured by the monitoring camera and the radar image Image matching means for superimposing the coordinate system of the camera image and the coordinate system of the radar image based on the position coordinates of the image, and a plane recognized by the plane recognition means on the basis of the image matching result. An image display means for displaying a line or polygon diagram on the camera image, a moving object recognition means for recognizing a moving object in the monitoring area from the laser radar image, and a movement recognized by the moving object recognition means Auxiliary information display means for superimposing and displaying auxiliary information for specifying an object on the camera image is provided.
[0008]
Preferably, the radar image creating means is configured to create a radar image obtained by visualizing three-dimensional information by performing grayscale conversion or color conversion on the detected distance information. Further, the image matching means superimposes the coordinate system of the camera image and the coordinate system of the radar image based on the position coordinates of a plurality of feature points mutually associated between the camera image and the radar image. Composed.
[0009]
According to the environmental situation grasping device configured as described above, since the camera image and the radar image can be associated with each other, for example, while easily identifying each object in the monitoring target region from the camera image, Spatial coordinates (distance and direction from the monitoring point) can be easily and accurately obtained from the radar image. Conversely, even when the camera image is unclear due to the influence of the weather or the like, the unclearness can be compensated for by the radar image, so that it is possible to accurately grasp the monitoring target area.
[0010]
Preferably , a marker surrounding the recognized moving object may be used as auxiliary information for specifying the moving object to be displayed superimposed on the camera image .
[0011]
According to the environmental situation grasping device configured as described above, by displaying the auxiliary information for identifying the object surface and / or the moving object from the laser radar image, for example, the contour line and the identification mark, superimposed on the camera image, It is possible to clearly specify an invariant fixed structure in the monitoring target area, and to easily identify and display an object of interest in the monitoring target area from other objects. As a result, it is possible to accurately grasp various situations in the monitoring target area without being influenced by the weather or the like.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an environment situation grasping device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a schematic configuration of an environmental condition grasping apparatus according to this embodiment, in which 10 is a laser radar that scans a predetermined monitoring target area, and 20 is provided in the vicinity of the
[0013]
Incidentally, the
[0014]
That is, the
[0015]
The radar
[0016]
In the laser radar image, the grayscale information (distance information) obtained as described above is sequentially mapped onto a
[0017]
The environmental condition grasping device according to the present invention is characterized by the coordinates of the laser radar image A of the monitoring target area obtained as described above and the monitoring target area imaged using the
[0018]
Specifically, the
[0019]
That is, as shown in FIG. 4, the coordinates indicating the positions of a plurality of objects that can be clearly identified in the laser radar image A are designated as the representative feature points a1, a2, a3,. Coordinates indicating the positions of the objects in the image B are designated as feature points b1, b2, b3,... Corresponding to the feature points a1, a2, a3,. For these feature points a1, a2, a3,... (B1, b2, b3,...), For example, based on the experience of the operator and the image recognition sensation, The points may be selectively designated as being at a short distance from the monitoring point and as being at a long distance from the monitoring point. Then, the coordinate system of one image (laser radar image A or camera image B) is transformed so that the coordinates of these designated feature points a1, a2, a3,... (B1, b2, b3,...) Overlap each other. Thus, the laser radar image A and the camera image B may be superimposed on each other.
[0020]
More specifically, as shown in FIG. 5, first, the coordinates of an object that is vertical in the laser radar image A, specifically, the horizontal dot position and the vertical dot position in the laser radar image A are obtained. Each of the four locations is designated <Step S1>. Next, in the camera image B, four coordinates (horizontal dot position and vertical dot position) indicating the same part of the same object as the laser radar image A are designated <step S2>. Then, the gain (spatial slope comparison value) of each of the images A and B is obtained from the plurality of designated coordinates (step S3).
[0021]
Next, the horizontal dot difference and the vertical dot difference indicating the deviation between the coordinates so that the coordinates of the specific part of the object in the laser radar image A coincide with the coordinates of the same part of the same object in the camera image B. The offset indicated by is input <step S4>. And based on the gain and offset, for example
[Laser radar screen coordinates] = [Camera screen coordinates] / [Gain]-[Offset]
Then, the coordinate system of the laser radar image A is matched with the coordinate system of the camera image B <Step S5>.
[0022]
Thus, if the coordinate system of the laser radar image A and the coordinate system of the camera image B are matched in this way, the camera image B that can generally easily grasp the state of the imaging target region during the subsequent monitoring operation. It is possible to assign distance information indicated by the laser radar image A to each of the components. In the camera image B, it is difficult to identify at a glance, for example, even if there are a plurality of similar-colored objects that overlap with each other, or due to the influence of weather conditions, Even when it is difficult to identify each object, it is possible to clearly identify each object according to the distance information obtained from the laser radar image A. Therefore, while making up for the disadvantages of the laser radar image A and the camera image B, and taking advantage of the advantages of the laser radar image A and the camera image B, respectively, the situation of moving objects and the like in a predetermined monitoring target area can be easily achieved. Moreover, it becomes possible to accurately grasp.
[0023]
By the way, in addition to the image matching processing means 60 described above, the environmental condition grasping apparatus according to the present invention further includes an object recognition means 80 for recognizing a surface of a fixed object or a moving object in the monitoring target area from the laser radar image A. ing. Specifically, as shown in FIG. 5, the
[0024]
In other words, the plane recognition processing unit 81 examines the direction of the arrangement of spatial coordinates that are continuously connected in the laser radar image A, for example, so that the surface of a fixed structure such as a road surface or a building that is invariable in the monitoring target area. It has a recognition function. The result recognized by the plane recognition processing unit 81 is displayed on the laser radar image A or the camera image B as auxiliary information such as a contour line or a polygon diagram specifying the surface, for example. Further, as described above, the moving object detection processing unit 82 recognizes that the object is a moving object such as a person or a car from the information of the object whose detection coordinates sequentially change for each scan of the laser radar. A function of displaying a rectangular marker or the like surrounding a moving object as auxiliary information on the laser radar image A or the camera image B is provided. Such auxiliary information may be selectively displayed under an operator's instruction or may be displayed only for a moving object to be noticed.
[0025]
Thus, according to the environmental situation grasping device configured to include such an
[0026]
That is, since the monitoring image is obtained by associating the coordinates of the camera image B and the coordinates of the laser radar image A as described above, for example, as shown in FIG. 6A, the pointer is used by using a coordinate input device such as a mouse. It is possible to display the spatial position coordinates of the designated part, specifically, the distance from the monitoring point, only by moving P and specifying the point of interest on the monitoring image. When a moving object is detected, for example, as shown in FIG. 6B, a marker (auxiliary information) M surrounding the recognized moving object is displayed on the monitoring image so as to be noticed. Objects can be clearly identified and displayed.
[0027]
Furthermore, when it is desired to recognize the size and shape of a certain object, for example, as shown in FIG. 6C, the plane recognition described above can be performed by specifying a plurality of points indicating the corners of the object of interest. Since it is possible to grasp the size and shape of the main surface of the object by processing, it is possible to easily estimate the three-dimensional size of the object from this recognition result and easily find its existence position. It becomes possible.
[0028]
Further, if a polygon diagram (auxiliary information) for specifying each plane of the object obtained by the above-described plane recognition processing is displayed superimposed on the monitoring image as shown in FIG. Even when the camera image B cannot be clearly obtained due to the influence of the conditions, it is possible to grasp the outline of the monitoring target area from the polygon diagram (auxiliary information). As a result, it is possible to easily and accurately grasp the status of the monitoring target area without being influenced by the monitoring time zone, weather conditions, or the like.
[0029]
The present invention is not limited to the embodiment described above. Here, an example of grasping the situation of a predetermined monitoring target area outdoors has been shown, but for example, by using the monitoring image shown in FIG. 6A, a camera having a ranging function of each part can be realized, It can be applied to a ship monitoring camera, a robot eye, a distance measuring device, and the like. In addition, by using the monitoring image shown in FIG. 6 (b), a monitoring system covering a wide range of areas such as outdoors is constructed, and an alarm is triggered by detection of a moving object, and the monitoring image is recorded. Can be taken. Furthermore, it can be applied to a traffic volume grasping system at an intersection or the like, a crossing pedestrian grasping system, or a tracking system for a moving body.
[0030]
Further, by using the image shown in FIG. 6C, it is possible to apply to positioning of a container crane, size determination processing of various loads flowing on a belt conveyor, and the like. Furthermore, by using the image shown in FIG. 6 (d), it is possible to perform unevenness determination and topographic surveying of various objects. In addition, the present invention can be variously modified and implemented without departing from the scope of the invention, and can be applied to various object recognition fields.
[0031]
【The invention's effect】
As described above, according to the present invention, the coordinates of the radar image obtained from the laser radar and the coordinates of the camera image captured by the monitoring camera provided in the vicinity of the laser radar are associated with each other and the predetermined monitoring target. Since it is used for the area monitoring process, it is possible to easily and stably monitor the situation of the monitoring target area without being affected by the weather conditions and the monitoring time zone. In addition, the situation can be accurately monitored while obtaining the distance information to the attention point.
[0032]
Furthermore, since information on the object surface recognized from the laser radar image and information on the moving object are displayed as auxiliary information superimposed on the monitoring image, the situation can be grasped more appropriately. A great effect is produced.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of an environmental situation grasping apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a scanning form of a monitoring target area by a laser radar.
FIG. 3 is a block diagram showing a schematic creation processing means for a laser radar image.
FIG. 4 is a diagram showing a concept of matching processing between a laser radar image A and a camera image B.
FIG. 5 is a diagram showing an example of a specific processing procedure of image matching processing.
6 is a diagram showing a typical display example of a monitoring image in the environmental situation grasping apparatus shown in FIG.
[Explanation of symbols]
DESCRIPTION OF
80 Object recognition means 81 Plane recognition processing unit 82 Moving object detection processing unit A Laser radar image B Camera image
Claims (2)
このレーザレーダにより検出される距離情報を可視化したレーダ画像を作成するレーダ画像作成手段と、
このレーダ画像から前記監視領域において不変的な物体の面を検出する平面認識手段と、
前記レーザレーダの設置位置と同一と看做し得る位置に設けられて該レーザレーダの監視領域を撮像する監視カメラと、
この監視カメラにより撮像されたカメラ画像と前記レーダ画像との間において相互に対応付けられた複数の特徴点の位置座標に基づいて、前記カメラ画像の座標系と前記レーダ画像の座標系とを重ね合わせる画像マッチング手段と、
この画像マッチング結果に基づいて前記平面認識手段にて認識された平面を、その輪郭線またはポリゴン線図として前記カメラ画像上に重ねて表示する画像表示手段と、
前記レーザレーダ画像から前記監視領域における移動物体を認識する移動物体認識手段と、
この移動物体認識手段にて認識した移動物体を特定する補助情報を前記カメラ画像上に重ねて表示する補助情報表示手段と
を具備したことを特徴とする環境状況監視装置。A laser radar that scans a predetermined monitoring area;
Radar image creating means for creating a radar image in which distance information detected by the laser radar is visualized;
Plane recognition means for detecting a surface of an invariant object in the monitoring area from the radar image;
A monitoring camera that images the monitoring area of the laser radar provided at a position that can be regarded as the same as the installation position of the laser radar;
Based on the position coordinates of a plurality of feature points associated with each other between the camera image captured by the monitoring camera and the radar image, the coordinate system of the camera image and the coordinate system of the radar image are superimposed. an image matching means to match,
The recognized plane in the previous SL plane recognizing means based on the image matching result, image display means for displaying superimposed on the camera image as a contour or polygon diagrams,
Moving object recognition means for recognizing a moving object in the monitoring area from the laser radar image;
An environmental condition monitoring apparatus comprising: auxiliary information display means for displaying auxiliary information for identifying a moving object recognized by the moving object recognition means so as to overlap the camera image.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002380109A JP4287647B2 (en) | 2002-12-27 | 2002-12-27 | Environmental status monitoring device |
CN2008101492633A CN101393013B (en) | 2002-09-30 | 2003-09-29 | Device for measuring object |
PCT/JP2003/012412 WO2004029546A1 (en) | 2002-09-30 | 2003-09-29 | Method of measuring object and system for measuring object |
CNB038032759A CN1306243C (en) | 2002-09-30 | 2003-09-29 | Method of measuring object and system for measuring object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002380109A JP4287647B2 (en) | 2002-12-27 | 2002-12-27 | Environmental status monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004212129A JP2004212129A (en) | 2004-07-29 |
JP4287647B2 true JP4287647B2 (en) | 2009-07-01 |
Family
ID=32816420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002380109A Expired - Lifetime JP4287647B2 (en) | 2002-09-30 | 2002-12-27 | Environmental status monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4287647B2 (en) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4069926B2 (en) * | 2005-01-11 | 2008-04-02 | 株式会社Ihi | Object detection device |
JP4639812B2 (en) | 2005-01-19 | 2011-02-23 | 株式会社デンソー | Scanning device |
JP4907911B2 (en) * | 2005-07-07 | 2012-04-04 | 株式会社東芝 | Camera image offset correction display device |
JP4726621B2 (en) * | 2005-12-13 | 2011-07-20 | アルパイン株式会社 | In-vehicle sensor correction device |
JP5339493B2 (en) * | 2006-02-08 | 2013-11-13 | 総務大臣 | Radio wave emission source visualization device and method |
JP2009186353A (en) * | 2008-02-07 | 2009-08-20 | Fujitsu Ten Ltd | Object detecting device and object detecting method |
JP5518321B2 (en) * | 2008-11-12 | 2014-06-11 | 東日本旅客鉄道株式会社 | Laser radar installation position verification apparatus, laser radar installation position verification method, and laser radar installation position verification apparatus program |
JP2011122851A (en) * | 2009-12-08 | 2011-06-23 | Ihi Corp | Method and device for detecting object |
KR101036833B1 (en) | 2010-03-31 | 2011-05-25 | 국방과학연구소 | Apparatus and method for estimating an alignment error between a radar sensor and an image sensor in a target tracking system |
JP5598100B2 (en) * | 2010-06-07 | 2014-10-01 | 株式会社Ihi | Object detection device |
KR101030763B1 (en) * | 2010-10-01 | 2011-04-26 | 위재영 | Image acquisition unit, acquisition method and associated control unit |
JP5621822B2 (en) * | 2012-09-06 | 2014-11-12 | 株式会社デンソーウェーブ | Laser radar equipment |
JP6355543B2 (en) * | 2014-12-09 | 2018-07-11 | 株式会社キーエンス | Monitoring system |
JP6637331B2 (en) * | 2016-02-22 | 2020-01-29 | 株式会社キーエンス | Safety scanner and optical safety system |
JP6689095B2 (en) * | 2016-02-22 | 2020-04-28 | 株式会社キーエンス | Optical safety system, setting support device and setting support program for safety scanner |
US10989791B2 (en) | 2016-12-05 | 2021-04-27 | Trackman A/S | Device, system, and method for tracking an object using radar data and imager data |
EP3385747B1 (en) | 2017-04-05 | 2021-03-31 | Axis AB | Method, device and system for mapping position detections to a graphical representation |
KR101763165B1 (en) | 2017-04-18 | 2017-08-04 | (주)엠제빈 | Optical sensor system with guide light |
KR101814135B1 (en) * | 2017-08-23 | 2018-01-02 | (주)엠제빈 | Lidar System |
JP6989819B2 (en) * | 2017-08-10 | 2022-01-12 | 富士通株式会社 | Data correction device, data correction method, and data correction program |
JP2019117432A (en) * | 2017-12-26 | 2019-07-18 | パイオニア株式会社 | Display control device |
CN110927708B (en) | 2018-08-30 | 2022-10-11 | 阿波罗智能技术(北京)有限公司 | Calibration method, device and equipment of intelligent road side unit |
CN109507689A (en) * | 2018-12-25 | 2019-03-22 | 肖湘江 | Multilasered optical radar data fusion method with barrier memory function |
EP4071516A4 (en) * | 2019-12-03 | 2022-12-14 | Konica Minolta, Inc. | Image processing device, monitoring system, and image processing method |
EP3879260A1 (en) | 2020-03-10 | 2021-09-15 | NEC Corporation | Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program |
CN113702995B (en) * | 2021-09-01 | 2022-08-19 | 国网江苏省电力有限公司扬州供电分公司 | Space positioning system for assisting in hanging and placing grounding wire operation |
WO2023189691A1 (en) * | 2022-03-30 | 2023-10-05 | Nec Corporation | Potential object pathway determination method, apparatus and system |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE203844T1 (en) * | 1992-03-20 | 2001-08-15 | Commw Scient Ind Res Org | OBJECT MONITORING SYSTEM |
JPH11153664A (en) * | 1997-09-30 | 1999-06-08 | Sumitomo Electric Ind Ltd | Object detector utilizing repetitively pulsed light |
JP2000227963A (en) * | 1999-02-08 | 2000-08-15 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for preparing image with distance information and recording medium recording program for the method |
JP2001280932A (en) * | 2000-03-31 | 2001-10-10 | Minolta Co Ltd | Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system |
JP2002104117A (en) * | 2000-10-03 | 2002-04-10 | Denso Corp | Driving support system for vehicle |
JP3572252B2 (en) * | 2000-11-15 | 2004-09-29 | 日本電信電話株式会社 | Method and apparatus for aligning photographed image and range data, and recording medium recording program for executing the method |
JP4460782B2 (en) * | 2001-01-10 | 2010-05-12 | セコム株式会社 | Intrusion monitoring device |
JP2002340534A (en) * | 2001-05-18 | 2002-11-27 | Yaskawa Electric Corp | Position-measuring instrument and position-measuring method |
JP4348028B2 (en) * | 2001-06-12 | 2009-10-21 | 株式会社リコー | Image processing method, image processing apparatus, imaging apparatus, and computer program |
-
2002
- 2002-12-27 JP JP2002380109A patent/JP4287647B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004212129A (en) | 2004-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4287647B2 (en) | Environmental status monitoring device | |
US7116246B2 (en) | Apparatus and method for sensing the occupancy status of parking spaces in a parking lot | |
CN110084895B (en) | Method and equipment for marking point cloud data | |
US8420998B2 (en) | Target detecting and determining method for detecting and determining target based on height information and storage medium for storing program executing target detecting and determining method | |
JP4691701B2 (en) | Number detection device and method | |
US20080027648A1 (en) | Detection-Object-Position-Specifying Device and Method of Specifying Position of Object to Be Detected | |
JPH06293236A (en) | Travel environment monitoring device | |
KR102151815B1 (en) | Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence | |
WO2004029546A1 (en) | Method of measuring object and system for measuring object | |
KR20020010257A (en) | Apparatus and method for recognizing self-position in robort system | |
JP2019100985A (en) | Three-dimensional information acquisition system | |
US11624833B2 (en) | System and method for automatically generating scan locations for performing a scan of an environment | |
JP2007013709A (en) | Setting apparatus | |
CN114299146A (en) | Parking assisting method, device, computer equipment and computer readable storage medium | |
JP5021913B2 (en) | Method and system for searching object at sea and recording medium for executing method for searching object | |
JP4754283B2 (en) | Monitoring system and setting device | |
US11614528B2 (en) | Setting method of monitoring system and monitoring system | |
JP2002083383A (en) | Movable body following spotlight control device and its movable body detection method and control method | |
Djuricic et al. | Supporting UAVs in low visibility conditions by multiple-pulse laser scanning devices | |
JP3443106B2 (en) | Floating object detection / monitoring method and device | |
JP2004210045A (en) | Monitoring device | |
JP3547946B2 (en) | Apron monitoring device | |
US20220414925A1 (en) | Tracking with reference to a world coordinate system | |
JPH0511052A (en) | Vehicle mounted type obstacle detecting apparatus | |
JP4506299B2 (en) | Vehicle periphery monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060727 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070514 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070627 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20071012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090226 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090327 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4287647 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140403 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |