JP4980606B2 - Mobile automatic monitoring device - Google Patents

Mobile automatic monitoring device Download PDF

Info

Publication number
JP4980606B2
JP4980606B2 JP2005329732A JP2005329732A JP4980606B2 JP 4980606 B2 JP4980606 B2 JP 4980606B2 JP 2005329732 A JP2005329732 A JP 2005329732A JP 2005329732 A JP2005329732 A JP 2005329732A JP 4980606 B2 JP4980606 B2 JP 4980606B2
Authority
JP
Japan
Prior art keywords
unit
dimensional
monitoring
camera
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005329732A
Other languages
Japanese (ja)
Other versions
JP2007142517A (en
Inventor
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE LABORATORIES, LTD.
Original Assignee
IWANE LABORATORIES, LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE LABORATORIES, LTD. filed Critical IWANE LABORATORIES, LTD.
Priority to JP2005329732A priority Critical patent/JP4980606B2/en
Publication of JP2007142517A publication Critical patent/JP2007142517A/en
Application granted granted Critical
Publication of JP4980606B2 publication Critical patent/JP4980606B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車輌に積載したビデオカメラ等の撮影装置やレーザスキャナ等によって所望の監視対象を自動で監視するための監視カメラ装置に関し、特に、障害物や不審物を自動検出し、自動認識し、該当映像を表示するとともに、監視対象物が決まっている場合には、その監視対象物の移動等を自動追跡して監視・表示することができる移動型自動監視装置に関する。   The present invention relates to a monitoring camera device for automatically monitoring a desired monitoring target using a photographing device such as a video camera mounted on a vehicle or a laser scanner, and more particularly to automatically detect and automatically recognize an obstacle or a suspicious object. The present invention relates to a mobile automatic monitoring apparatus capable of displaying a corresponding video and automatically monitoring and displaying the movement or the like of the monitored object when the monitored object is determined.

一般に、防犯システム,セキュリティ・システムとして、ビデオカメラ等の撮影装置によって所望の監視対象を無人・自動で監視するための監視カメラシステムが広く利用されている。
この種の監視カメラシステムは、例えば、銀行やコンビニエンス・ストアの店内やキャッシュ・コーナー、飛行場のターミナルや滑走路等、所定の監視対象物や監視対象エリアに監視カメラを設置し、監視カメラで撮影された映像を遠隔操作で監視することで、不審者の発見や所定の監視対象物の追跡監視等が行われるようになっている。
In general, as a security system and a security system, a surveillance camera system for unattended and automatic surveillance of a desired surveillance object by a photographing device such as a video camera is widely used.
This type of surveillance camera system, for example, installs surveillance cameras on predetermined surveillance objects and surveillance areas, such as in banks and convenience stores, cash corners, airport terminals and runways, and shoots with surveillance cameras. By monitoring the recorded image by remote operation, the suspicious person is discovered, a predetermined monitoring object is tracked and monitored, and the like.

このような従来の監視カメラシステムでは、監視カメラは、ズーム機能を備えた狭角カメラが雲台に搭載されて視角方向に回転駆動され、一のカメラで一定範囲を撮影・監視できるようになっていた。そして、このような監視カメラが、監視対象物の数や大きさ、監視対象エリアの広さ等に応じて、一又は複数の監視カメラが適切な場所に配設・設置され、所望の監視が行われていた。
このような従来の監視カメラシステムに関する技術としては、例えば、特開平7−283979号公報(特許文献1)記載の「全周囲装置」や、特開平8−194809号公報(特許文献2)記載の「360度監視システム」などが知られている。
In such a conventional surveillance camera system, a narrow-angle camera equipped with a zoom function is mounted on a pan head and is rotated in the viewing angle direction so that a single camera can shoot and monitor a certain range. It was. Then, according to the number and size of objects to be monitored, the size of the area to be monitored, etc., one or a plurality of monitoring cameras are arranged and installed at appropriate locations, and desired monitoring is performed. It was.
As a technique related to such a conventional surveillance camera system, for example, “all-around device” described in Japanese Patent Laid-Open No. 7-283379 (Patent Document 1) and Japanese Patent Laid-Open No. 8-194809 (Patent Document 2). A “360-degree monitoring system” is known.

特開平7−283979号公報(第2−3頁、第1図)Japanese Patent Laid-Open No. 7-283379 (page 2-3, FIG. 1) 特開平8−194809号公報(第2−3頁、第1図)JP-A-8-194809 (page 2-3, FIG. 1)

しかしながら、これまでの監視カメラシステムでは、監視用のカメラは雲台により視角方向に回転できるようになっていたが、雲台による回転駆動には限界があり、対象となる監視範囲は限定されたものとなっていた。
また、回転するカメラによる監視では必ず監視されない死角ができてしまい、カメラを360度回転させたとしても、カメラ全周を同時に撮影・監視することはできなかった。
However, in conventional surveillance camera systems, the surveillance camera can be rotated in the viewing angle direction by the pan head, but there is a limit to the rotational drive by the pan head, and the target surveillance range is limited. It was a thing.
In addition, a blind spot that is not always monitored is produced by monitoring with a rotating camera, and even if the camera is rotated 360 degrees, the entire circumference of the camera cannot be imaged and monitored simultaneously.

さらに、従来の監視カメラシステムでは、周囲の状況・環境等によって監視効果が大きな影響を受けてしまい、特に、夜間の監視や新雪の積雪時の監視等の場合には、映像の解析によって監視対象物を識別・検知することはきわめて困難であった。しかも、夜間用の監視カメラは、通常、固定して設置されるため、死角が生じて、監視エリアを満遍なく撮影・監視することは不可能であった。
このように、従来の監視カメラシステムは、特に防犯システム,セキュリティ・システムとしては万全なものとはいえなかった。
Furthermore, in conventional surveillance camera systems, the monitoring effect is greatly affected by the surrounding conditions and environment, especially in the case of monitoring at night or when there is fresh snow, etc. It was extremely difficult to identify and detect objects. Moreover, since surveillance cameras for night use are usually fixedly installed, blind spots are generated, and it is impossible to shoot and monitor the surveillance area evenly.
Thus, the conventional surveillance camera system is not perfect as a security system and a security system.

本願発明者は、鋭意研究の結果、視角固定の全周カメラと視点方向を制御可能な狭角カメラをリンクさせることにより、監視範囲を可視可能な範囲全域に広げて、全体を監視しながら、同時に監視対象に対しては、拡大画像を得ることが可能となり、死角を無くして、監視対象エリアの全体を一枚の映像として表示し、画像の高解像度化と監視範囲の広域化の双方を同時に実現することができる監視カメラシステムに想到し、特願2005−218053号において「視角固定の全周カメラと視点方向を制御可能な狭角カメラをリンクさせた監視カメラシステム」を提案している。   As a result of earnest research, the inventor of the present application links the all-around camera with a fixed viewing angle and a narrow-angle camera capable of controlling the viewpoint direction to expand the monitoring range to the entire visible range, while monitoring the whole, At the same time, it is possible to obtain an enlarged image for the monitoring target, eliminate the blind spot, display the entire monitoring target area as a single image, and increase both the resolution of the image and the widening of the monitoring range. Inventing a surveillance camera system that can be realized simultaneously, Japanese Patent Application No. 2005-218053 proposes a "surveillance camera system in which a camera with a fixed viewing angle and a narrow-angle camera that can control the viewpoint direction are linked". .

本発明は、上記の本願発明者提案に係る監視カメラシステムを更に改良・発展させたものであり、監視対象を監視・撮影するカメラ等の計測器を車輌等の移動体に積載し、移動体を移動させつつ監視対象の映像を取得することにより、移動体とともに移動するカメラ等によって監視範囲を可視可能な範囲全域に広げつつ、全体を監視し、かつ、監視対象に対しては詳細な拡大画像を得ることができ、死角を無くし、監視対象エリアの全体を一枚の映像として表示することができ、カメラの高解像度化と監視範囲の広域化の双方を同時に実現できる、万全で漏れのない信頼性の高い監視システム,セキュリティ・システムを実現することができる移動型自動監視装置の提供を目的とする。   The present invention further improves and develops the monitoring camera system according to the above-mentioned proposal by the present inventor, and loads a measuring instrument such as a camera for monitoring and photographing a monitoring target on a moving body such as a vehicle. By acquiring the video of the monitoring target while moving the monitor, the monitoring range is expanded to the entire visible range with a camera that moves with the moving body, etc., and the whole is monitored, and the monitoring target is expanded in detail It is possible to obtain images, eliminate blind spots, display the entire monitored area as a single image, and realize both high resolution of the camera and widening of the monitoring range at the same time. The purpose is to provide a mobile automatic monitoring device that can realize a highly reliable monitoring system and security system.

上記目的を達成するため、本発明の移動型自動監視装置は、請求項1に記載するように、移動体に搭載され、移動体とともに移動して当該移動体周囲の空間情報を取得する空間情報取得部と、移動する移動体の三次元位置と姿勢を示す位置座標情報を取得する位置座標取得部と、移動体が移動する監視領域及び当該監視領域から前記空間情報取得部が空間情報を取得可能な領域の三次元地図を備えた三次元地図部と、移動体周囲の空間情報と、移動体の位置座標情報、及び監視領域の三次元地図に基づいて、移動体周囲の三次元空間情報を統合して統合空間情報を生成する統合空間情報部と、移動体周囲の前記統合空間情報と三次元地図とを対応させ、監視領域内にある監視対象物を検出し特定する自動検出部と、自動検出部で特定された監視対象物の所定の属性情報を認識する自動認識部と、移動体の移動に必要な画像情報と、自動検出部で特定された監視対象物の映像、及び自動認識部で属性認識された監視対象物のCG又は映像を、移動体から観察される視点と合致させて、実映像,実写映像又は三次元地図中に合成して表示する監視表示部と、監視表示部を介して表示される監視対象物の所定のデータを記録する記録部とを備える構成としてある。 In order to achieve the above object, a mobile automatic monitoring device according to the present invention is mounted on a mobile body and moves together with the mobile body to acquire spatial information around the mobile body. An acquisition unit, a position coordinate acquisition unit that acquires position coordinate information indicating the three-dimensional position and orientation of a moving moving body, a monitoring area where the moving body moves, and the spatial information acquisition unit acquires spatial information from the monitoring area 3D spatial information around the moving object based on the 3D map part with a 3D map of the possible area, the spatial information around the moving object, the position coordinate information of the moving object, and the 3D map of the monitoring area An integrated spatial information unit for generating integrated spatial information, an automatic detection unit for detecting and identifying a monitoring object in a monitoring area by associating the integrated spatial information around the moving object with a 3D map, and , Supervision identified by the automatic detection unit An automatic recognition unit for recognizing predetermined attribute information of an object, image information necessary for moving a moving object, a video of a monitoring target specified by an automatic detection unit, and a monitoring target whose attribute is recognized by an automatic recognition unit A monitor display unit that synthesizes and displays a CG or video of an object in a real video, a live-action video, or a three-dimensional map in accordance with a viewpoint observed from a moving object, and a monitor displayed via the monitor display unit And a recording unit that records predetermined data of the object.

また、本発明の移動型自動監視装置は、請求項2に記載するように、前記自動検出部で監視対象物として特定される対象物の大きさ,形状,位置等の変更が検出されると、当該変更を、前記三次元地図部の三次元地図情報及び/又は前記記録部の所定のデータに反映させる地図更新部を備える構成としてある。   In addition, as described in claim 2, the mobile automatic monitoring device of the present invention detects a change in the size, shape, position, etc. of the object specified as the monitoring object by the automatic detection unit. The map update unit is configured to reflect the change in the three-dimensional map information of the three-dimensional map unit and / or the predetermined data of the recording unit.

また、本発明の移動型自動監視装置は、請求項3に記載するように、前記自動検出部で特定された監視対象物の三次元座標と、前記位置座標取得部で取得される移動体の三次元座標に基づいて決定される当該監視対象物の方向に向けて、前記空間情報取得部に備えられる観測機器を駆動制御する視点方向コントロール部を備える構成としてある。   According to a third aspect of the present invention, the mobile automatic monitoring device of the present invention includes a three-dimensional coordinate of the monitoring object specified by the automatic detection unit and a moving object acquired by the position coordinate acquisition unit. A viewpoint direction control unit that drives and controls an observation device provided in the spatial information acquisition unit is set in the direction of the monitoring target determined based on the three-dimensional coordinates.

また、本発明の移動型自動監視装置は、請求項4に記載するように、空間情報取得部が、移動体周囲の映像を広範囲に取得する全周カメラ,指定方向に視点を向ける指定方向カメラ,レーザ光を走査して方向と距離を計測するレーザスキャン装置,レーダ波を発射して反射波の方向と距離を計測するレーダ装置等の各機器の一部又は全部を備え、昼夜、季節、天候等の状況に応じて、これら各機器を単独で又は任意の組み合わせにより、前記移動体周囲の空間情報を取得する構成としてある。   According to another aspect of the mobile automatic monitoring device of the present invention, as described in claim 4, the spatial information acquisition unit is an all-around camera that acquires a wide range of images around the moving body, and a specified direction camera that directs the viewpoint in a specified direction. , Equipped with a part or all of each device such as a laser scanning device that scans laser light to measure the direction and distance, a radar device that emits radar waves and measures the direction and distance of reflected waves, day and night, season, According to the situation such as the weather, these devices are configured to acquire spatial information around the moving body either alone or in any combination.

また、本発明の移動型自動監視装置は、請求項5に記載するように、前記自動検出部で特定された監視対象物と、前記自動認識部で認識された当該監視対象物の属性情報に基づいて、前記移動体の次の行動を決定する自動判断部と、前記自動判断部で決定された前記移動体の次の行動に従って、当該移動体を制御する自動制御部とを備えた構成としてある。   According to a fifth aspect of the present invention, there is provided the mobile automatic monitoring apparatus according to claim 5, wherein the monitoring target specified by the automatic detection unit and the attribute information of the monitoring target recognized by the automatic recognition unit are included. An automatic determination unit that determines the next action of the moving body, and an automatic control unit that controls the moving body according to the next action of the moving body determined by the automatic determination unit. is there.

さらに、本発明の移動型自動監視装置は、請求項6に記載するように、前記統合空間情報部が、前記空間情報取得部で取得される移動体周囲の空間情報と、前記位置座標取得部で取得される当該移動体の位置座標情報のみに基づいて、移動体周囲の三次元空間情報を統合して統合空間情報を生成するとともに、当該統合空間情報に基づいて、前記三次元地図部に備えられる三次元地図を生成する構成としてある。   Further, according to the mobile automatic monitoring device of the present invention, as described in claim 6, the integrated spatial information unit includes spatial information around the moving body acquired by the spatial information acquisition unit, and the position coordinate acquisition unit. Based on only the position coordinate information of the moving body acquired in step 3, the three-dimensional space information around the moving body is integrated to generate integrated space information, and the three-dimensional map unit is generated based on the integrated space information. It is as a structure which produces | generates the provided three-dimensional map.

以上のような構成からなる本発明の移動型自動監視装置によれば、まず、車輌等の移動体に搭載された全周カメラの映像で、監視対象物(予測される対象物、障害物、不審物等)を検出し、ズームカメラがそこにズームアップすることができる。これにより、全周カメラで不審物を発見し、その三次元位置を求めその座標に対してズームカメラがズームアップすることができる。また、既存の対象物に対しては、対象物をクリックすることで属性登録、属性更新、属性検索属性表示をすることができる。
これは、本出願人が先に出願した特願2005−218053号の「視角固定の全周カメラと視点方向を制御可能な狭角カメラをリンクさせた監視カメラシステム」に提案されており、本発明においてもその技術を一部分踏襲している。
According to the mobile automatic monitoring device of the present invention having the above-described configuration, first, in the video of the all-around camera mounted on a moving body such as a vehicle, the monitoring object (predicted object, obstacle, A suspicious object etc.) can be detected and the zoom camera can zoom up there. Thereby, a suspicious object is discovered with the all-around camera, the three-dimensional position is calculated | required, and a zoom camera can zoom up with respect to the coordinate. In addition, for existing objects, attribute registration, attribute update, and attribute search attribute display can be performed by clicking on the object.
This is proposed in Japanese Patent Application No. 2005-218053 filed earlier by the applicant of the present application, "Surveillance Camera System Linking a Peripheral Camera with Fixed Viewing Angle and a Narrow Angle Camera whose View Direction can be Controlled". The invention also partially follows the technology.

そして、本発明では、移動する車輌に積載した機器により、監視対象物や監視対象物(予測される対象物、障害物、不審物等)を監視するものであり、移動する車輌を停止させ、停止した状態で機器を作動させれば、画像処理に関する一部技術は上述した本出願人の先願(特願2005−218053号)記載の発明となる。なお、この場合には、先願における狭角カメラが、本発明の車輌に設置されるカメラ、又は既設のカメラと対応することになる。
しかしながら、上記先願では、監視用のカメラが所定位置に固定的に設置される場合を対象とするものであり、移動するカメラによる対象物の三次元計測と、監視対象物(予測される対象物、障害物、不審物等)の検出,認識等については提案されていない。
In the present invention, the monitoring object and the monitoring object (predicted object, obstacle, suspicious object, etc.) are monitored by the equipment loaded on the moving vehicle, the moving vehicle is stopped, If the device is operated in a stopped state, some techniques relating to image processing become the invention described in the above-mentioned prior application (Japanese Patent Application No. 2005-218053) of the present applicant. In this case, the narrow-angle camera in the prior application corresponds to the camera installed in the vehicle of the present invention or the existing camera.
However, the above-mentioned prior application is intended for the case where the monitoring camera is fixedly installed at a predetermined position, and the three-dimensional measurement of the object by the moving camera and the monitoring object Detection, recognition, etc. of objects, obstacles, suspicious objects, etc.) are not proposed.

そこで、本発明の移動型自動監視装置は、予め取得してある監視領域及びその周辺の三次元地図を基準とし、移動体に搭載したカメラで撮影される動画映像と比較し、移動体の三次元位置座標と姿勢を高精度に取得するようにしたものである。
また、本発明の移動型自動監視装置は、移動体に搭載したカメラで撮影される動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することで、多数の特徴点について重複演算してカメラ位置と回転角を示すCVデータを高精度に求めることができ、これによって、移動体に伴って移動するカメラの三次元位置座標を高精度に取得するようにしたものである。
これによって、車輌等の移動体に搭載したカメラによる監視対象物の三次元計測と、任意の監視対象物の検出・認識が可能となり、移動体とともに移動するカメラ等によって監視範囲を可視可能な範囲全域に広げつつ、全体を監視し、かつ、監視対象に対しては、詳細な拡大画像を得ることができるようになる。
Therefore, the mobile automatic monitoring device of the present invention is based on the monitoring area acquired in advance and the surrounding three-dimensional map as a reference, and compared with the moving image captured by the camera mounted on the moving body, The original position coordinates and orientation are obtained with high accuracy.
In addition, the mobile automatic monitoring device of the present invention automatically detects a sufficient number of feature points from a plurality of frame images of a moving image captured by a camera mounted on a moving body, and automatically tracks the feature points between frames. By doing this, it is possible to obtain the CV data indicating the camera position and the rotation angle with high accuracy by performing overlap calculation on a large number of feature points, and thereby the high-precision 3D position coordinates of the camera moving with the moving body It is something to get to.
As a result, it is possible to perform three-dimensional measurement of an object to be monitored by a camera mounted on a moving object such as a vehicle, and detection / recognition of an arbitrary object to be monitored. The entire image is monitored while being spread over the entire area, and a detailed enlarged image can be obtained for the monitoring target.

従って、本発明によれば、監視領域において、死角を無くし、しかも夜間等であっても、路面形状や監視対象物(予測される対象物、障害物、不審物等)等を確実に発見することができ、最も条件の悪い新雪の積雪状況等においても、走行しながら、又は停止して、任意の監視対象物の三次元形状を検出することが可能となる。
これにより、万全で漏れのない信頼性の高い監視システム,セキュリティ・システムを実現することができる。
Therefore, according to the present invention, in a monitoring area, a blind spot is eliminated, and a road surface shape, a monitoring object (a predicted object, an obstacle, a suspicious object, etc.) and the like are reliably detected even at night. It is possible to detect the three-dimensional shape of an arbitrary monitoring target while traveling or stopping even in the snow condition of fresh snow having the worst conditions.
As a result, it is possible to realize a complete and highly reliable monitoring system and security system.

本発明の移動型自動監視装置によれば、三次元地図を基準とし、又は三次元地図を生成しながら、動画映像の複数のフレーム画像から、カメラ位置、カメラ回転角等を高精度に示すCV(カメラベクトル)を演算により自動的に求め、移動するカメラの高精度の位置情報をリアルタイムに生成・取得することができ、得られた高精度の位置情報を用いて、カメラにより撮影・監視される監視対象物の三次元計測と、任意の監視対象物の検出・認識が行える。
これにより、移動体とともに移動するカメラ等によって監視範囲を可視可能な範囲全域に広げつつ、全体を監視し、かつ、監視対象に対しては詳細な拡大画像を得ることができ、死角を無くし、監視対象エリアの全体を一枚の映像として表示することができ、カメラの高解像度化と監視範囲の広域化の双方を同時に実現できる、万全で漏れのない信頼性の高い監視システム,セキュリティ・システムを提供することができる。
According to the mobile automatic monitoring apparatus of the present invention, a CV that indicates a camera position, a camera rotation angle, and the like with high accuracy from a plurality of frame images of a moving image while using a 3D map as a reference or generating a 3D map. (Camera vector) can be obtained automatically by calculation, and high-accuracy position information of the moving camera can be generated and acquired in real time, and the obtained high-accuracy position information is used to capture and monitor the camera. 3D measurement of monitored objects and detection / recognition of arbitrary monitored objects.
Thereby, while expanding the monitoring range to the entire visible range by a camera or the like that moves with the moving body, it is possible to monitor the whole and obtain a detailed enlarged image for the monitoring target, eliminate the blind spot, A complete and reliable monitoring system and security system that can display the entire monitored area as a single image and can simultaneously achieve both high resolution and wide monitoring range of the camera. Can be provided.

以下、本発明に係る移動型自動監視装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の移動型自動監視装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、映像中からの基準点や特徴点の自動抽出,抽出した基準点の自動追跡,基準点の三次元座標の算出,映像と三次元地図との比較,カメラベクトルの演算,監視対象物の自動検出・自動認識,監視対象物の三次元座標の算出,監視対象物画像のCG化等を行わせる。このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
Hereinafter, a preferred embodiment of a mobile automatic monitoring apparatus according to the present invention will be described with reference to the drawings.
Here, the mobile automatic monitoring apparatus of the present invention described below is realized by processing, means, and functions executed by a computer according to instructions of a program (software). The program sends commands to each component of the computer, and performs the following predetermined processing and functions such as automatic extraction of reference points and feature points from the video, automatic tracking of the extracted reference points, Calculation of 3D coordinates, comparison of video and 3D map, calculation of camera vectors, automatic detection / recognition of monitoring objects, calculation of 3D coordinates of monitoring objects, CG conversion of monitoring object images, etc. Make it. Thus, each process and means in the present invention are realized by specific means in which the program and the computer cooperate.
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed in the computer and executed. The The program can also be loaded and executed directly on a computer through a communication line without using a recording medium.

[基本構成]
まず、本発明の一実施形態に係る移動型自動監視装置の基本構成について図1を参照しつつ説明する。
図1は、本発明の一実施形態に係る移動型自動監視装置の基本構成を示すブロック図である。
同図に示す本実施形態の移動型自動監視装置1は、空間情報取得部10と、位置座標取得部20と、統合空間情報部30と、三次元地図部40と、自動検出部50と、地図更新部60と、視点方向コントロール部70と、自動認識部80と、監視表示部90と、データ記録部100と、自動判断部110と、自動制御部120とを備えている。
[Basic configuration]
First, a basic configuration of a mobile automatic monitoring apparatus according to an embodiment of the present invention will be described with reference to FIG.
FIG. 1 is a block diagram showing a basic configuration of a mobile automatic monitoring apparatus according to an embodiment of the present invention.
The mobile automatic monitoring apparatus 1 of this embodiment shown in the figure includes a spatial information acquisition unit 10, a position coordinate acquisition unit 20, an integrated spatial information unit 30, a three-dimensional map unit 40, an automatic detection unit 50, A map update unit 60, a viewpoint direction control unit 70, an automatic recognition unit 80, a monitoring display unit 90, a data recording unit 100, an automatic determination unit 110, and an automatic control unit 120 are provided.

空間情報取得部10は、車輌等の移動体(後述する図3〜図4に示す移動体10a参照)に積載されるカメラ,レーザスキャナ,レーダ等の空間を把握する機器・機材等からなり、監視区域を走行し、車輌周囲の三次元の空間情報をこれら複数の機器を切り替えて、又は組み合わせて使用することで、広範囲に亘って把握する。
具体的には、空間情報取得部10に備えられる計測機器類としては、車輌周囲の映像を広範囲に取得する全周カメラ(後述する図3〜図4参照)や、指定方向に視点を向ける指定方向カメラ、レーザ光を走査して方向と距離を計測するレーザスキャン装置、レーダ波を発射して反射波の方向と距離を計測するレーダ装置等があり、これら機器類が選択的に車輌等の移動体に搭載されて、監視領域の映像等の空間情報を取得する。
The spatial information acquisition unit 10 includes devices such as cameras, laser scanners, radars, and the like that are mounted on a moving body such as a vehicle (see the moving body 10a shown in FIGS. 3 to 4 described later). By traveling in the monitoring area and using three or more devices in combination or in combination, the three-dimensional spatial information around the vehicle is grasped over a wide range.
Specifically, as the measurement equipment provided in the spatial information acquisition unit 10, an all-around camera (see FIGS. 3 to 4 to be described later) that acquires a wide range of images around the vehicle, or designation that directs the viewpoint in a specified direction There are directional cameras, laser scanning devices that scan laser light to measure the direction and distance, radar devices that emit radar waves and measure the direction and distance of reflected waves, etc. It is mounted on a moving body and acquires spatial information such as a video of a monitoring area.

そして、これら機器類は、昼夜,季節,天候等の状況により、機器のうちの何れか、又はその組み合わせにより適切な機器を選択して、空間情報を取得することができ、後述する統合空間情報部40において、状況により適切な選択によって得られた空間情報から三次元空間情報を統合して生成することができる。
従って、昼間、夜間、晴れ、雨、雪等の様々な条件で空間情報を取得できるように、複数の機器を車輌に積載し、それらの機器を切り替えて、又は複合的に使用して、車輌周囲の空間情報を取得することが好ましい。
These devices can acquire spatial information by selecting an appropriate device by using any combination of the devices according to the conditions such as day and night, season, weather, etc., or a combination thereof. In the unit 40, the three-dimensional spatial information can be integrated and generated from the spatial information obtained by appropriate selection depending on the situation.
Therefore, a vehicle is loaded with a plurality of devices, and these devices are switched or used in combination so that spatial information can be acquired under various conditions such as daytime, nighttime, sunny, rain, snow, etc. It is preferable to obtain ambient spatial information.

空間情報の取得は、基本的には、車輌は走行しながら情報を取得するが、天候や路面等の条件が悪い場合には、車輌を適切な地点に停止させ、時間をかけて空間情報を取得するようにしてもよい。
視界の良い昼間であれば、広角カメラ又は全周囲カメラのみでも走行しながら良質な空間情報を取得できる。
夜間であれば、赤外線カメラを多数並べて空間情報を取得する。
また、特に積雪時には、映像の解析が困難となるためレーザスキャナが適切である。
また、レーザスキャナによる雪面への照射パタンを画像解析することで空間情報が取得できるので、積雪時、夜間時にはレーザスキャナは有効である。
Spatial information is basically acquired while the vehicle is running, but if conditions such as weather and road surface are bad, the vehicle is stopped at an appropriate point and the spatial information is taken over time. You may make it acquire.
In the daytime when the field of view is good, it is possible to acquire good spatial information while traveling with only a wide-angle camera or an all-around camera.
At night, spatial information is obtained by arranging a large number of infrared cameras.
In particular, when there is snow, it is difficult to analyze the image, so a laser scanner is appropriate.
In addition, since the spatial information can be acquired by analyzing the image of the irradiation pattern on the snow surface by the laser scanner, the laser scanner is effective during snowfall and at night.

位置座標取得部20は、GPSやIMU,ジャイロ等の既知の手段により、走行中の車輌の三次元座標と姿勢を取得する。
また、位置座標取得部20は、空間情報取得部10に備えられるカメラ(口述する全周カメラ部11)からの出力から、全周囲映像を用いてCV演算により求められたCV映像から、車輌の三次元座標と姿勢を示すCV値を生成・取得する。CV値を求めるCV演算の詳細については後述する(図2〜図14参照)。
The position coordinate acquisition unit 20 acquires the three-dimensional coordinates and posture of the traveling vehicle using known means such as GPS, IMU, and gyro.
In addition, the position coordinate acquisition unit 20 uses the CV image obtained by the CV calculation using the all-around video from the output from the camera (the all-around camera unit 11 to be dictated) provided in the spatial information acquisition unit 10, and Generate / acquire CV values indicating 3D coordinates and orientation. Details of the CV calculation for obtaining the CV value will be described later (see FIGS. 2 to 14).

さらに、位置座標取得部20は、後述する三次元地図部40に備えられる三次元地図の中の指定された点と空間情報との対応点を連続的に取ることができ、このようにすると、後述する特徴点追跡方式のCV演算を行う場合と比較して、より高速に位置情報を取得することができ、特に、リアルタイム処理には三次元地図を利用する後者の方が有利である。また、CV演算と三次元地図の両者を併用することで、互いに誤差を埋め合い、安定的にCV値を取得することができる。   Furthermore, the position coordinate acquisition unit 20 can continuously take corresponding points between designated points in the 3D map provided in the 3D map unit 40 to be described later and the spatial information. Compared with the case of performing a feature point tracking CV calculation described later, position information can be acquired at a higher speed. In particular, the latter using a three-dimensional map is more advantageous for real-time processing. Further, by using both the CV calculation and the three-dimensional map, errors can be compensated for and the CV value can be acquired stably.

ここで、三次元地図とリアルタイム取得した映像との対応は、映像上の特徴点を自動抽出しても良いが、前もって指定した指定点や、指定目的で用意したマーカを三次元地図の映像に写し込んでおくことで、空間情報の取得時に取得した指定点や同一マーカとの比較対応により、車輌の位置座標と姿勢を取得することができる。ここでは、指定点は三次元座標を持っていることが重要であり、指定点をリアルタイム取得した映像内に検出できれば、その点の三次元座標が取得できることを意味している。
指定目的で用意する指定点マーカとしては、丸や三角,四角等の単純な幾何学的パタン及びその組み合わせが好ましく、これらの幾何学パタンを視野に入る位置に設置しておく。
Here, the correspondence between the 3D map and the video acquired in real time may be to automatically extract the feature points on the video, but the specified points specified in advance and the markers prepared for the specified purpose are added to the video of the 3D map. By imprinting, it is possible to acquire the position coordinates and posture of the vehicle by comparison with the designated point and the same marker acquired when acquiring the spatial information. Here, it is important that the designated point has three-dimensional coordinates, which means that if the designated point can be detected in the video acquired in real time, the three-dimensional coordinates of the point can be obtained.
As the designated point marker prepared for the purpose of designation, a simple geometric pattern such as a circle, a triangle, or a square, or a combination thereof is preferable, and these geometric patterns are placed at positions that enter the field of view.

実写映像の指定点及び指定点マーカと三次元地図との対応で取得される車輌位置と姿勢は後述するCV値そのものであり、後述する特徴点追跡方式でCV演算して取得したCV値と全く同じ意味を持つ。
すなわち、空間情報として取得したリアルタイム映像は、三次元地図と比較することで、CV値を取得することができる。なお、この場合のCV値は、正確にはカメラ位置を示す値であるため、車輌位置との校正を必要とするが、それは両者の関係を維持する限り、一度校正すれば良いことになる。
The vehicle position and orientation acquired by the correspondence between the designated point of the live-action image and the designated point marker and the three-dimensional map are the CV values themselves, which will be described later, and completely the same as the CV values acquired by the CV calculation by the feature point tracking method described later. Have the same meaning.
That is, a real-time video acquired as spatial information can acquire a CV value by comparing with a three-dimensional map. In addition, since the CV value in this case is a value that accurately indicates the camera position, calibration with the vehicle position is required. However, as long as the relationship between the two is maintained, it is only necessary to calibrate once.

三次元地図部30は、CV映像やレーザスキャンデータ等により生成した、監視区域内に関するCV映像三次元地図を予め備えている。
三次元地図は、前もって監視区域内とその周囲を精密に測量して、精度の高い三次元地図を生成しておくことが好ましいが、空間情報取得部10と位置座標取得部20によって三次元地図を生成することも可能であり、精度は測量によるものに比較して落ちるものの、簡易的には十分利用することが可能である。従って、前もって用意した三次元地図が無くても、位置精度を問題にしなければ、監視目的は十分に達成できることになる。
The three-dimensional map unit 30 is previously provided with a CV video three-dimensional map related to the inside of the monitoring area, which is generated by CV video, laser scan data, or the like.
The three-dimensional map is preferably prepared in advance by accurately surveying the surrounding area and its surroundings to generate a highly accurate three-dimensional map. Can be generated, and although the accuracy is lower than that by surveying, it can be sufficiently used for simplicity. Therefore, even if there is no 3D map prepared in advance, the monitoring purpose can be sufficiently achieved if the position accuracy is not a problem.

すなわち、本実施形態の移動型自動監視装置1では、三次元地図部30を備えなくても、空間情報取得部10と位置座標取得部20のみで統合空間情報を取得することができる。精度の高い三次元地図を備える場合に比較すれば精度は落ちるが、統合空間情報を取得し、そこから三次元地図を生成することは可能である。
従って、初めは三次元地図部30を持たず、取得した統合空間情報から三次元地図を生成しつつ、監視を行うことも可能である。この場合、後述する地図更新部80によって新規に三次元地図が生成されることになり、次回以降からは、ここで生成された三次元地図が三次元地図部40として機能することになる。そして、次回からは、前回生成された三次元地図を三次元地図部40として利用して監視処理が行えるようになる。
That is, in the mobile automatic monitoring apparatus 1 of the present embodiment, integrated spatial information can be acquired only by the spatial information acquisition unit 10 and the position coordinate acquisition unit 20 without the 3D map unit 30. Compared to a case where a highly accurate 3D map is provided, the accuracy is lowered, but it is possible to acquire integrated spatial information and generate a 3D map therefrom.
Therefore, it is possible to perform monitoring while initially generating the 3D map from the acquired integrated spatial information without having the 3D map unit 30. In this case, a 3D map is newly generated by the map update unit 80 described later, and the 3D map generated here functions as the 3D map unit 40 from the next time onward. From the next time, the monitoring process can be performed by using the previously generated 3D map as the 3D map unit 40.

統合空間情報部40は、各種の計測機器で計測して得られた各種空間情報を、総合的に判断して統合して、統合された三次元の空間情報を生成し、さらに、車輌の三次元位置と姿勢、及び三次元地図との比較から、統合空間情報を生成する。
自動検出部50は、三次元地図と統合空間情報を比較して対応させ、地図に記載された監視対象物(予測される対象物)の存在を統合空間情報内に確認し、地図内の位置を割り出し、又は三次元地図には存在しない監視区域内の監視対象物(障害物、不審物)を発見し、地図内の位置を割り出し、特定する。
ここで、「検出」とは、監視対象物(予測される対象物、障害物、不審物等)を発見することをいい、「特定」とは、三次元地図に予め登録されている監視対象物を総合空間情報の中に存在を確認すること、又は、総合空間情報の中に監視対象物(予測される対象物、障害物、不審物等)を発見し、その位置と大まかな大きさを決定することをいう。
さらに、後述するように、「認識」とは、対象物の属性を確認したことをいう。
The integrated spatial information unit 40 comprehensively determines and integrates various types of spatial information obtained by measuring with various types of measuring devices, generates integrated three-dimensional spatial information, Integrated spatial information is generated from the comparison between the original position and orientation and the 3D map.
The automatic detection unit 50 compares the three-dimensional map with the integrated spatial information to correspond to each other, confirms the presence of the monitoring target (predicted target) described in the map in the integrated spatial information, and determines the position in the map. Or find a monitoring object (obstacle, suspicious object) in the monitoring area that does not exist in the 3D map, and determine and specify the position in the map.
Here, “detection” means finding a monitoring object (predicted object, obstacle, suspicious object, etc.), and “specific” means a monitoring object registered in advance in the 3D map. Confirm the presence of the object in the general space information, or discover the monitoring object (predicted object, obstacle, suspicious object, etc.) in the general space information, and its position and approximate size It means to decide.
Further, as will be described later, “recognition” means that the attribute of the object is confirmed.

視点方向コントロール部60は、自動検出部50により特定された監視対象物(予測される対象物、障害物、不審物等)の三次元座標と、車輌の三次元座標から、演算により決定される監視対象物(予測される対象物、障害物、不審物等)の方向に対して、詳細を検討するために観測機器を向けるようにコントロールする制御手段である。例えば、車輌に積載され狭角に設定されたビデオカメラにより、目標となる監視対象物(予測される対象物、障害物、不審物等)に向けるように、カメラの雲台やズームを駆動制御する。
また、視点方向コントロール部60は、監視対象物(予測される対象物、障害物、不審物等)が移動する場合には、カメラ等をその移動方向に追跡してコントロールする。
The viewpoint direction control unit 60 is determined by calculation from the three-dimensional coordinates of the monitoring object (predicted object, obstacle, suspicious object, etc.) specified by the automatic detection unit 50 and the three-dimensional coordinates of the vehicle. It is a control means for controlling the observation equipment to be directed in order to examine details with respect to the direction of the monitoring object (predicted object, obstacle, suspicious object, etc.). For example, a video camera mounted on a vehicle and set to a narrow angle drives and controls the camera platform and zoom so that it is directed to the target monitoring object (predicted object, obstacle, suspicious object, etc.) To do.
In addition, when the monitoring target object (predicted target object, obstacle, suspicious object, etc.) moves, the viewpoint direction control unit 60 tracks and controls the camera in the moving direction.

自動認識部70は、特定された監視対象物(予測される対象物、障害物、不審物等)情報の属性を認識する。
ここで、監視対象物の属性情報の「認識」とは、それがデータベースに登録されている記憶と対照されて、その属性を確認できたことをいう。
本実施形態では、自動認識部70として、PRM技術を利用することで関し対象物の属性認識処理を行うようにしてある(後述する図19のPRM認識部71参照)。
The automatic recognition unit 70 recognizes the attribute of the specified monitoring target (predicted target, obstacle, suspicious object, etc.) information.
Here, “recognition” of the attribute information of the monitoring target means that the attribute can be confirmed against the memory registered in the database.
In the present embodiment, as the automatic recognition unit 70, the object attribute recognition process is performed by using the PRM technology (see the PRM recognition unit 71 in FIG. 19 described later).

ここで、PRMとは、Parts Reconstruction Method(3D空間認識方法)の略であり、本願発明者により開発された対象物を認識するための技術である(国際出願PCT/JP01/05387号参照)。具体的には、PRM技術は、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する技術である。例えば、走行車輌等に必要となる対象物の「部品」は、道路標示としての車線、白線、黄線、横断道、道路標識としての速度標識、案内標識などであり、これらは定形のものであるので、PRM技術によりその認識は容易に行える。また、対象物をCV映像中に検索する場合においても、その対象物の存在する予想三次元空間を狭い範囲に限定することが可能となり、認識の効率化が可能となる。   Here, PRM is an abbreviation for Parts Reconstruction Method (3D space recognition method), and is a technique for recognizing an object developed by the present inventor (see International Application PCT / JP01 / 05387). Specifically, the PRM technology prepares all the shapes and attributes of the object to be predicted in advance as parts (operator parts), compares these parts with actual live-action images, and selects matching parts. Technology that recognizes objects. For example, “parts” of objects required for traveling vehicles and the like are lanes as road markings, white lines, yellow lines, crossing roads, speed signs as road signs, guide signs, etc. Therefore, the recognition can be easily performed by the PRM technology. In addition, even when searching for an object in a CV video, it is possible to limit the expected three-dimensional space in which the object exists to a narrow range, thereby improving recognition efficiency.

具体的には、信号機であれば、その三次元形状を取得しただけでは「検出」であり、座標と姿勢まで分かれば「特定」であるが、信号機という名称が分かり、3個のライトが赤青黄に変化し、それぞれの交通上の意味を理解しているときに、属性を理解(認識)したということができる。
なお、PRM認識によって、あらゆる監視対象物(予測される対象物、障害物、不審物等)が認識されるとは限らない。すなわち、記憶となるデータベースに情報が存在しない対象物は認識できない。しかし、これは特に問題となるものではない。人間であっても記憶にないものは認識できないのと同様である。認識とはそのもの、あるいは、そのものに近いものの記憶との対比によって得られるものであるからである。
但し、自動認識部70で認識できない場合に、本監視装置1のオペレータ(人間)が認識し、それを本監視装置1に登録・記憶させることは勿論可能であり、このようにすれば、それ以降は、当該対象物は自動認識部70によって自動認識されることになる。
Specifically, if it is a traffic light, it is “detection” only by acquiring its three-dimensional shape, and it is “specific” if the coordinates and orientation are known. It turns into blue-yellow, and it can be said that the attributes were understood (recognized) while understanding the meaning of each traffic.
Note that not all monitored objects (predicted objects, obstacles, suspicious objects, etc.) are recognized by PRM recognition. That is, an object whose information does not exist in the database to be stored cannot be recognized. However, this is not a problem. Even if it is a human being, it is the same as not being able to recognize what is not in memory. This is because recognition is obtained by comparing itself with memory of something close to itself.
However, when the automatic recognition unit 70 cannot recognize it, it is of course possible for the operator (human) of the monitoring apparatus 1 to recognize it and register / store it in the monitoring apparatus 1. Thereafter, the object is automatically recognized by the automatic recognition unit 70.

地図更新部80は、監視対象物(予測される対象物、障害物、不審物等)が消滅したり、形状が変更されていたり、又は監視対象物と特定した対象物、又は前もって登録されている対象物に、大きさ,形状,位置等の変更が検出された場合に、新たに三次元地図部30の地図に登録・反映する。
また、この地図更新部80によって、上述した「特定」だけでなく、「認識」まで進んだ対象物を新規登録する場合もある。
The map update unit 80 has a monitored object (predicted object, obstacle, suspicious object, etc.) disappeared, changed in shape, or identified as a monitored object, or registered in advance. When a change in size, shape, position, or the like is detected in a target object, it is newly registered and reflected in the map of the 3D map unit 30.
Further, the map update unit 80 may not only register “specification” as described above but also newly register an object that has advanced to “recognition”.

監視表示部90は、検出され、特定された監視対象物(予測される対象物、障害物、不審物等)を表示する表示手段であり、液晶その他のディスプレイ等で構成される。
具体的には、監視表示部90は、本監視装置1が搭載される車輌に走行案内上必要となる映像情報をCG化し、さらに本監視装置1で検出され、特定され、認識された監視対象物や、その属性を表示する。表示方法としては、(1)単独で実映像の中に表示する、(2)実写映像の中に表示する、(3)三次元地図の中に表示する等の方法がある。
The monitoring display unit 90 is a display means for displaying the detected and specified monitored objects (predicted objects, obstacles, suspicious objects, etc.), and includes a liquid crystal display or other displays.
Specifically, the monitoring display unit 90 converts the video information necessary for travel guidance to a vehicle on which the monitoring device 1 is mounted, and further detects, identifies and recognizes the monitoring target detected by the monitoring device 1. Display objects and their attributes. As display methods, there are methods such as (1) displaying alone in a real image, (2) displaying in a real image, and (3) displaying in a three-dimensional map.

以下、この(1)〜(3)の各表示方法について具体的に説明する。
まずここで、本監視装置1の車輌の走行上必要な画像情報とは、例えば、夜間の運転走行における昼間の映像のことであり、また、例えば冬季積雪時の運転走行における夏の映像のことである。
さらに、例えば霧などで視界が悪い場合の、視界が良い状況の映像のことである。
Hereinafter, the display methods (1) to (3) will be specifically described.
First, here, the image information necessary for traveling of the vehicle of the monitoring device 1 is, for example, a daytime image in driving at night, and a summer image in driving in winter snow, for example. It is.
Furthermore, it is an image with a good visibility when the visibility is poor due to fog, for example.

(1)の単独で実映像の中に表示する方法は、走行上必要となる画像情報をCG化し、さらには、本監視装置1で検出され、特定された監視対象物を、簡易図形化し、又は指定方向カメラによって高解像度で取得した映像から切り取り、さらには認識された監視対象物をCG化し、観測者(又は運転者)の実映像(実風景)の視野に合成して表示する。
観測者は自身の見ている実映像に、視点の矛盾無くCGを合成して観察することになる。
当然のことながら、この場合の車輌の動きは、例えばCV演算により取得したCV値(後述)により、位置座標と姿勢を実映像に矛盾無く合成することができる。
In the method (1) for displaying alone in the actual video, the image information necessary for traveling is converted to CG, and further, the monitoring object detected and identified by the monitoring device 1 is simplified to a simple figure, Alternatively, it is cut out from an image acquired at a high resolution by a camera in a specified direction, and the recognized monitoring object is converted into a CG, and is synthesized and displayed in the field of view of the actual image (actual landscape) of the observer (or driver).
The observer will synthesize and observe the CG with the actual video that he / she is viewing without any contradiction in the viewpoint.
As a matter of course, the movement of the vehicle in this case can synthesize the position coordinates and the posture without any contradiction with the actual video, for example, by the CV value (described later) acquired by the CV calculation.

(2)の実写映像の中に表示する方法は、走行上必要となる画像情報をCG化し、さらに本監視装置1で検出され、特定された監視対象物を、簡易図形化し、又は指定方向カメラにより高解像度で取得した映像から切り取り、さらには認識された監視対象物をCG化し、実写映像に合成して表示する。
観測者(運転者)はモニタ画面上に実写映像に合成されたCG画像を目に見ることになる。
この場合の車輌の動きは、(1)の場合と同様、例えばCV演算により取得したCV値により、位置座標と姿勢を実映像に矛盾無く合成することができる。
In the method (2), the image information necessary for traveling is converted into CG, and the monitoring object detected and identified by the monitoring device 1 is simplified in figure or designated direction camera. Is cut out from the video acquired at a high resolution, and the recognized monitoring object is converted into a CG, combined with a live-action video, and displayed.
The observer (driver) sees the CG image synthesized with the real image on the monitor screen.
As in the case of (1), the movement of the vehicle in this case can synthesize the position coordinates and the posture without contradiction with the actual video, for example, by the CV value acquired by the CV calculation.

(3)の三次元地図の中に表示する方法は、走行上必要となる画像情報をCG化し、さらに本監視装置1で検出され、特定された監視対象物を、簡易図形化し、又は指定方向カメラにより高解像度で取得した映像から切り取り、さらには認識された監視対象物をCG化し、実写映像に合成して表示する。
観測者(運転者)は、モニタ画面上に三次元地図に合成されたCG画像を見ることになる。
この場合の車輌の動きも、例えばCV演算により取得したCV値により、位置座標と姿勢を実映像に矛盾無く合成することができる。
The method of displaying in the three-dimensional map of (3) is to CG the image information necessary for traveling, and further to make the monitored object detected and identified by the monitoring device 1 into a simplified figure or designated direction The image is cut out from the video acquired with high resolution by the camera, and the recognized monitoring object is converted into a CG, combined with the actual video and displayed.
An observer (driver) sees a CG image combined with a three-dimensional map on the monitor screen.
The movement of the vehicle in this case can also synthesize the position coordinates and the posture without any contradiction, for example, from the CV value acquired by the CV calculation.

データ記録部100は、後の解析のために、監視対象物や、予測される対象物、障害物、不審物等のデータを記録するハードディスク等の記録媒体である。
なお、データ記録部100に記録されるデータとしては、監視表示部90を介して表示される画像データ等に加えて、後の判断のために参考となる情報として、判断精度と判断時間を向上させるために、判断の材料となった各種条件も同時に記録することが望ましい。
The data recording unit 100 is a recording medium such as a hard disk that records data on a monitoring target, a predicted target, an obstacle, a suspicious object, and the like for later analysis.
As data recorded in the data recording unit 100, in addition to image data and the like displayed via the monitoring display unit 90, determination accuracy and determination time are improved as reference information for later determination. Therefore, it is desirable to simultaneously record various conditions that have been used as a basis for judgment.

以上のような空間情報取得部10〜データ記録部100までの構成より、本監視装置1による自動監視の目的は達せられる。
ところで、車輌は人間が運転するのが一般的であるが、本実施形態に係る移動自動監視装置1は、当該車輌の走行路を正確に検出し、特定し、認識することができるので、運転の自動化が可能である。
すなわち、本監視装置1を搭載した車輌は、人間が運転しなくても、自分で走行路の状況を判断して走行する自動運転が可能である。
以下、本監視装置1により車輌の自動運転を行うための構成を説明する。
With the configuration from the spatial information acquisition unit 10 to the data recording unit 100 as described above, the purpose of automatic monitoring by the monitoring device 1 can be achieved.
By the way, although it is common for a vehicle to be driven by a human being, the mobile automatic monitoring device 1 according to the present embodiment can accurately detect, identify and recognize the traveling path of the vehicle. Can be automated.
That is, a vehicle equipped with the monitoring device 1 can be driven automatically by judging the condition of the traveling road by itself without driving by a human.
Hereinafter, a configuration for automatically driving the vehicle by the monitoring apparatus 1 will be described.

図1に示すように、自動運転に必要となる構成として、本実施形態の移動型自動監視装置1は、自動判断部110及び自動制御部120を備える。
自動判断部110は、自動検出部50で特定された結果と、自動認識部70で認識された結果とから判断して、車輌の次の行動を決定する判断手段である。
自動制御部120は、自動判断部110で判断された車輌の次の行動に沿って、車輌を制御する駆動制御手段である。
空間情報取得部10の監視目的は、車輌周辺の監視対象物(予測される対象物、障害物、不審物等)の空間情報取得であるが、特に自動運転においては、進行方向の路面状況をもその監視対象として取り上げ、車輌走行の路面状況の確認、及び路面上に監視対象物(予測される対象物、障害物、不審物等)等が存在するか否かを重点的に監視し、走行の安全を確保する必要がある。
As shown in FIG. 1, the mobile automatic monitoring device 1 according to this embodiment includes an automatic determination unit 110 and an automatic control unit 120 as a configuration necessary for automatic driving.
The automatic determination unit 110 is a determination unit that determines the next action of the vehicle by determining from the result specified by the automatic detection unit 50 and the result recognized by the automatic recognition unit 70.
The automatic control unit 120 is drive control means for controlling the vehicle in accordance with the next action of the vehicle determined by the automatic determination unit 110.
The monitoring purpose of the spatial information acquisition unit 10 is to acquire spatial information of monitoring objects (predicted objects, obstacles, suspicious objects, etc.) around the vehicle. Is also monitored as a monitoring target, monitoring the road surface conditions of vehicle travel, and monitoring whether there are monitoring objects (predicted objects, obstacles, suspicious objects, etc.) on the road, It is necessary to ensure driving safety.

自動判断部110では、自動検出部50で特定された結果によって、走行路の三次元形状が把握される。また、自動認識部70で認識された結果からは、対象物によりその属性が分かるので、その重要性や扱い方が分かる。
そこで、本監視装置1では、決められた監視対象物を監視しながら、監視対象物(予測される対象物、障害物、不審物等)を検出し、さらに同じ機器と方法で車輌の安全走行上必要な路面状況を自動判断しながら走行する。
そして、自動判断部110は、これらの情報から判断して、車輌の周囲の状況を理解し、予定走行路の確認、監視対象物(予測される対象物、障害物、不審物等)の有無等から車輌の次の行動を決定する。
例えば、監視対象物を危険物と判断して、急ぎ監視対象物から遠ざかるか、詳細検討のためにさらに近づき、周囲を周り、あるいは追跡して、各方向から観察するか否かを決定する。
The automatic determination unit 110 grasps the three-dimensional shape of the travel path based on the result specified by the automatic detection unit 50. Further, from the result recognized by the automatic recognizing unit 70, the attribute can be understood by the object, so that the importance and the handling method can be understood.
Therefore, the monitoring apparatus 1 detects a monitoring object (predicted object, obstacle, suspicious object, etc.) while monitoring a predetermined monitoring object, and further uses the same equipment and method to safely drive the vehicle. Drive while automatically judging the necessary road surface conditions.
Then, the automatic determination unit 110 makes a determination based on these pieces of information, understands the situation around the vehicle, confirms the planned traveling path, and checks whether there are objects to be monitored (predicted objects, obstacles, suspicious objects, etc.). The next action of the vehicle is determined from the above.
For example, the object to be monitored is determined to be a dangerous object, and it is determined whether to move away from the object to be monitored quickly or to approach further for detailed examination and to observe or trace the surroundings from each direction.

自動制御部120は、前記自動判断部で判断された前記車輌の次の行動にそって、車輌のステアリング、アクセル、ブレーキ等を制御して、自動運転をする。
なお、以上のような自動運転のための空間情報取得部10,位置座標取得部20、三次元地図部30,統合空間情報部40,自動検出部50,視点方向コントロール部60,自動認識部70,地図更新部80の各部は、自動運転を目的とする専用としても良い。但し、運転目的と監視目的とを分離して専用装置とすることで装置が増大することや、コストの点、さらには自動運転には本監視装置1とほぼ同様の機能が求められることから、監視目的と自動運転目的とを共用とすることが効率的であり好ましい。
従って、本実施形態及び以下に示す各実施形態では、空間情報取得部10,位置座標取得部20、三次元地図部30,統合空間情報部40,自動検出部50,視点方向コントロール部60,自動認識部70,地図更新部80は、自動運転のためのものと区別せず、共用とすることで説明してある。
The automatic control unit 120 controls the steering, accelerator, brake, etc. of the vehicle in accordance with the next action of the vehicle determined by the automatic determination unit to perform automatic driving.
Note that the spatial information acquisition unit 10, the position coordinate acquisition unit 20, the three-dimensional map unit 30, the integrated spatial information unit 40, the automatic detection unit 50, the viewpoint direction control unit 60, and the automatic recognition unit 70 for automatic driving as described above. Each part of the map updating unit 80 may be dedicated for the purpose of automatic driving. However, since the number of devices increases by separating the operation purpose and the monitoring purpose into a dedicated device, the cost, and further, the automatic operation requires almost the same function as the monitoring device 1, It is efficient and preferable to share the purpose of monitoring and the purpose of automatic driving.
Therefore, in this embodiment and each embodiment described below, the spatial information acquisition unit 10, the position coordinate acquisition unit 20, the three-dimensional map unit 30, the integrated spatial information unit 40, the automatic detection unit 50, the viewpoint direction control unit 60, the automatic The recognition unit 70 and the map update unit 80 are described as being shared without being distinguished from those for automatic driving.

[特徴点追跡方式CV演算]
次に、以上のような移動型自動監視装置1の位置座標取得部20におけるカメラの位置座標取得処理に用いられるCV演算(特徴点追跡方式CV演算)の詳細について図2〜図14を参照しつつ説明する。
ここで、CV演算とはCV値を求めることを意味し、求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:Camera Vectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
[Feature point tracking CV calculation]
Next, details of the CV calculation (feature point tracking method CV calculation) used in the position coordinate acquisition process of the camera in the position coordinate acquisition unit 20 of the mobile automatic monitoring apparatus 1 as described above will be described with reference to FIGS. I will explain.
Here, the CV calculation means obtaining a CV value, and the obtained result is referred to as CV value or CV data. The notation CV is an abbreviation for camera vector, and the camera vector (CV) is a value indicating a three-dimensional position and a three-axis rotation posture of a camera such as a video camera that acquires an image for measurement or the like. .
The CV calculation acquires a moving image (video image), detects a feature point in the image, tracks it in a plurality of adjacent frames, and creates a triangle formed by the camera position and the tracking locus of the feature point in the image. The three-dimensional position of the camera and the three-axis rotational posture of the camera are obtained by generating a large number of images and analyzing the triangle.

特徴点追跡方式のCV演算では、CV値を求める過程で、同時に映像内の特徴点(基準点)についても相対値の三次元座標が同時に求まることが重要な特性である。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
例えば、他の方法による計測手段(GPSやIMU等)では、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、しかも完全に同期しなければならないために、巨額の装置となり、実質的には実現が困難である。
In the CV calculation of the feature point tracking method, it is an important characteristic that, in the process of obtaining the CV value, simultaneously, the three-dimensional coordinates of the relative value are simultaneously obtained for the feature point (reference point) in the video.
Further, the CV value obtained by calculation from the moving image is obtained simultaneously with the three-dimensional camera position and the three-dimensional camera posture corresponding to each frame of the moving image. Moreover, in principle, the characteristic that a CV value is obtained corresponding to an image with a single camera is an excellent feature that can be realized only by CV calculation.
For example, in other measurement means (such as GPS and IMU), in order to simultaneously acquire each frame of a moving image and its three-dimensional camera position and three-dimensional camera posture, an image frame and a measurement sampling time are used. Since it has to be highly accurate and completely synchronized, it becomes a huge device, which is practically difficult to realize.

動画像から演算で求められるCVデータは、加工しない段階では相対値であるが、短区間であれば高精度で三次元位置情報と3軸回転の角度情報を取得できる。
また、CVデータは画像から取得するため、取得されたデータは相対値であるが、画像内の任意の対象物との位置関係を計測することができるという他の方法では実現は可能な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像内計測や測量において、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明の移動型自動監視装置は、このCV演算により得られたCV値データに基づいて移動体に搭載された監視用のカメラの位置座標情報を生成・取得するものである。
CV data obtained by calculation from a moving image is a relative value when not processed, but if it is a short section, three-dimensional position information and three-axis rotation angle information can be acquired with high accuracy.
In addition, since the CV data is acquired from the image, the acquired data is a relative value, but it can be realized by other methods that can measure the positional relationship with an arbitrary object in the image. With characteristics.
Further, since the CV value corresponding to the image can be obtained, the CV calculation capable of obtaining the camera position and its three-axis rotation posture directly from the image in the in-image measurement or survey is suitable for the in-image measurement or in-image survey. .
The mobile automatic monitoring apparatus of the present invention generates / acquires position coordinate information of the monitoring camera mounted on the moving body based on the CV value data obtained by the CV calculation.

[(特徴点追跡方式)CV演算部]
特徴点追跡方式CV演算は、上述した移動型自動監視装置1における位置座標取得部20(図1参照)や、後述する全周囲映像CV演算部20a(図19参照)として機能するCV演算部により行われる。
図2は、本発明の移動型自動監視装置の位置座標取得部として機能するCV演算部20の一実施形態の基本構成を示すブロック図である。
図2に示すように、CV演算部20は、空間情報取得部10から入力されるビデオ映像等について所定のCV演算処理を行うようになっており、具体的には、特徴点抽出部21と、特徴点対応処理部22と、カメラベクトル演算部23と、誤差最小化部24と、三次元情報追跡部25と、高精度カメラベクトル演算部26とを備えている。
そして、ここで得られたCV値は、統合空間情報部30に入力される。
[(Feature point tracking method) CV calculation unit]
The feature point tracking method CV calculation is performed by the position coordinate acquisition unit 20 (see FIG. 1) or the CV calculation unit functioning as the all-around video CV calculation unit 20a (see FIG. 19) to be described later. Done.
FIG. 2 is a block diagram showing a basic configuration of an embodiment of the CV calculation unit 20 that functions as a position coordinate acquisition unit of the mobile automatic monitoring apparatus of the present invention.
As shown in FIG. 2, the CV calculation unit 20 performs a predetermined CV calculation process on the video image or the like input from the spatial information acquisition unit 10. Specifically, the CV calculation unit 20 and the feature point extraction unit 21 , A feature point correspondence processing unit 22, a camera vector calculation unit 23, an error minimization unit 24, a three-dimensional information tracking unit 25, and a high-precision camera vector calculation unit 26.
Then, the CV value obtained here is input to the integrated space information unit 30.

まず、CV演算に使用する映像としては、どのような映像でもよいが、画角の限られた映像では視点方向を移動した場合に映像がとぎれてしまうので、全周映像(図3〜4参照)とすることが望ましい。なお、動画映像は連続する静止画と同様であり、連続静止画は動画映像と同様に扱うことができる。
また、映像は、移動型自動監視装置1の空間情報取得部10で取得される車輌の移動に合わせてリアルタイムに取り込んだ映像が使用されることになるが、リアルタイム監視の必要がない場合は、監視領域を予め撮影・記録した動画映像を使用することも勿論可能である。
First, any video may be used for the CV calculation. However, in the video with a limited angle of view, the video is interrupted when the viewpoint direction is moved. ) Is desirable. Note that a moving image is similar to a continuous still image, and a continuous still image can be handled in the same manner as a moving image.
In addition, as the video, a video captured in real time according to the movement of the vehicle acquired by the spatial information acquisition unit 10 of the mobile automatic monitoring device 1 is used, but when real-time monitoring is not necessary, Of course, it is also possible to use a moving image in which the monitoring area is previously captured and recorded.

本実施形態では、CV演算に使用する映像として、車輌等の移動体の360度の全周囲を撮影した全周映像(図3〜4参照)か、又は全周映像に近い広角映像を用いて全周映像の一部として扱い、CV演算を行うか、又はその全周映像を視点方向に平面展開することにより、CV演算を行うようにしてある。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図5(c)参照)、これを平面展開表示することで、通常の遠近法映像に変換表示できるからである。
In the present embodiment, as an image used for CV calculation, an all-around image (see FIGS. 3 to 4) obtained by photographing the entire 360 ° circumference of a moving body such as a vehicle, or a wide-angle image close to the all-around image is used. The CV calculation is performed by treating the image as a part of the all-around video and performing the CV calculation, or by developing the entire circumference video in a plane direction in the viewpoint direction.
The planar development of the all-around video is to express the all-around video as a normal image in perspective. Here, the term "perspective method" is used because the entire circumference image itself is displayed by a method different from the perspective method, such as the Mercator projection method and the spherical projection method (see FIG. 5C). This is because it can be converted and displayed as a normal perspective image by displaying it in a plane.

移動型自動監視装置1の空間情報取得部10において全周映像を生成するには、まず、図3及び図4に示すように、全周ビデオカメラ11を使用して、CV値データを取得する目的で、走行車輌等の移動体10aに固定された全周ビデオカメラ11で、移動体10aの移動とともに移動体周辺を撮影する。
なお、移動体10aには、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、移動体10aに搭載される全周ビデオカメラ11としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、図3及び図4に示すように、車輌に複数のカメラが一体的に固定され、移動体10aの移動に伴って広範囲映像を撮影する全周ビデオカメラ11を使用している。
In order to generate an omnidirectional video in the spatial information acquisition unit 10 of the mobile automatic monitoring device 1, first, as shown in FIGS. 3 and 4, the omnidirectional video camera 11 is used to acquire CV value data. For the purpose, the entire periphery video camera 11 fixed to the moving body 10a such as a traveling vehicle photographs the periphery of the moving body as the moving body 10a moves.
Note that the moving body 10a may be provided with a position measuring device or the like constituted by, for example, a GPS device alone or an IMU device to which absolute coordinates are acquired for the purpose of acquiring the position coordinates.
Further, the all-round video camera 11 mounted on the moving body 10a may have any configuration as long as it captures and acquires a wide range of images. For example, a wide-angle lens, a camera with a fisheye lens, a moving camera, There are a fixed camera, a camera in which a plurality of cameras are fixed, a camera that can rotate around 360 degrees, and the like. In this embodiment, as shown in FIGS. 3 and 4, a plurality of cameras are integrally fixed to the vehicle, and an all-round video camera 11 that captures a wide range image as the moving body 10 a moves is used. .

そして、以上のような全周ビデオカメラ11によれば、図4に示すように、移動体10aの天井部に設置されることで、カメラの360度全周囲の映像を複数のカメラで同時に撮影することができ、移動体10aが移動することで、広範囲映像を動画データとして取得できる。
ここで、全周ビデオカメラ11は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
Then, according to the all-around video camera 11 as described above, as shown in FIG. 4, 360-degree all-around video of the camera is simultaneously captured by a plurality of cameras by being installed on the ceiling of the moving body 10a. The moving body 10a moves, and a wide range video can be acquired as moving image data.
Here, the omnidirectional video camera 11 is a video camera that can directly acquire the omnidirectional video of the camera, but can be used as the omnidirectional video if more than half of the entire circumference of the camera can be acquired as video.
Even in the case of a normal camera with a limited angle of view, the accuracy of the CV calculation is reduced, but it can be handled as a part of the entire peripheral video.

なお、全周ビデオカメラ11で撮影された広範囲映像は、一枚の画像として、撮影時の画角に一致する仮想球面に貼り付けることができる。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図5(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
Note that the wide-range video imaged by the all-around video camera 11 can be pasted as a single image on a virtual spherical surface that matches the angle of view at the time of imaging.
The spherical image data pasted on the virtual spherical surface is stored and output as spherical image (360 degree image) data pasted on the virtual spherical surface. The virtual spherical surface can be set to an arbitrary spherical shape centered on the camera unit that acquires a wide range image.
FIG. 5A is an appearance image of a virtual spherical surface to which a spherical image is pasted, and FIG. 5B is an example of a spherical image pasted to the virtual spherical surface. FIG. 4C shows an example of an image obtained by developing the spherical image of FIG.

そして、以上のように生成・取得された全周ビデオ映像が、CV演算部20に入力されてCV値データが求められる(図2参照)。
CV演算部20では、まず、特徴点抽出部21が、全周ビデオ映像部10の全周ビデオカメラ11で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部22は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部23は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部24は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
Then, the all-round video image generated / acquired as described above is input to the CV calculation unit 20 to obtain CV value data (see FIG. 2).
In the CV calculation unit 20, first, the feature point extraction unit 21 has a sufficient number of feature points (references) from the moving image data that is captured and temporarily recorded by the all-around video camera 11 of the all-around video image unit 10. Point) is automatically extracted.
The feature point correspondence processing unit 22 automatically obtains the correspondence relationship by automatically tracking the feature points automatically extracted in each frame image between the frames.
The camera vector calculation unit 23 automatically calculates a camera vector corresponding to each frame image from the three-dimensional position coordinates of the feature points for which the correspondence relationship has been determined.
The error minimizing unit 24 performs statistical processing so that the solution distribution of each camera vector is minimized by overlapping calculation of a plurality of camera positions, and automatically determines the camera position direction subjected to the error minimizing process. .

三次元情報追跡部25は、カメラベクトル演算部23で得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで順次画像の一部として得られる三次元情報に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレームの画像に沿って自動追跡を行う。ここで、三次元情報(三次元形状)とは、主に特徴点の三次元分布情報であり、すなわち、三次元の点の集まりであり、この三次元の点の集まりが三次元形状を構成する。
高精度カメラベクトル演算部26は、三次元情報追跡部25で得られた追跡データに基づいて、カメラベクトル演算部23で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、後述する移動型自動監視装置1に入力され、位置座標取得処理及び統合空間情報処理に利用されることになる。
The three-dimensional information tracking unit 25 positions the camera vector obtained by the camera vector calculation unit 23 as an approximate camera vector, and based on the three-dimensional information sequentially obtained as part of the image in the subsequent process, a plurality of frame images 3D information is automatically tracked along an image of an adjacent frame. Here, three-dimensional information (three-dimensional shape) is mainly three-dimensional distribution information of feature points, that is, a collection of three-dimensional points, and this collection of three-dimensional points constitutes a three-dimensional shape. To do.
The high-precision camera vector calculation unit 26 generates and outputs a higher-precision camera vector than the camera vector obtained by the camera vector calculation unit 23 based on the tracking data obtained by the three-dimensional information tracking unit 25.
Then, the camera vector obtained as described above is input to the mobile automatic monitoring apparatus 1 to be described later and used for the position coordinate acquisition process and the integrated space information process.

複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するには幾つかの方法があるが、図2に示す本実施形態のCV演算部20では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、エピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
There are several methods for detecting a camera vector from feature points of a plurality of images (moving images or continuous still images). In the CV calculation unit 20 of the present embodiment shown in FIG. By automatically extracting a number of feature points and automatically tracking them, a three-dimensional vector and a three-axis rotation vector of the camera are obtained by epipolar geometry.
By taking a sufficient number of feature points, camera vector information is duplicated, and an error can be minimized from the duplicated information to obtain a more accurate camera vector.

カメラベクトルとは、カメラの持つ自由度のベクトルである。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
A camera vector is a vector of degrees of freedom possessed by a camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
Thus, the detection of the camera vector in the present embodiment means that the camera takes six degrees of freedom values for each frame and determines six different degrees of freedom for each frame.

以下、CV演算部20における具体的なカメラベクトルの検出方法について、図6以下を参照しつつ説明する。
まず、上述した空間情報取得部10の全周ビデオカメラ11で取得された画像データは、間接に又は直接に、CV演算部20の特徴点抽出部21に入力され、特徴点抽出部21で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部22で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図6〜図8に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図8に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図9に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図9の○印参照)、例えば、100点程度の特徴点を抽出する。
Hereinafter, a specific camera vector detection method in the CV calculation unit 20 will be described with reference to FIG.
First, the image data acquired by the all-round video camera 11 of the spatial information acquisition unit 10 described above is input to the feature point extraction unit 21 of the CV calculation unit 20 indirectly or directly. A point or a small area image that should be a feature point is automatically extracted from a frame image that is appropriately sampled, and a feature point correspondence processing unit 22 automatically obtains a correspondence relationship between feature points among a plurality of frame images. .
Specifically, more than a sufficient number of feature points that are used as a reference for detecting a camera vector are obtained. Examples of feature points between images and their corresponding relationships are shown in FIGS. In the figure, “+” is a feature point that is automatically extracted, and the correspondence is automatically tracked between a plurality of frame images (see correspondence points 1 to 4 shown in FIG. 8).
Here, for extracting feature points, as shown in FIG. 9, it is desirable to specify and extract a sufficiently large number of feature points in each image (see circles in FIG. 9). For example, about 100 feature points are extracted. Extract points.

続いて、カメラベクトル演算部23で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラベクトル演算部23は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
Subsequently, the camera vector calculation unit 23 calculates the three-dimensional coordinates of the extracted feature points, and calculates the camera vector based on the three-dimensional coordinates. Specifically, the camera vector calculation unit 23 includes a sufficient number of feature positions that exist between successive frames, a position vector between moving cameras, a three-axis rotation vector of the camera, and each camera position and feature. Relative values of various three-dimensional vectors such as vectors connecting points are continuously calculated by calculation.
In this embodiment, for example, camera motion (camera position and camera rotation) is calculated by solving an epipolar equation from the epipolar geometry of a 360-degree all-round image.

図8に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
Images 1 and 2 shown in FIG. 8 are images obtained by Mercator expansion of 360-degree all-round images. When latitude φ and light θ are assumed, points on image 1 are (θ1, φ1) and points on image 2 are ( θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). If the camera movement vector is t and the camera rotation matrix is R, z1T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.

ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、図8に示す360度全周画像のような広角画像の方が特徴点を数多く選択し易くなる。そこで、本実施形態では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図8は、CV演算部20における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
Here, it is preferable to use a 360-degree all-round image as an image used for the calculation of the camera vector.
The image used for the camera vector calculation may be any image in principle, but a wide-angle image such as a 360-degree all-round image shown in FIG. 8 makes it easier to select many feature points. Therefore, in this embodiment, a 360-degree all-round image is used for the CV calculation, whereby the tracking distance of the feature points can be increased, and a sufficiently large number of feature points can be selected. It becomes possible to select a feature point convenient for each short distance. In addition, when correcting the rotation vector, the calculation process can be easily performed by adding the polar rotation conversion process. As a result, a calculation result with higher accuracy can be obtained.
In FIG. 8, in order to make it easy to understand the processing in the CV calculation unit 20, a 360-degree all-round spherical image obtained by synthesizing images taken by one or a plurality of cameras is developed by a Mercator projection called map projection. However, in an actual CV calculation, it is not necessarily a developed image by the Mercator projection.

次に、誤差最小化部24では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
Next, the error minimizing unit 24 calculates a plurality of vectors based on each feature point according to a plurality of calculation equations based on the plurality of camera positions and the number of feature points corresponding to each frame, Statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized to obtain a final vector. For example, the optimal solution of the least square method is estimated by the Levenberg-Marquardt method for multiple frames of camera position, camera rotation, and multiple feature points, and the error is converged to obtain the camera position, camera rotation matrix, and feature point coordinates. .
Further, feature points having a large error distribution are deleted, and recalculation is performed based on other feature points, thereby improving the accuracy of computation at each feature point and camera position.
In this way, the position of the feature point and the camera vector can be obtained with high accuracy.

図10〜図12に、CV演算により得られる特徴点の三次元座標とカメラベクトルの例を示す。図10〜図12は、本実施形態のCV演算によるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図10では、図8の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図11及び図12は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
10 to 12 show examples of the three-dimensional coordinates of feature points and camera vectors obtained by CV calculation. 10 to 12 are explanatory diagrams showing the vector detection method by the CV calculation according to the present embodiment, and showing the relative positional relationship between the camera and the object obtained from a plurality of frame images acquired by the moving camera. FIG.
FIG. 10 shows the three-dimensional coordinates of the feature points 1 to 4 shown in the images 1 and 2 in FIG. 8 and the camera vector (X, Y, Z) that moves between the images 1 and 2.
11 and 12 show a sufficiently large number of feature points, the positions of the feature points obtained from the frame image, and the position of the moving camera. In the figure, a circle mark that continues in a straight line at the center of the graph is the camera position, and a circle mark located around the circle indicates the position and height of the feature point.

ここで、CV演算部20におけるCV演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図13に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、CV演算部20では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
Here, in the CV calculation in the CV calculation unit 20, in order to obtain more accurate three-dimensional information of feature points and camera positions at a high speed, as shown in FIG. Set feature points and repeat multiple operations.
Specifically, the CV calculation unit 20 automatically detects a feature point having a video feature in an image, and obtains a corresponding point of the feature point in each frame image. And the n + m-th two frame images Fn and Fn + m are used as unit calculations, and unit calculations with n and m appropriately set can be repeated.
m is the frame interval, and the feature points are classified into a plurality of stages according to the distance from the camera to the feature point in the image. The distance from the camera to the feature point is set so that m becomes larger. It is set so that m is smaller as the distance to is shorter. This is because the change in position between images is less as the distance from the camera to the feature point is longer.

そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
Then, while sufficiently overlapping the classification of the feature points by the m value, a plurality of stages of m are set, and as n progresses continuously with the progress of the image, the calculation proceeds continuously. Then, the overlap calculation is performed a plurality of times for the same feature point in each step of n and m.
In this way, by performing unit calculation focusing on the frame images Fn and Fn + m, a precise camera vector is calculated over a long time between frames sampled every m frames (frames are dropped). However, in m frames (minimum unit frames) between the frame images Fn and Fn + m, a simple calculation that can be performed in a short time can be performed.

m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
If there is no error in the precision camera vector calculation for every m frames, both ends of the camera vector of the m frames overlap with the Fn and Fn + m camera vectors that have been subjected to the high precision calculation. Accordingly, m minimum unit frames between Fn and Fn + m are obtained by a simple calculation, and both ends of the camera vector of the m minimum unit frames obtained by the simple calculation are Fn and Fn + m obtained by high precision calculation. The scale adjustment of m consecutive camera vectors can be made to match the camera vectors.
In this way, as n progresses continuously with the progress of the image, the scale adjustment is performed so that the error of each camera vector obtained by calculating a plurality of times for the same feature point is minimized, and integration is performed. A camera vector can be determined. Accordingly, it is possible to speed up the arithmetic processing by combining simple arithmetic operations while obtaining a highly accurate camera vector having no error.

ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
Here, there are various simple calculation methods depending on the accuracy. For example, when (1) many feature points of 100 or more are used in high-precision calculation, the minimum number of simple calculation is about ten. (2) Even if the number of the same feature points is the same as the feature points and camera positions, innumerable triangles are established there, and equations for that number are established. By reducing the number of equations, it can be simplified.
In this way, integration is performed by adjusting the scale so that the error of each feature point and camera position is minimized, distance calculation is performed, and feature points with large error distribution are deleted, and other features are added as necessary. By recalculating the points, the calculation accuracy at each feature point and camera position can be improved.

また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。   In addition, by performing high-speed simple calculation in this way, camera vector real-time processing becomes possible. In real-time processing of camera vectors, calculation is performed with the minimum number of frames that can achieve the target accuracy and the minimum number of feature points that are automatically extracted, the approximate value of the camera vector is obtained and displayed in real time, and then the image is accumulated. Accordingly, the number of frames can be increased, the number of feature points can be increased, camera vector calculation with higher accuracy can be performed, and approximate values can be replaced with camera vector values with higher accuracy for display.

さらに、本実施形態では、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行うことができる。
具体的には、まず、三次元情報追跡部25で、カメラベクトル演算部23,誤差最小化部24を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部25で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部26においてより高精度なカメラベクトルが求められる。
Furthermore, in this embodiment, it is possible to track three-dimensional information (three-dimensional shape) in order to obtain a more accurate camera vector.
Specifically, first, the three-dimensional information tracking unit 25 positions the camera vector obtained through the camera vector calculation unit 23 and the error minimization unit 24 as an approximate camera vector, and the image generated in the subsequent process. Based on the three-dimensional information (three-dimensional shape) obtained as a part, partial three-dimensional information included in a plurality of frame images is continuously tracked between adjacent frames to automatically track the three-dimensional shape.
Then, from the tracking result of the three-dimensional information obtained by the three-dimensional information tracking unit 25, a high-precision camera vector is obtained by the high-precision camera vector calculation unit 26.

上述した特徴点抽出部21及び特徴点対応処理部22では、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部23により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
In the feature point extraction unit 21 and the feature point correspondence processing unit 22 described above, feature points are automatically tracked in a plurality of inter-frame images, but the number of feature point tracking frames is limited due to disappearance of feature points. May come. In addition, since the image is two-dimensional and the shape changes during tracking, there is a certain limit in tracking accuracy.
Therefore, the camera vector obtained by the feature point tracking is regarded as an approximate value, and the three-dimensional information (three-dimensional shape) obtained in the subsequent process is traced on each frame image, and a high-precision camera vector is obtained from the trajectory. Can do.
The tracking of 3D shapes is easy to obtain matching and correlation accuracy, and the 3D shape does not change in size and size depending on the frame image, so it can be tracked over many frames. The accuracy of the camera vector calculation can be improved. This is possible because the approximate camera vector is already known by the camera vector calculation unit 23 and the three-dimensional shape is already known.

カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。   When the camera vector is an approximate value, the error of 3D coordinates over a very large number of frames is small because there are few frames related to each frame by feature point tracking. The error of the three-dimensional shape when a part of the image is cut is relatively small, and the influence on the change and size of the shape is considerably small. For this reason, the comparison and tracking in the three-dimensional shape is extremely advantageous over the two-dimensional shape tracking. In tracking, when tracking with 2D shape, tracking changes in shape and size in multiple frames are unavoidable, so there are problems such as large errors and missing corresponding points. However, in tracking with a three-dimensional shape, there is very little change in shape, and in principle there is no change in size, so accurate tracking is possible.

ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
Here, as the three-dimensional shape data to be tracked, there are, for example, a three-dimensional distribution shape of feature points, a polygon surface obtained from the three-dimensional distribution shape of feature points, and the like.
It is also possible to convert the obtained three-dimensional shape from a camera position into a two-dimensional image and track it as a two-dimensional image. Since the approximate value of the camera vector is known, projection conversion can be performed on a two-dimensional image from the camera viewpoint, and it is also possible to follow a change in the shape of the object due to movement of the camera viewpoint.

以上のようにして求められたカメラベクトルは、全周ビデオカメラ11で撮影されたビデオ映像中に重ねて表示することができる。
例えば、図14に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねた表示した画像例を図14に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図14に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
The camera vector obtained as described above can be displayed in an overlapping manner in the video image shot by the all-round video camera 11.
For example, as shown in FIG. 14, the image from the in-vehicle camera is developed in a plane, the corresponding points on the target plane in each frame image are automatically searched, and the corresponding points are combined to match the target plane. A combined image is generated and displayed in the same coordinate system.
Furthermore, the camera position and the camera direction can be detected one after another in the common coordinate system, and the position, direction, and locus can be plotted. The CV data indicates the three-dimensional position and the three-axis rotation, and the CV value can be observed simultaneously in each frame of the video image by displaying it over the video image. An example of an image displayed by superimposing CV data on a video image is shown in FIG.
If the camera position is correctly displayed in the video image, the position in the video image indicated by the CV value is the center of the image, and if the camera movement is close to a straight line, the CV values of all frames are displayed overlapping. Therefore, for example, as shown in FIG. 14, it is appropriate to display a position of 1 meter right below the camera position. Alternatively, it is more appropriate to display the CV value at the height of the road surface based on the distance to the road surface.

[三次元指定点対応方式CV演算]
次に、以上のような特徴点追跡方式のCV演算の応用である三次元指定点対応方式のCV演算について、図15〜図18を参照しつつ具体的に説明する。
なお、以下に示す三次元指定点対応方式CV演算の説明においては、CV値が既知であるCV映像三次元地図を基準映像とし、CV値が未知であるリアルタイムで取得された映像を比較映像として使用している。
[Three-dimensional designated point correspondence method CV calculation]
Next, the three-dimensional designated point corresponding method CV calculation, which is an application of the above feature point tracking method CV calculation, will be described in detail with reference to FIGS.
In the following description of the CV calculation for the three-dimensional designated point correspondence method, a CV video three-dimensional map with a known CV value is used as a reference video, and a video acquired in real time with an unknown CV value is used as a comparative video. I use it.

まず、図15〜図17を参照して、上述した移動型自動監視装置1の統合空間情報部10において高速CV演算を行うための三次元指定点対応CV演算について説明する。
図15は、三次元指定点対応方式のCV演算を行うCV演算部100の基本構成を示すブロック図である。また、図16及び図17は、図15に示す三次元指定点対応方式のCV演算部100の詳細を示すブロック図である。
First, with reference to FIG. 15 to FIG. 17, the three-dimensional designated point corresponding CV calculation for performing the high-speed CV calculation in the integrated space information unit 10 of the mobile automatic monitoring apparatus 1 described above will be described.
FIG. 15 is a block diagram showing a basic configuration of the CV calculation unit 100 that performs CV calculation of the three-dimensional designated point correspondence method. 16 and 17 are block diagrams showing details of the CV calculation unit 100 of the three-dimensional designated point correspondence method shown in FIG.

[(三次元指定点対応方式)CV演算]
図15に示すように、三次元指定点対応方式のCV演算部100は、リアルタイム映像をCV映像三次元地図(三次元地図)の座標に統合するための装置であり、具体的には、CV映像三次元地図部101と、CV付加部102と、三次元指定点指定部103と、リアルタイム映像部104と、初期位置設定部105と、三次元指定点対応部106と、対応指定点追跡部107と、CV取得部108と、座標統合部109を備えている。
[(Three-dimensional designated point correspondence method) CV calculation]
As shown in FIG. 15, the CV calculation unit 100 of the three-dimensional designated point correspondence method is a device for integrating the real-time video into the coordinates of the CV video three-dimensional map (three-dimensional map). Video three-dimensional map unit 101, CV adding unit 102, three-dimensional designated point designating unit 103, real-time video unit 104, initial position setting unit 105, three-dimensional designated point correspondence unit 106, correspondence designated point tracking unit 107, a CV acquisition unit 108, and a coordinate integration unit 109.

CV映像三次元地図部101は、撮影した動画映像からなるCV映像三次元地図(三次元地図)を基準映像として保持する。
CV付加部102は、CV映像三次元地図部101から入力されるCV映像三次元地図の各フレームに対して、上述したCV演算(特徴点追跡方式CV演算)を行い、絶対座標で校正されたCV値(カメラ位置と姿勢の三次元値)を付加する。これはCV映像三次元地図部を作成するときに前もって演算し、付加しておくことが望ましい。
三次元指定点指定部103は、CV付加部102で絶対座標を持つCV値が付加されたCV映像三次元地図の中に、自動又は手動で任意の三次元指定点を指定し、付加されたCV値に基づいて、指定された任意の三次元指定点の三次元座標を取得する。
The CV video three-dimensional map unit 101 holds a CV video three-dimensional map (three-dimensional map) made up of a captured video image as a reference video.
The CV adding unit 102 performs the above-described CV calculation (feature point tracking method CV calculation) on each frame of the CV video three-dimensional map input from the CV video three-dimensional map unit 101, and is calibrated with absolute coordinates. A CV value (a three-dimensional value of the camera position and orientation) is added. This is preferably calculated and added in advance when the CV video 3D map part is created.
The three-dimensional designated point designating unit 103 designates an arbitrary three-dimensional designated point automatically or manually in the CV video three-dimensional map to which the CV value having the absolute coordinates is added by the CV adding unit 102 and added. Based on the CV value, the three-dimensional coordinates of an arbitrary designated three-dimensional designated point are acquired.

リアルタイム映像部104は、CV映像三次元地図部101に保持されているCV映像三次元地図と比較すべき、動画映像からなるリアルタイム映像を比較映像として保持する。
初期位置設定部105は、CV映像三次元地図とリアルタイム映像との中の共通地点の対応関係を自動又は手動で初期設定する。
三次元指定点対応部105は、初期位置設定部105で初期設定されたフレームから開始する動画像の各フレームに亘って、三次元指定点指定部103で指定されたCV映像三次元地図の中の三次元指定点に対応する部分を、リアルタイム映像の中に自動的に対応付け、各フレームに亘って対応指定点を探索し続ける。
対応指定点追跡部107は、三次元指定点対応部106で対応付けられた対応指定点を、リアルタイム映像の進行する各フレームに亘って追跡する。
The real-time video unit 104 holds, as a comparison video, a real-time video composed of a moving video to be compared with the CV video 3D map held in the CV video 3D map unit 101.
The initial position setting unit 105 automatically or manually initializes the correspondence between common points in the CV video 3D map and the real-time video.
The three-dimensional designated point corresponding unit 105 includes a CV video three-dimensional map specified by the three-dimensional designated point specifying unit 103 over each frame of a moving image starting from the frame initially set by the initial position setting unit 105. The part corresponding to the three-dimensional designated point is automatically associated in the real-time video, and the corresponding designated point is continuously searched over each frame.
The correspondence designated point tracking unit 107 tracks the correspondence designated points associated by the three-dimensional designated point correspondence unit 106 over each frame in which the real-time video proceeds.

CV取得部108は、対応指定点の対応結果により、CV映像三次元地図の三次元指定点の三次元座標が、リアルタイム映像の対応指定点に移植され、その結果から初期設定部のリアルタイム映像のCV値を、上述したCV演算(特徴点追跡方式CV演算)によって求め、追跡により各フレームに亘ってCV値を求める。すなわち、CV取得部108は、三次元指定点対応部と対応指定点追跡部により、CV映像三次元地図とリアルタイム映像との対応がついたことで、CV映像三次元地図の指定点の三次元座標がリアルタイム映像に移植されたことになり、それが三点以上有れば、リアルタイム映像のカメラ位置と姿勢が求められ、CV値を取得することができる。実際には、数十点以上の対応を求めることで精度を上げることが望ましい。
座標統合部109は、CV付加部102でCV値が付加されたCV映像三次元地図と、CV取得部108でCV値が求められたリアルタイム映像とを、同一の座標系に座標統合させる。
The CV acquisition unit 108 transplants the three-dimensional coordinates of the three-dimensional designated point of the CV video three-dimensional map to the correspondence designated point of the real-time video based on the correspondence result of the correspondence designated point. The CV value is obtained by the above-described CV calculation (feature point tracking method CV calculation), and the CV value is obtained over each frame by tracking. That is, the CV acquisition unit 108 is configured such that the correspondence between the CV video three-dimensional map and the real-time video is obtained by the three-dimensional designated point correspondence unit and the correspondence designated point tracking unit. If the coordinates are transplanted to the real-time video and there are three or more points, the camera position and orientation of the real-time video can be obtained, and the CV value can be acquired. In practice, it is desirable to increase the accuracy by obtaining a response of several tens of points.
The coordinate integration unit 109 coordinate-integrates the CV video 3D map to which the CV value is added by the CV addition unit 102 and the real-time video from which the CV value is obtained by the CV acquisition unit 108 in the same coordinate system.

[座標統合処理]
以下、三次元指定点対応方式のCV演算部100におけるCV映像三次元地図とリアルタイム映像の映座標統合処理(座標統合方法)について説明する。
まず、三次元指定点対応方式のCV演算部100のシステム全体の効率化を考慮すれば、前もって演算可能なCV映像三次元地図(三次元地図)側に負担を与えたとしても、リアルタイム処理を行うリアルタイム映像(リアルタイム映像)側の演算の負担を軽くする必要がある。
そこで、リアルタイム映像部104,初期位置設定部105及び三次元指定点対応部106によるリアルタイム演算が可能となるように、前もって演算可能な部分については、可能な限りCV映像三次元地図側での演算として予め処理を行っておくことが好ましい。
[Coordinate integration processing]
Hereinafter, the projection coordinate integration process (coordinate integration method) of the CV video three-dimensional map and the real-time video in the CV calculation unit 100 of the three-dimensional designated point correspondence method will be described.
First, considering the efficiency of the entire system of the CV calculation unit 100 of the three-dimensional designated point correspondence method, even if a burden is imposed on the CV video three-dimensional map (three-dimensional map) that can be calculated in advance, real-time processing is performed. It is necessary to reduce the burden of computation on the real-time video (real-time video) side to be performed.
Therefore, in order to enable real-time calculation by the real-time video unit 104, the initial position setting unit 105, and the three-dimensional designated point correspondence unit 106, the calculation on the CV video three-dimensional map side is performed as much as possible. It is preferable to perform the process in advance.

三次元指定点対応部106においては、対応指定点の対応関係を、全フレームに亘って探索することで、リアルタイム映像側に対応指定点の三次元座標の移植を行うことができ、これによって、リアルタイム映像について、各フレーム単位でCV値が取得できることになる。
三角形の原理から、一枚のフレームに付き最低三点の三次元座標の移植が有れば、CV値は演算で求められるが、精度を確保するためには、数十点以上の移植が必要である。
また、三次元指定点は三次元座標を持っており、リアルタイム映像のCV値と同じCV値に視点変更が可能であるから、CV映像三次元地図とリアルタイム映像の対応が容易になる。
In the three-dimensional designated point correspondence unit 106, the correspondence relationship between the correspondence designated points is searched over all frames, so that the three-dimensional coordinates of the correspondence designated points can be transplanted to the real-time video side. With respect to the real-time video, the CV value can be acquired for each frame.
From the principle of triangle, if there is a transplant of at least three 3D coordinates per frame, the CV value can be obtained by calculation, but in order to ensure accuracy, transplantation of several tens or more is necessary. It is.
In addition, since the three-dimensional designated point has three-dimensional coordinates and the viewpoint can be changed to the same CV value as the CV value of the real-time video, the correspondence between the CV video three-dimensional map and the real-time video becomes easy.

また、三次元指定点対応部106においては、全フレームではなく、断続的に代表フレームにおいて対応を取り、代表フレームの間の他のフレームについては、対応指定点をリアルタイム映像内で追跡した結果からCV値をもとめることでもCV値を取得することができる。
なお、全フレームによるCV値取得と、対応指定点の追跡によるCV値取得を組み合わせて、全フレームに亘り対応指定点を求めて、三次元座標の移植を行い、更に対応指定点の追跡結果からCV値を求めることで、より精度の高いCV値を取得することができる。
Further, in the three-dimensional designated point correspondence unit 106, correspondence is taken intermittently in the representative frame, not in all frames, and for other frames between the representative frames, the correspondence designated point is tracked in the real-time video. The CV value can also be obtained by obtaining the CV value.
In addition, CV value acquisition by all frames and CV value acquisition by tracking corresponding designated points are combined to obtain corresponding designated points over all frames, transplantation of three-dimensional coordinates, and further from the tracking results of corresponding designated points. By obtaining the CV value, a more accurate CV value can be obtained.

ここでは、三次元指定点が二次元ではなく、三次元であることが重要である。前もって三次元座標の既知である複数点の三次元指定点を用いて、前もってCV映像三次元地図内に追跡しておき、その三次元形状をリアルタイム映像内に対応させることで、あるいは複数の三次元指定点をCV映像三次元地図とリアルタイム映像と両映像内で同時に追跡することで、両映像の三次元対応を取ることが可能となる。
そこで、以下の実施形態では、CV映像三次元地図内に三次元指定点を設けること、リアルタイム映像と対応を取ること、及びリアルタイム映像の中に三次元指定点を追跡することを特徴としている。
ただし、三次元指定点を用いれば、三次元座標が移植されるので、リアルタイム映像側の1フレームについてのみでも、CV値を求めることができる。これは、複数のフレームに亘る追跡結果を必要とする特徴点追跡方式のCV演算(図2〜図14参照)の場合と比較して大きな差異となる。
Here, it is important that the three-dimensional designated point is not two-dimensional but three-dimensional. Using a plurality of three-dimensional designated points whose three-dimensional coordinates are known in advance, tracking in the CV video three-dimensional map in advance, and corresponding the three-dimensional shape in the real-time video, or a plurality of tertiary By tracking the original designated point in the CV video 3D map, the real-time video, and both videos at the same time, it is possible to take a 3D correspondence between the videos.
Therefore, the following embodiments are characterized by providing a three-dimensional designated point in a CV video three-dimensional map, taking correspondence with a real-time video, and tracking the three-dimensional designated point in the real-time video.
However, if a three-dimensional designated point is used, three-dimensional coordinates are transplanted, so that the CV value can be obtained for only one frame on the real-time video side. This is a significant difference compared to the case of the CV calculation (see FIGS. 2 to 14) of the feature point tracking method that requires tracking results over a plurality of frames.

なお、三次元指定点対応部106におけるCV映像三次元地図とリアルタイム映像の対応は、同一画像内での対応(追跡)よりもかなり困難であるという前提がある。
従って、三次元指定点対応部106の処理において、対応点の取得に失敗するフレームが生じることも十分考えられる。また、三点以上の対応点が得られない場合も想定できる。そこで、三次元指定点対応部106は可能な限り対応点の取得を行い、対応に失敗するフレームが発生しても、その部分はリアルタイム映像側の追跡によりリアルタイム映像側だけで特徴点追跡方式CV演算を行い、抜けの部分のCV値を補足して求めることが実際的である。
この三次元指定点対応部106における対応処理について、更に説明する。
Note that there is a premise that the correspondence between the CV video three-dimensional map and the real-time video in the three-dimensional designated point correspondence unit 106 is considerably more difficult than the correspondence (tracking) in the same image.
Therefore, in the process of the three-dimensional designated point corresponding unit 106, it is fully possible that a frame that fails to acquire the corresponding point is generated. It can also be assumed that three or more corresponding points cannot be obtained. Therefore, the three-dimensional designated point corresponding unit 106 obtains corresponding points as much as possible, and even if a frame that fails to correspond is generated, that portion is tracked on the real-time video side only by the real-time video side and the feature point tracking method CV It is practical to calculate and supplement the CV value of the missing part.
The correspondence processing in the three-dimensional designated point correspondence unit 106 will be further described.

[三次元指定点対応処理]
以下、三次元指定点対応部106における対応処理を、図16及び図17を参照しつつ、より具体的に説明する。
一般に、CV映像三次元地図とリアルタイム映像とは、カメラが異なり、画質も異なり、撮影条件も異なるので、CV映像三次元地図とリアルタイム映像の対応関係を取ることは困難なものとなる。この点、従来の方法としては、三次元点を構成する微少領域のテクスチャをマッチングや相関で追跡する方法が行われていた。しかし、このような従来方法では、異種カメラ間の異なる画質の映像と、撮影条件の差異などにより、対応関係を正確に取ることはきわめて困難であった。
[Three-dimensional designated point correspondence processing]
Hereinafter, the correspondence processing in the three-dimensional designated point correspondence unit 106 will be described more specifically with reference to FIGS. 16 and 17.
In general, a CV video three-dimensional map and a real-time video are different from each other in camera, image quality, and shooting conditions. Therefore, it is difficult to establish a correspondence between the CV video three-dimensional map and the real-time video. In this respect, as a conventional method, there has been performed a method of tracking a texture of a minute region constituting a three-dimensional point by matching or correlation. However, with such a conventional method, it has been extremely difficult to accurately obtain the correspondence because of different image quality images between different cameras and differences in shooting conditions.

そこで、本実施形態では、CV映像三次元地図とリアルタイム映像の対応について、従来の二次元小領域マッチングによらず、図16及び図17に示すような新しい方法により行うようにしてある。
図16に示す三次元指定点対応方式CV演算部100では、CV映像三次元地図側の三次元指定点に対応して、リアルタイム映像側でも三次元対応指定点を対応させ、三次元座標を移植させて、CV演算する方法となっている。
また、図17に示す三次元指定点対応方式CV演算部100では、三次元形状が既知であることから、リアルタイム映像側での方向が規定され、その方向からCV値を取得する方法となっている。
Therefore, in this embodiment, the correspondence between the CV video 3D map and the real-time video is performed by a new method as shown in FIGS. 16 and 17 without using the conventional 2D small area matching.
In the three-dimensional designated point correspondence method CV calculation unit 100 shown in FIG. 16, in correspondence with the three-dimensional designated point on the CV video three-dimensional map side, the three-dimensional designated designated point is made to correspond on the real-time video side, and the three-dimensional coordinates are transplanted. Thus, the CV calculation is performed.
Further, in the three-dimensional designated point correspondence method CV calculation unit 100 shown in FIG. 17, since the three-dimensional shape is known, the direction on the real-time video side is specified, and the CV value is obtained from the direction. Yes.

[三次元形状対応]
図16に示す三次元指定点対応方式CV演算部100では、図15で示した三次元指定点対応部106が三次元指定点形状対応部106aを備えるとともに、対応指定点追跡部107が三次元指定点形状追跡部107aを備えている。
三次元指定点形状対応部106aは、三次元指定点対応部106において、CV映像三次元地図内の複数の三次元指定点から構成される三次元形状に着目し、リアルタイム映像内に、三次元指定点と同一座標を持つ三次元対応点が、その三次元形状に一致するようなCV値を求めることで、三次元指定点の対応を求める。
また、三次元指定点形状追跡部107aは、対応指定点追跡部107において、対応指定点をリアルタイム映像中の隣接する複数のフレームに亘り追跡することで、CV映像三次元地図内の既知の三次元形状の三次元座標をリアルタイム映像中の追跡地点に直接移植する。
[3D shape support]
In the three-dimensional designated point correspondence method CV computing unit 100 shown in FIG. 16, the three-dimensional designated point correspondence unit 106 shown in FIG. 15 includes a three-dimensional designated point shape correspondence unit 106a, and the correspondence designated point tracking unit 107 has a three-dimensional design. A designated point shape tracking unit 107a is provided.
The three-dimensional designated point shape correspondence unit 106a focuses on a three-dimensional shape composed of a plurality of three-dimensional designated points in the CV video three-dimensional map in the three-dimensional designated point correspondence unit 106, and The correspondence of the three-dimensional designated point is obtained by obtaining a CV value such that the three-dimensional corresponding point having the same coordinates as the designated point matches the three-dimensional shape.
Further, the 3D designated point shape tracking unit 107a causes the corresponding designated point tracking unit 107 to track the corresponding designated point over a plurality of adjacent frames in the real-time video, so that a known tertiary in the CV video 3D map is obtained. Implant the 3D coordinates of the original shape directly to the tracking point in the real-time video.

一般に、二次元画像においては、対応点は小領域の二次元画像であり、テクスチャを比較してマッチングや相関によりその対応点を求めるが、カメラも撮影条件も、画像解像度も異なるCV映像三次元地図とリアルタイム映像においては、その比較がきわめて困難である。
そこで、図16に示す三次元指定点対応方式CV演算部100では、比較すべき指定点対応を二次元テクスチャではなく、三次元のテクスチャでもなく、画像内の三次元座標、すなわち三次元形状の三次元座標関係そのものとすることで、これらのCV映像三次元地図とリアルタイム映像間で様々な物理的条件の違いがあっても比較が可能となるものである。
In general, in a two-dimensional image, a corresponding point is a two-dimensional image of a small area, and the corresponding point is obtained by matching and correlation by comparing textures. Comparison between maps and real-time video is extremely difficult.
Therefore, in the three-dimensional designated point correspondence method CV calculation unit 100 shown in FIG. 16, the designated point correspondence to be compared is not a two-dimensional texture, but a three-dimensional texture, and a three-dimensional coordinate in the image, that is, a three-dimensional shape. By using the 3D coordinate relationship itself, it is possible to compare these CV video 3D maps and real-time video even if there are various physical condition differences.

例えば、CV映像三次元地図内に三次元指定点4点で構成される四面体を考えると、これはリアルタイム映像内においても、画質の違いに関係なくリアルタイム映像内の三次元計測情報のみで同じ形状の四面体を探すことができる。
これは、三次元形状とその座標は、リアルタイム映像内のCV値を仮定することによりリアルタイム映像内で取得することができ、しかも、画像としての対応ではなく、座標としての対応を求めることができることを意味する。従って、ここではカメラの違いによる画質には一切関係なく、撮影条件にも関係なく、また三次元形状はカメラからの距離によっても変化しないので、三次元指定点形状追跡部では、長距離の追跡が可能となり、精度上きわめて有利となる。
For example, considering a tetrahedron composed of four 3D designated points in a CV video 3D map, this is the same in real-time video only in 3D measurement information in the real-time video regardless of the difference in image quality. You can search for a tetrahedron of shape.
This is because the three-dimensional shape and its coordinates can be obtained in the real-time video by assuming the CV value in the real-time video, and the correspondence as the coordinates can be obtained instead of the correspondence as the image. Means. Therefore, since the 3D shape does not change depending on the distance from the camera, regardless of the image quality due to the difference in the camera, the 3D shape does not change depending on the distance from the camera. Is possible, which is extremely advantageous in terms of accuracy.

なお、この方法においても、突起物が立体を構成し、各三次元指定点が適切な分布を作る三次元形状を探す必要があり、面の上に多数の三次元指定点をとっても適切な三次元形状を構成できない。
本実施形態では、リアルタイム映像内でCV値を変数として微小変化(視点変更を意味する)させながら、最適なCV値を探索する。
CV値から演算で求める位置に存在するか否かを確認することを継続することで、正しいCV値を求めることができる。あるいはCV映像三次元地図側でCV値を変数として視点変更しながら探索することも可能である。
言い換えれば、CV映像三次元地図側で視点変更をしてリアルタイム映像に合わせるか、リアルタイム映像側で視点変更してリアルタイム映像に合わせるか、は自由である。
Even in this method, it is necessary to search for a three-dimensional shape in which the projections form a solid and each three-dimensional designated point has an appropriate distribution. Even if a large number of three-dimensional designated points are taken on the surface, an appropriate tertiary can be obtained. The original shape cannot be constructed.
In the present embodiment, an optimal CV value is searched for while making a minute change (meaning a viewpoint change) using the CV value as a variable in the real-time video.
The correct CV value can be obtained by continuing to check whether or not it exists at the position obtained by calculation from the CV value. Alternatively, it is possible to search while changing the viewpoint using the CV value as a variable on the CV video three-dimensional map side.
In other words, it is free to change the viewpoint on the CV video 3D map side to match the real time video, or to change the viewpoint on the real time video side to match the real time video.

さらには、両者とも視点変更をしないで、即ち三次元形状の見かけの形状を変更しないで、視点によっては変化しない三次元座標のみに着目して対応を取ることも可能である。
また、複数のCV値取得方法が併用可能であり、CV値の概略値取得と、それによる視点変更は十分可能であり、その近傍で精度の高いCV値に漸近して求めることができる。
そして、ある一つの方法で三次元指定点の対応に失敗した場合は、他のCV値取得方法によればよく、また、すべての対応に失敗しても、初期値設定からやり直すことで連続的にCV値を求めることが可能となる。
Furthermore, it is also possible to take a correspondence by focusing on only the three-dimensional coordinates that do not change depending on the viewpoint without changing the viewpoint, that is, without changing the apparent shape of the three-dimensional shape.
Also, a plurality of CV value acquisition methods can be used in combination, the approximate value of the CV value and the viewpoint change by it can be sufficiently performed, and the CV value can be asymptotically obtained in the vicinity thereof.
If the correspondence of the three-dimensional designated point fails by one method, another CV value acquisition method may be used. Even if all correspondence fails, the initial value setting is repeated to continuously CV value can be obtained.

[方向対応]
図17に示す三次元指定点対応方式CV演算部100では、図15で示した三次元指定点対応部106が三次元指定点方向対応部106bを備えるとともに、対応指定点追跡部107が三次元指定点方向追跡部107bを備えている。
三次元指定点方向対応部106bは、三次元指定点対応部106において、複数の三次元指定点のカメラ位置からの方位仰角に着目し、リアルタイム映像中の三次元対応点が、CV値を仮定した場合の演算で予想される方位仰角に存在することを確認することで、リアルタイム映像中の対応点を三次元指定点に対応させる。
三次元指定点方向追跡部107bは、対応指定点追跡部107において、CV映像三次元地図中の三次元指定点を、リアルタイム映像中に三次元座標が既知である三次元形状を構成する各点の方向として、隣接する複数のフレームに亘り追跡する。
[Directional support]
In the three-dimensional designated point correspondence method CV computing unit 100 shown in FIG. 17, the three-dimensional designated point correspondence unit 106 shown in FIG. 15 includes a three-dimensional designated point direction correspondence unit 106b, and the correspondence designated point tracking unit 107 is three-dimensional. A designated point direction tracking unit 107b is provided.
The three-dimensional designated point direction correspondence unit 106b pays attention to the azimuth elevation angle from the camera position of the plurality of three-dimensional designated points in the three-dimensional designated point correspondence unit 106, and the three-dimensional designated point in the real-time video assumes a CV value. The corresponding point in the real-time video is made to correspond to the three-dimensional designated point by confirming that it exists at the azimuth elevation angle expected by the calculation in this case.
In the corresponding designated point tracking unit 107, the three-dimensional designated point direction tracking unit 107b converts the three-dimensional designated point in the three-dimensional map of the CV video into the three-dimensional shape whose three-dimensional coordinates are known in the real-time video. Are tracked over a plurality of adjacent frames.

図17に示す三次元指定点対応方式CV演算部100では、CV映像三次元地図中の三次元指定点としては、三次元座標が既知の点である三次元指定点を用いるが、リアルタイム映像側での、対応点は形状ではなく、その方向だけを取得し、CV値を仮定した場合の演算で予想できる三次元指定点の三次元座標のカメラからの視点方向と比較することができる。
すなわち、三次元座標が既知である三次元指定点の、リアルタイム映像内での方向が取得できれば、その方向に対応するCV値を演算で求めることができる。
以上のように、三次元指定点対応部106における対応方法と対応指定点追跡部107における追跡方法について、種々の方法を述べたが、これらは任意に組み合わせたり併用することができ、映像の性質によって使い分けることにより、どのような条件の映像に関しても、容易かつ正確,迅速にCV値を取得することができる。
In the three-dimensional designated point correspondence method CV calculation unit 100 shown in FIG. 17, a three-dimensional designated point having a known three-dimensional coordinate is used as the three-dimensional designated point in the CV video three-dimensional map. The corresponding point is not a shape but only its direction, and it can be compared with the viewpoint direction from the camera of the three-dimensional coordinate of the three-dimensional designated point that can be predicted by the calculation when the CV value is assumed.
That is, if the direction in the real-time video of the three-dimensional designated point whose three-dimensional coordinates are known can be acquired, the CV value corresponding to the direction can be obtained by calculation.
As described above, various methods have been described for the correspondence method in the three-dimensional designated point correspondence unit 106 and the tracking method in the correspondence designated point tracking unit 107, but these can be arbitrarily combined or used together. By using properly, the CV value can be acquired easily, accurately, and quickly for an image of any condition.

[三次元指定点対応方式CV演算部の他の実施形態]
次に、図18を参照して、上述した三次元指定点対応方式CV演算部100の他の実施形態について説明する。
図18は、図15に示した三次元指定点対応方式CV演算部の変更実施形態の基本構成を示すブロック図である。
同図に示すように、本実施形態は、上述した三次元指定点対応方式CV演算部100(図15参照)の変更実施形態であり、具体的には、図18に示すように、上述した三次元指定点対応方式CV演算部100の構成に、さらに、概略基準空間構成部110と、概略CV取得部111と、概略比較空間構成部112と、CVキャリブレーション部113と、空間対応部114の各部を備えている。
[Other Embodiments of Three-dimensional Designated Point Corresponding Method CV Calculation Unit]
Next, with reference to FIG. 18, another embodiment of the above-described three-dimensional designated point correspondence method CV calculation unit 100 will be described.
FIG. 18 is a block diagram showing a basic configuration of a modified embodiment of the three-dimensional designated point corresponding method CV calculation unit shown in FIG.
As shown in the figure, the present embodiment is a modified embodiment of the above-described three-dimensional designated point correspondence method CV calculation unit 100 (see FIG. 15). Specifically, as shown in FIG. In addition to the configuration of the three-dimensional designated point correspondence method CV calculation unit 100, the general reference space configuration unit 110, the general CV acquisition unit 111, the general comparison space configuration unit 112, the CV calibration unit 113, and the space correspondence unit 114 are further included. It has each part.

概略基準空間構成部110は、CV映像三次元地図に関して、CV付加部102で取得されたCV値から、CV映像三次元地図の概略三次元空間を生成する。
一方、概略CV取得部111は、リアルタイム映像に関して、CV映像三次元地図とは無関係に、リアルタイム映像側で特徴点を検出して追跡し、単独でCV演算を行い、リアルタイム映像(リアルタイム映像)を取得したカメラの位置と姿勢を示す概略のCV値を取得する。
The general reference space configuration unit 110 generates a general 3D space of the CV video 3D map from the CV value acquired by the CV adding unit 102 with respect to the CV video 3D map.
On the other hand, the general CV acquisition unit 111 detects and tracks feature points on the real-time video side, independently of the CV video three-dimensional map, and independently performs real-time video (real-time video). An approximate CV value indicating the acquired position and orientation of the camera is acquired.

概略比較空間構成部112は、概略CV取得部111で取得した概略CV値等からリアルタイム映像の概略比較空間を生成する。
CVキャリブレーション部113は、リアルタイム映像の相対CV値を、三次元指定点対応部106及び対応指定点追跡部107で得られたCV値により校正して、CV映像三次元地図の座標系に変換する。
空間対応部114は、CV映像三次元地図の概略三次元空間とリアルタイム映像の概略三次元空間を比較して対応付け、それぞれの空間を概略合致させて、三次元指定点対応部1106における対応領域を絞り込む。
The approximate comparison space configuration unit 112 generates an approximate comparison space for real-time video from the approximate CV value acquired by the approximate CV acquisition unit 111 and the like.
The CV calibration unit 113 calibrates the relative CV value of the real-time video with the CV value obtained by the three-dimensional designated point corresponding unit 106 and the corresponding designated point tracking unit 107, and converts it into the coordinate system of the CV video three-dimensional map. To do.
The space correspondence unit 114 compares and associates the approximate three-dimensional space of the CV video three-dimensional map with the approximate three-dimensional space of the real-time video, roughly matches each space, and the corresponding region in the three-dimensional designated point corresponding unit 1106 Narrow down.

CV映像三次元地図とリアルタイム映像は元々同一空間の近い位置から成り立っており、カメラ位置が多少異なることによる多少の視点の差があるだけである。
本実施形態の概略基準空間構成部110においては、CV映像三次元地図の概略三次元形状が生成されるが、CV値を用いた視点の微少変更によって生成した二次元映像により、空間対応部114によりリアルタイム映像と概略比較することができる。
また、CV値を求める際に取得した多くの特徴点の三次元座標により、概略基準空間構成部110と、概略比較空間構成部112と、その分布から概略空間を空間対応部114で比較することが可能になる。
The CV video 3D map and the real-time video are originally composed of close positions in the same space, and there is only a slight difference in viewpoint due to a slightly different camera position.
In the rough reference space constructing unit 110 of the present embodiment, a rough three-dimensional shape of a CV video three-dimensional map is generated. Thus, it is possible to roughly compare with real-time video.
In addition, based on the three-dimensional coordinates of many feature points acquired when obtaining the CV value, the approximate reference space configuration unit 110, the approximate comparison space configuration unit 112, and the spatial correspondence unit 114 compare the approximate space from the distribution thereof. Is possible.

また、CV映像三次元地図もリアルタイム映像も、演算過程でそれぞれ多くの特徴点が検出され、更にそれらが追跡されることにより、多くの三次元化された特徴点が求められている。従って、これら三次元化された特徴点の三次元分布を生成して、空間対応部114において、それぞれの空間の三次元形状を比較し、それぞれの空間が合致する位置を探すことで、それぞれの映像の概略比較ができることになる。
すなわち、概略位置関係を求めることができる。
In addition, many feature points of CV video 3D map and real-time video are detected in the calculation process, and further, they are tracked to obtain many 3D feature points. Accordingly, a three-dimensional distribution of these three-dimensional feature points is generated, and the space correspondence unit 114 compares the three-dimensional shapes of the respective spaces, and searches for the positions where the respective spaces are matched. The video can be roughly compared.
That is, the approximate positional relationship can be obtained.

一方、上述したように、図15に示す三次元指定点対応方式CV演算部100では、リアルタイム映像中に三次元指定点を追跡することで、そのまま三次元座標を移植できるので、CV映像三次元地図(三次元地図)内の三次元指定点に対するリアルタイム映像内の対応点は直接三次元座標として求まり、そのままCV映像三次元地図と座標統合が可能である。
そこで、図18に示す実施形態では、演算時間に関して高速化が期待できる三次元指定点対応方式CV演算100において、特徴点追跡方式のCV演算(図2〜図14参照)をリアルタイム映像側に併用することで、高速化を図りつつCV演算をキャリブレーションすることができる。
On the other hand, as described above, the CV calculation unit 100 shown in FIG. 15 can transplant the 3D coordinates as they are by tracking the 3D specified points in the real-time video. Corresponding points in the real-time video with respect to the three-dimensional designated point in the map (three-dimensional map) are directly obtained as three-dimensional coordinates, and can be directly coordinated with the CV video three-dimensional map.
Therefore, in the embodiment shown in FIG. 18, the feature point tracking CV calculation (see FIGS. 2 to 14) is used on the real-time video side in the three-dimensional designated point corresponding method CV calculation 100 that can be expected to speed up the calculation time. By doing so, it is possible to calibrate the CV calculation while increasing the speed.

また、特徴点追跡方式のCV演算と三次元点追跡のCV演算とを併用する場合は、三次元点追跡は、必ずしも全フレームに亘って行わなくても良く、キャリブレーションが必要な必要部分のフレームだけでも良いことになり、より高速で効率の良い演算処理が可能となる。
このようにして、本実施形態によれば、画像の性質等に応じて、第一実施形態の方法と本実施形態の方法とを使い分けることで、より精度良くCV値を求めることができるようになる。
In addition, when the CV calculation of the feature point tracking method and the CV calculation of the three-dimensional point tracking are used in combination, the three-dimensional point tracking does not necessarily have to be performed over the entire frame, and a necessary part requiring calibration is not necessary. Only frames will suffice, enabling faster and more efficient arithmetic processing.
Thus, according to the present embodiment, the CV value can be obtained with higher accuracy by properly using the method of the first embodiment and the method of the present embodiment according to the properties of the image. Become.

以上説明したように、本実施形態の係る移動型自動監視装置1によれば、車輌等の移動体に搭載された全周カメラの映像で、監視対象物(予測される対象物、障害物、不審物等)を検出し、ズームカメラがそこにズームアップすることができる。これにより、全周カメラで不審物を発見し、その三次元位置を求めその座標に対してズームカメラがズームアップすることができる。また、既存の対象物に対しては、対象物をクリックすることで属性登録、属性更新、属性検索属性表示をすることができる。
そして、本実施形態の移動型自動監視装置1では、車輌に搭載したカメラで撮影される動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することで、多数の特徴点について重複演算してカメラ位置と回転角を示すCVデータを高精度に求めることができ、これによって、車輌に伴って移動するカメラの三次元位置座標を高精度に取得するようにしてある。
As described above, according to the mobile automatic monitoring apparatus 1 according to the present embodiment, the monitoring object (predicted object, obstacle, A suspicious object etc.) can be detected and the zoom camera can zoom up there. Thereby, a suspicious object is discovered with the all-around camera, the three-dimensional position is calculated | required, and a zoom camera can zoom up with respect to the coordinate. In addition, for existing objects, attribute registration, attribute update, and attribute search attribute display can be performed by clicking on the object.
In the mobile automatic monitoring apparatus 1 of the present embodiment, a sufficient number of feature points are automatically detected from a plurality of frame images of a moving image captured by a camera mounted on the vehicle, and feature points are automatically detected between frames. By tracking, it is possible to calculate CV data indicating the camera position and the rotation angle with high accuracy by performing overlapping calculation on a large number of feature points, and thereby to accurately calculate the three-dimensional position coordinates of the camera moving with the vehicle. To get to.

これによって、車輌に搭載したカメラによる監視対象物の三次元計測と、任意の監視対象物の検出・認識が可能となり、移動体とともに移動するカメラ等によって監視範囲を可視可能な範囲全域に広げつつ、全体を監視し、かつ、監視対象に対しては、詳細な拡大画像を得ることができるようになる。
従って、本実施形態の移動型自動監視装置1によれば、監視領域において、死角を無くし、しかも夜間等であっても、路面形状や監視対象物(予測される対象物、障害物、不審物等)等を確実に発見することができ、最も条件の悪い新雪の積雪状況等においても、走行しながら、又は停止して、任意の監視対象物の三次元形状を検出することが可能となり、万全で漏れのない信頼性の高い監視システム,セキュリティ・システムを実現することができる。
As a result, it is possible to perform three-dimensional measurement of an object to be monitored by a camera mounted on a vehicle and detection / recognition of an arbitrary object to be monitored. The entire image is monitored, and a detailed enlarged image can be obtained for the monitoring target.
Therefore, according to the mobile automatic monitoring apparatus 1 of the present embodiment, the road surface shape and the monitoring object (predicted object, obstacle, suspicious object) are eliminated in the monitoring area even at night or the like. It is possible to detect the three-dimensional shape of any monitoring object while traveling or stopping even in the snow conditions of fresh snow with the worst conditions. A complete and reliable monitoring system and security system can be realized.

次に、以上のようにして求められたCV値に基づいて車輌に搭載したカメラによる対象物の自動監視を行う本発明に係る移動型自動監視装置の、より具体的な実施形態について、図面を参照しつつ具体的に説明する。
[空港内移動型自動監視装置]
まず、本発明の移動型自動監視装置を使用して空港内を自動監視する空港内移動型自動監視装置の一実施形態について、図19〜図21を参照しつつ説明する。
図19は、本実施形態に係る空港内移動型自動監視装置の概略構成を示す機能ブロック図である。
図20及び図21は、図19に示す空港内移動型自動監視装置を搭載した車輌を模式的に示す説明図であり、図20は天候が良好なときの場合を、図21は積雪時の場合である。
また、図22は、図19に示す空港内移動型自動監視装置により監視される空港全体を模式的に示した平面図である。
Next, a more specific embodiment of the mobile automatic monitoring apparatus according to the present invention for automatically monitoring an object by a camera mounted on a vehicle based on the CV value obtained as described above will be described. This will be specifically described with reference to FIG.
[Mobile automatic monitoring equipment in airports]
First, an embodiment of an in-airport mobile automatic monitoring apparatus that automatically monitors the inside of an airport using the mobile automatic monitoring apparatus of the present invention will be described with reference to FIGS.
FIG. 19 is a functional block diagram showing a schematic configuration of the in-airport mobile automatic monitoring apparatus according to the present embodiment.
20 and 21 are explanatory diagrams schematically showing a vehicle equipped with the in-airport mobile type automatic monitoring device shown in FIG. 19, where FIG. 20 shows a case when the weather is good, and FIG. Is the case.
FIG. 22 is a plan view schematically showing the entire airport monitored by the in-airport mobile automatic monitoring apparatus shown in FIG.

これらの図に示す空港内移動型自動監視装置1Aは、空港内での始業時点検として、本発明に係る移動型自動監視装置1を積載した専用車輌で、空港内を走行しながら、空港内の監視対象物(予測される対象物、障害物、不審物等)を発見し、又既設の設備の破損等を発見する装置である。
まず、本実施形態における専用車輌は、通常の手動運転と同時に、決められたコースを監視しながら、監視対象物に異常が発見されたり、監視対象物(予測される対象物、障害物、不審物等)が発見されたりした場合に、当該対象物に近づいて観察し、自己判断し、自己判断できない場合には中央監視部にデータを送信する等の自動運転機能による自動監視動作が行えるようになっている。
The mobile automatic monitoring apparatus 1A shown in these figures is a dedicated vehicle loaded with the mobile automatic monitoring apparatus 1 according to the present invention as a start-up inspection in the airport. This is a device that discovers objects to be monitored (predicted objects, obstacles, suspicious objects, etc.) and also finds damage to existing facilities.
First, the dedicated vehicle according to the present embodiment detects an abnormality in a monitored object while monitoring a predetermined course simultaneously with normal manual operation, or detects a monitored object (a predicted object, an obstacle, a suspicious object). If an object is discovered, it will be possible to perform an automatic monitoring operation by an automatic driving function such as observing close to the target object, making self-judgment, and sending data to the central monitoring unit if self-judgment is not possible It has become.

一般に、空港では、昼夜に係わらず監視が必要であり、晴天時のみならず、降雨,降雪時であっても監視を行う必要がある。そして、積雪時には、積雪したスノーバンクの形状等について、その形状を取得したり、監視対象物(予測される対象物、障害物、不審物等)を検出したり、認識する必要がある。本実施形態は、そのような積雪時等であっても自動監視動作が行えるようになっている。
本実施形態の空港内移動型自動監視装置1Aを搭載する車輌は、専用に設計された監視装置一式を車輌に積載し、空港区域内を走行する。運転者による通常運転と自動運転の双方が行えることを想定している。
図22の二点鎖線に示すように、車輌は空港内の監視区域を決められたコースに沿って、監視作業をしながら監視区域全域を走行する。
In general, at an airport, monitoring is necessary regardless of whether it is daytime or nighttime, and it is necessary to monitor not only when the weather is fine, but also when it is raining or snowing. And when it snows, it is necessary to acquire the shape etc. of the snowbank which snowed, to detect the object (predicted object, an obstruction, a suspicious object, etc.), and to recognize. In this embodiment, an automatic monitoring operation can be performed even during such snowfall.
A vehicle equipped with the in-airport mobile type automatic monitoring device 1A of the present embodiment is loaded with a set of dedicated monitoring devices on the vehicle and travels in the airport area. It is assumed that the driver can perform both normal driving and automatic driving.
As shown by the two-dot chain line in FIG. 22, the vehicle travels throughout the monitoring area while performing monitoring work along a course in which the monitoring area in the airport is determined.

車輌に搭載される空港内移動型自動監視装置1Aの構成要素は、図1に示した移動型自動監視装置1とほぼ同様の構成となっており、具体的には図19に示す通りである。同図中、図1に示す移動型自動監視装置1と同様の構成部分については同一の符号を付してある。
空間情報取得部10は、車輌の周囲を空間的に把握する複数の機器から構成される。具体的には、全周囲カメラ又は広角カメラ,指定方向の対象物を捉える指定方向カメラ,進行方向の路面を捉える進行路面カメラ,レーザスキャナ,レーダを備えている。
全周カメラ部11は、車輌の全周囲の視野を確保するために、複数の広角レンズカメラか、全周カメラ(図20〜図21参照)を設置している。車輌の影となってしまう部分の詳細情報を取得するためには、複数の広角カメラ又は複数の全周カメラを設置するのが望ましい。
また、積雪用の全周カメラは、通常時より高い位置にカメラを設置することが望ましい(図21参照)。
The components of the in-airport mobile automatic monitoring device 1A mounted on the vehicle have substantially the same configuration as that of the mobile automatic monitoring device 1 shown in FIG. 1, and specifically, as shown in FIG. . In the figure, the same components as those of the mobile automatic monitoring apparatus 1 shown in FIG.
The spatial information acquisition unit 10 includes a plurality of devices that spatially grasp the surroundings of the vehicle. Specifically, an omnidirectional camera or wide-angle camera, a specified direction camera that captures an object in a specified direction, a traveling road surface camera that captures a road surface in the traveling direction, a laser scanner, and a radar are provided.
The all-around camera unit 11 is provided with a plurality of wide-angle lens cameras or all-around cameras (see FIGS. 20 to 21) in order to secure a field of view around the entire vehicle. In order to acquire detailed information of a portion that becomes a shadow of the vehicle, it is desirable to install a plurality of wide-angle cameras or a plurality of all-around cameras.
In addition, it is desirable that the all-around camera for snow accumulation be installed at a position higher than normal (see FIG. 21).

進行路面カメラ部12としては、車輌の進行方向の路面を捉えるカメラであり(図20〜図21参照)、複数のカメラで路面を捉えるのが望ましい。複数のカメラで同一路面部位を捉えることにより、三次元として捉えることが可能となる。
夜間においては、全周カメラの感度が低下するので、近距離は照明装置により照射して撮影するか、反射物体、又は小ライト等を周囲に設置しておくことが望ましい。反射物体又は小ライトが視野内に100点以上映り込めば、全周カメラによる空間情報の取得が可能となる。
The traveling road surface camera unit 12 is a camera that captures the road surface in the traveling direction of the vehicle (see FIGS. 20 to 21), and it is desirable to capture the road surface with a plurality of cameras. By capturing the same road surface portion with a plurality of cameras, it can be captured as a three-dimensional image.
At night, the sensitivity of the all-around camera is lowered, so it is desirable to shoot with a lighting device at a short distance, or to install a reflective object, a small light, or the like in the vicinity. If 100 or more reflective objects or small lights are reflected in the field of view, spatial information can be acquired by the all-around camera.

指定方向カメラ部13は、走行する車輌に積載されたカメラであり、後述する指定方向コントロール部60からの指令により、指定方向の映像を取得する機能を持つ部分である。
指定方向カメラは、任意の指定方向にカメラを向けて、指定された画角で対象物を捉えるズーム機能付きカメラが望ましいが、狭角カメラであってもよい。
なお、一度に監視する必要がある対象物が複数有り、監視対象物(予測される対象物、障害物、不審物等)が複数発見されれば、一つのカメラですべて対応するのは困難となる。そこで、指定方向カメラは複数とするのが望ましい。
具体的には、車輌の屋根部等に、車輌を取り巻くように複数設置することが望ましい(図20(a)に示す複数の「カメラ」参照)。
The designated direction camera unit 13 is a camera mounted on a traveling vehicle, and has a function of acquiring an image in a designated direction according to a command from a designated direction control unit 60 described later.
The designated direction camera is preferably a camera with a zoom function that directs the camera in an arbitrary designated direction and captures an object at a designated angle of view, but may be a narrow angle camera.
If there are multiple objects that need to be monitored at the same time and multiple objects to be monitored (predicted objects, obstacles, suspicious objects, etc.) are found, it is difficult to handle them all with one camera. Become. Therefore, it is desirable to use a plurality of designated direction cameras.
Specifically, it is desirable to install a plurality of vehicles on the roof of the vehicle so as to surround the vehicle (see a plurality of “cameras” shown in FIG. 20A).

ここで、監視対象物や監視対象物(予測される対象物、障害物、不審物等)が発見されれば、指定方向カメラがその方向に向き、映像として自動的に捉えることになるが、複数カメラに同一対象物を捉える指定をすることも可能であるし、それぞれのカメラに異なる対象物を捉える指定をすることも可能である。
また、複数のカメラにより、同一の対象物を異なる方向から撮影することで、視差情報を持つ映像を取得し、三次元化して解析することができる。
なお、対象物としては、既設の監視対象物である場合もあるし、発見された監視対象物(予測される対象物、障害物、不審物等)であることもあるし、未だ正体不明物の物体であることもある。また、進行路面カメラでは捉えきれない、路面上の亀裂や監視対象物(予測される対象物、障害物、不審物等)であることもある。
Here, if a monitored object or a monitored object (a predicted object, an obstacle, a suspicious object, etc.) is found, the designated direction camera is directed in that direction and automatically captured as an image. A plurality of cameras can be designated to capture the same object, and each camera can be designated to capture a different object.
In addition, by photographing the same object from different directions with a plurality of cameras, an image having parallax information can be acquired, analyzed in three dimensions.
Note that the target object may be an existing monitoring target, may be a discovered monitoring target (a predicted target, an obstacle, a suspicious object, etc.), or is still unidentified. It may be an object. Further, it may be a crack on the road surface or a monitoring target (predicted target, obstacle, suspicious object, etc.) that cannot be captured by the traveling road surface camera.

また、複数の指定方向カメラの視野を一部重複して視野のある範囲、又は全域を走査して、一部空間、又は全空間の視差のある高解像度画像を取得することができる。複数のカメラには視差があることから、そのまま三次元化が可能である。但し、全周カメラは一瞬で全域の映像を取得できるが、複数カメラによる方法は時間がかかるので、状況によって使い分けることが望ましい。
さらに、日中の監視はビデオカメラによる指定方向監視が可能であるが、夜間には赤外線カメラに切り替えて監視するようにする。なお、赤外線カメラをより有効に用いるには、赤外線照明装置を併用すると効果的である。
In addition, it is possible to obtain a high-resolution image having a parallax in a partial space or the entire space by partially overlapping the visual fields of the plurality of designated direction cameras and scanning the range or the entire area having the visual field. Since multiple cameras have parallax, they can be three-dimensionalized as they are. However, the all-around camera can acquire the entire image in an instant, but the method using a plurality of cameras takes time, so it is desirable to use them properly depending on the situation.
Furthermore, while monitoring during the day can be performed with a video camera in a specified direction, it is switched to an infrared camera at night. In order to use the infrared camera more effectively, it is effective to use an infrared illumination device together.

レーザスキャナ部14は、レーザを発射し、走査し、走査範囲の三次元形状を生成する。レーザスキャナは機器自身が二次元に操作して、対象の三次元形状を生成することが出来るが、一方向の走査のみであっても、車輌が進行することで、面的に操作することが可能である。どちらの場合でも使用可能であるが、面走査型のレーザプロファイラの方が望ましい。
特に、新雪時にはレーザスキャンとレーザパタン照射による映像解析に負うところが多い。映像処理のみでは新雪の積雪状況に対応できない場合が想定されるので、レーザスキャナは特に、積雪時のスノーバンクの検出等に有効である。
The laser scanner unit 14 emits a laser, scans it, and generates a three-dimensional shape of the scanning range. The laser scanner can be operated two-dimensionally by the device itself to generate the target three-dimensional shape. However, even if the scanning is only in one direction, the laser scanner can be operated in a plane. Is possible. Although it can be used in either case, a surface scanning type laser profiler is preferable.
In particular, during fresh snow, it is often subject to image analysis by laser scanning and laser pattern irradiation. Since it is assumed that only the image processing cannot cope with the snow accumulation situation of fresh snow, the laser scanner is particularly effective for detecting a snow bank at the time of snow accumulation.

レーザはそれ自身で、照射物体の走査方向における三次元形状を生成するが、レーザによる照射パタンを監視目的の対象物に照射して画像解析を有利にすることができる。
新雪積雪時のスノーバンクにおいては、映像解析だけでは雪面を有効に捉えられず、解析を困難にしている。このため、特に新雪の積雪時には、スノーバンク面にレーザの照射パタンを照射し、それを指定方向カメラや全周カメラで、しかも複数カメラで捉えることで、映像自身の解析が容易になるという副次効果が期待できる。
また、レーザスキャン装置を複数方向に複数取り付けて、三次元形状を取得することで夜間の精度は向上する。
なお、レーザプロファイラ装置としてはオーストリアRIEGL社製のLMS-210等が適している。
The laser itself generates a three-dimensional shape in the scanning direction of the irradiated object, but it is possible to irradiate the object to be monitored with the irradiation pattern by the laser to make image analysis advantageous.
In a snow bank when there is a new snow cover, the snow surface cannot be captured effectively by video analysis alone, making analysis difficult. For this reason, especially when there is snow on fresh snow, the image of the image itself can be easily analyzed by irradiating the snow bank surface with a laser irradiation pattern and capturing it with a specified direction camera or all-around camera, and with multiple cameras. The following effects can be expected.
Moreover, nighttime accuracy is improved by attaching a plurality of laser scanning devices in a plurality of directions and acquiring a three-dimensional shape.
As the laser profiler device, LMS-210 manufactured by RIEGL of Austria is suitable.

レーダ部15は、小電力のレーダ電波を発射し、航空機や車輌等の比較的大きな移動物体を捉えるのに効果がある。移動物体が監視対象物であれば、その全体像を把握できるし、監視対象物以外であっても車輌周辺の空間情報取得に効果的である。特に、夜間等全周囲カメラが十分に効果を発揮できないときに有効である。但し、空港内でのレーダの使用は、管制や航空機等に悪影響を与える危険があるので、使用は必要最低限にする必要がある。
なお、夜間や積雪時における監視では、映像(全周囲カメラ部、進行路面カメラ部、及び指定方向カメラ部)とレーザスキャナ(レーザスキャナ部)を併用して用いることで対応するのが望ましい。
The radar unit 15 emits a low-power radar radio wave and is effective in capturing a relatively large moving object such as an aircraft or a vehicle. If the moving object is a monitoring object, the whole image can be grasped, and even if the moving object is other than the monitoring object, it is effective for obtaining spatial information around the vehicle. This is particularly effective when the omni-directional camera such as nighttime is not sufficiently effective. However, the use of radar in the airport has a risk of adversely affecting control, aircraft, etc., so the use must be minimized.
It should be noted that monitoring at night or during snowfall is desirably handled by using a video scanner (all-around camera unit, traveling road surface camera unit, and designated direction camera unit) in combination with a laser scanner (laser scanner unit).

位置座標取得部20は、車輌の位置座標を取得する部分である。
図19に示すように、まず、全周囲映像CV演算部20aは、車載した全周カメラから全周囲映像を取得し、上述した特徴点追跡方式のCV演算(図2〜図14参照)及びリアルタイム映像と三次元地図との比較による三次元指定点対応方式CV演算により車輌周囲の三次元空間、及び走行する車輌の三次元的位置と姿勢との関係を取得する機能を持つ部分である。本実施形態では、空間情報取得部10の全周囲カメラ11の映像を利用することができるので、新たにCV演算のための全周囲カメラを設置する必要はない。
なお、日中は全周囲カメラにより、周囲の様々な対象物を撮影することで取得できるが、夜間の空間情報は、監視区域内に設置されたあらゆる発光体を全周囲映像として取得することになる。また、夜間において、三次元指定点対応方式のCV演算を行うためには、三次元地図に発光体の映像と座標を登録しておく。
The position coordinate acquisition unit 20 is a part that acquires the position coordinates of the vehicle.
As shown in FIG. 19, first, the omnidirectional video CV calculation unit 20a acquires the omnidirectional video from the on-vehicle omnidirectional camera, and performs the above-described feature point tracking CV calculation (see FIGS. 2 to 14) and real time. This is a part having a function of acquiring the relationship between the three-dimensional position around the vehicle and the three-dimensional position and posture of the traveling vehicle by the three-dimensional designated point correspondence method CV calculation by comparing the video and the three-dimensional map. In this embodiment, since the video of the omnidirectional camera 11 of the spatial information acquisition unit 10 can be used, there is no need to newly install an omnidirectional camera for CV calculation.
In addition, during daytime, it can be obtained by shooting various surrounding objects with an omnidirectional camera, but nighttime spatial information is obtained by acquiring all illuminants installed in the surveillance area as an omnidirectional image. Become. In addition, in order to perform the CV calculation of the three-dimensional designated point correspondence method at night, the image and coordinates of the light emitter are registered in the three-dimensional map.

すなわち、空間情報取得部10の各カメラは、もともと監視対象物を撮影することを目的とするものであるが、そのデータから、空間情報のみならず車輌位置の三次元座標を取得することができる。
指定方向カメラ部13の赤外線カメラにより赤外線撮影可能な既設の対象物を捉えることで、情報の少ない夜間においては、夜間の空間情報取得のみならず、三次元座標が既知であるライトを取得することにより、位置座標取得にも貢献することになる。
That is, each camera of the spatial information acquisition unit 10 is originally intended to shoot a monitoring object, but it can acquire not only spatial information but also three-dimensional coordinates of the vehicle position from the data. .
By capturing existing objects that can be photographed by the infrared camera of the designated direction camera unit 13, not only nighttime spatial information but also light with known three-dimensional coordinates can be obtained at night when there is little information. This contributes to the acquisition of position coordinates.

さらに、三次元指定点対応方式CV演算によれば、リアルタイムで取得した映像(空間情報)と三次元地図の中の指定された点と空間情報との対応点を連続的に取ることで、上述した特徴点追跡方式のCV演算に比較して、より高速に位置情報を取得でき、特にリアルタイム処理には有利である。
三次元地図とリアルタイム取得した映像との対応は、空港の監視区域内にある様々な標識やマークを指定点に指定しておくことで、三次元地図に登録しておき、それと同一の指定点を空間情報としてリアルタイム取得した映像の中に検索すればよい。
Furthermore, according to the 3D designated point correspondence method CV calculation, by continuously taking corresponding points between the video (spatial information) acquired in real time and the designated point in the 3D map and the spatial information, Compared with the feature point tracking CV calculation, position information can be acquired at a higher speed, which is particularly advantageous for real-time processing.
The correspondence between the 3D map and the video acquired in real time can be specified in the 3D map by designating various signs and marks in the airport surveillance area as designated points. May be searched for in the video acquired in real time as spatial information.

空港には、指定点に適した標識やマークが沢山あるので、この方法が有効である。指定点となり得る一例を図22に示してある。図中、「▲」は指定点となり得る路面表示、「+」は指定点となり得る標識、「・」は指定点となり得るライトを示している。
なお、標識やマークが少ない空港内の区域においては、指定目的で新たに用意した指定マークを現場に設置し、それを三次元地図の映像に写し込んで置くことで、空間情報取得時に取得した前記指定点との比較対応により、車輌の位置座標と姿勢を取得できる。
This method is effective because there are many signs and marks suitable for designated points at airports. An example that can be designated points is shown in FIG. In the figure, “▲” indicates a road surface that can be a designated point, “+” indicates a sign that can be a designated point, and “•” indicates a light that can be a designated point.
In areas where there are few signs and marks in the airport, a new designated mark prepared for designated purposes is installed at the site, and it is captured on the 3D map image, which is obtained when acquiring spatial information. The position coordinates and posture of the vehicle can be acquired by comparison with the designated point.

対応の取れた指定点から、カメラ位置、すなわち車輌位置を求めるには、原理的には、指定点3点〜4点以上有れば、カメラの三次元座標及び姿勢を検出できることになる。実際には15〜20点程度の指定点の対応が取れれば十分であり、さらに100点近く取れば高精度の三次元座標と姿勢が取得できる。
これは、結果として、三次元指定点対応方式のCV演算で得られたCV値は、特徴点追跡方式のCV演算で得られたCV値と同一であり、三次元地図と比較せずに、単独で特徴点追跡によりCV演算して取得した特徴点追跡方式のCV値と同じ意味を持つ。すなわち、空間情報として取得したリアルタイム映像は、三次元地図と比較することで、CV値を取得することができるのである。換言すれば、結果として取得されたCV値は、特徴点追跡方式CV演算によるものなのか、三次元指定点対応方式CV演算によるものかは区別できないのである。
本実施形態では、三次元指定点対応方式CV演算を、図19に示す統合空間情報部40で行うものとする。
In order to obtain the camera position, that is, the vehicle position from the corresponding designated point, in principle, if there are three to four designated points, the three-dimensional coordinates and posture of the camera can be detected. Actually, it is sufficient if correspondence of about 15 to 20 designated points can be obtained, and if it is further taken near 100 points, highly accurate three-dimensional coordinates and postures can be acquired.
As a result, the CV value obtained by the CV calculation of the three-dimensional designated point correspondence method is the same as the CV value obtained by the CV calculation of the feature point tracking method, and without comparison with the three-dimensional map, It has the same meaning as the CV value of the feature point tracking method obtained by CV calculation by feature point tracking alone. That is, a real-time video acquired as spatial information can acquire a CV value by comparing it with a three-dimensional map. In other words, it cannot be distinguished whether the CV value obtained as a result is based on the feature point tracking method CV calculation or the three-dimensional designated point correspondence method CV calculation.
In the present embodiment, it is assumed that the three-dimensional designated point correspondence method CV calculation is performed by the integrated space information unit 40 shown in FIG.

GPS・IMU・ジャイロ部20bは、GPSやIMUを積載し、車輌位置の三次元座標と姿勢を取得する機能を持つ部分である(図20及び図21参照)。なお、IMUの替わりにジャイロによっても代用できる。
GPSやIMUは、周囲の空間情報を取得することはできなが、昼夜に関係なく作動し、車輌位置を示すデータを取得することができる。
また、霧で何も見えないような場合には、IMUに頼る以外ないが、通常はGPSで概略位置を取得し、三次元地図と実写映像の比較によりCV値を求める方法が有利である。
このように、GPSやIMUは、すべての機器を同時に用いる必要はなく、これらの機器は必要に応じて切り替えて使うことができる。例えば、映像との比較を行うためには全周映像から得られたCV値をGPSで絶対校正したものが精度良く、利用価値がある。
The GPS / IMU / gyro unit 20b is a part that carries a GPS and an IMU and has a function of acquiring the three-dimensional coordinates and posture of the vehicle position (see FIGS. 20 and 21). A gyro can be substituted for the IMU.
The GPS and the IMU cannot acquire the surrounding spatial information, but operate regardless of day and night, and can acquire data indicating the vehicle position.
In addition, in the case where nothing can be seen due to fog, it is only possible to rely on the IMU, but it is usually advantageous to obtain the approximate position by GPS and obtain the CV value by comparing the 3D map and the real image.
Thus, it is not necessary for GPS and IMU to use all devices at the same time, and these devices can be switched and used as necessary. For example, in order to compare with a video, a CV value obtained from an all-round video that is absolute calibrated with GPS is accurate and useful.

統合空間情報部40は、空間情報取得部10により取得された三次元の空間情報を統合する機能を有する部位である。
具体的には、統合空間情報部40の座標統合部41は、空間情報取得部10の全周囲カメラ部11,進行路面カメラ部12,指定方向カメラ部13,レーザスキャナ部14,レーダ部15のいずれか又はそれらの組み合わせから得られたデータと、位置座標取得部20で得られた車輌位置のデータを統合して、空間情報を統合する。
上述したように、空間情報は一つの機器ではなく、様々な機器の複数の情報の組み合わせで得られる。また、一つの機器でも空間情報を取得できるが、複数用いることでより精度の高い、より緻密な空間情報を取得できる。のである。
そして、取得された複数の空間情報が座標統合部41で統合される。
The integrated spatial information unit 40 is a part having a function of integrating the three-dimensional spatial information acquired by the spatial information acquisition unit 10.
Specifically, the coordinate integration unit 41 of the integrated space information unit 40 includes an omnidirectional camera unit 11, a traveling road surface camera unit 12, a designated direction camera unit 13, a laser scanner unit 14, and a radar unit 15 of the spatial information acquisition unit 10. Spatial information is integrated by integrating data obtained from any one or a combination thereof and vehicle position data obtained by the position coordinate acquisition unit 20.
As described above, the spatial information is obtained not by a single device but by a combination of a plurality of pieces of information from various devices. In addition, spatial information can be acquired with a single device, but more precise and detailed spatial information can be acquired by using a plurality of spatial information. It is.
Then, the plurality of acquired spatial information is integrated by the coordinate integration unit 41.

車輌位置姿勢特定部42は、位置座標取得部20において全周囲映像から得られたCV値と、GPS,IMUからの位置情報により、車輌の座標と姿勢を取得する。この車輌位置姿勢特定部42で得られた座標と姿勢により、三次元地図の中に車輌位置が特定されることになる。
そして、統合空間情報部40において求められた車輌位置、例えばCV演算とGPSによって得られた車輌位置を三次元地図上の座標に印すことで、統合空間情報部と三次元地図を整合し、統合させ、さらに三次元地図内での車輌位置を特定することができる。
これによって、三次元地図と空間情報が統合されたことになる。
The vehicle position / orientation specifying unit 42 acquires the coordinates and posture of the vehicle based on the CV value obtained from the all-around video in the position coordinate acquisition unit 20 and the position information from the GPS and IMU. The vehicle position is specified in the three-dimensional map based on the coordinates and posture obtained by the vehicle position / posture specifying unit 42.
Then, the vehicle position obtained in the integrated space information unit 40, for example, the vehicle position obtained by CV calculation and GPS is marked on the coordinates on the 3D map, thereby matching the integrated space information unit and the 3D map, It is possible to integrate and further specify the vehicle position in the 3D map.
As a result, the three-dimensional map and the spatial information are integrated.

三次元地図部30は、前もって生成した、空港の監視区域内及びその周辺の三次元地図を記録している。具体的には、3D形状地図31,昼間3D映像地図部32,夜間3D映像地図部33を備えている。
ここで、三次元地図は、前もって測量も組み合わせて精度の高い三次元地図を生成しておくことができる。すなわち、3D形状地図31は、測量等により正確に三次元地図化しておくことができる。
また、前もって、監視区域内を詳細に計測したレーザスキャナによる三次元形状を重ねて3D形状地図31とすることもできる。
The three-dimensional map unit 30 records a three-dimensional map generated in advance in and around the airport monitoring area. Specifically, a 3D shape map 31, a daytime 3D video map unit 32, and a nighttime 3D video map unit 33 are provided.
Here, the three-dimensional map can be combined with surveying in advance to generate a highly accurate three-dimensional map. That is, the 3D shape map 31 can be accurately made into a three-dimensional map by surveying or the like.
In addition, a 3D shape map 31 can be obtained by superimposing a three-dimensional shape by a laser scanner that measures the details in the monitoring area in advance.

このように、三次元地図としては、前もって昼間に監視区域全域を詳細に全周映像で撮影し、CV演算済みの全周囲映像(CV映像)を昼間3D映像地図部32として記録したものが望ましい。
特に、三次元地図部30には、CV映像に加えて高精度GPSや実際の測量を組み合わせて高精度にキャリブレーションした3D形状地図31を付加することが望ましい。
また、夜間は座標が既知の小ライトや、車輌からの投光で反射するマーカなどを監視空間に複数設置しておき、その座標を登録した夜間3D映像地図部33を付加することが望ましい。
As described above, it is desirable that the 3D map is obtained by photographing the entire monitoring area in detail in the daytime in the daytime in detail and recording the CV-calculated all-around video (CV video) as the daytime 3D video map unit 32. .
In particular, it is desirable to add to the 3D map unit 30 a 3D shape map 31 that is calibrated with high accuracy by combining high-accuracy GPS and actual surveying in addition to CV images.
It is also desirable to add a small 3D video map unit 33 in which a plurality of small lights whose coordinates are known at night and markers that are reflected by light from a vehicle are installed in the monitoring space and the coordinates are registered.

このように、夜間と昼間では異なる映像となることから、本実施形態では、夜間と昼間の映像地図2種類を備えるようにしてある。
なお、特殊な場合として、精度は落ちるが、車載された機器のみで三次元地図を生成することができる。この場合、1度目は地図無しで地図を生成しながら監視行動を行い、次回からは、1度目で生成した三次元地図を三次元地図部のデータとして扱い、1度目で取得した地図をさらに更新しながら、監視活動を行うことができる。
In this way, since the images are different at night and daytime, in this embodiment, two types of video maps at night and daytime are provided.
As a special case, the accuracy is reduced, but a three-dimensional map can be generated only by an on-board device. In this case, the monitoring action is performed for the first time while generating a map without a map, and from the next time, the 3D map generated at the first time is treated as data of the 3D map part and the map acquired at the first time is further updated. Monitoring activities can be performed.

自動検出部50は、比較対応部51と監視対象物(予測される対象物、障害物、不審物等)自動検出部52とを備える。
比較対応部51は、監視区域内の三次元座標を表す三次元地図を、統合空間情報と比較して対応させ、監視対象物(予測される対象物、障害物、不審物等)を検出し、監視対象物を確認する。
ここで、自動検出部50では、基準となる三次元地図に同じ位置に存在する統合空間情報内の対象物は予測される対象物であり、障害物でも、不審物でもないと判断する。
一方、三次元地図には存在せず、取得した統合空間情報には存在する物体があれば、それは予測される対象物ではなく、障害物、又は不審物と判定する。
さらに、三次元地図には存在して、取得した統合空間情報に存在しない場合には、要検討、要確認との判断になる。
The automatic detection unit 50 includes a comparison correspondence unit 51 and a monitoring target (predicted target, obstacle, suspicious object, etc.) automatic detection unit 52.
The comparison corresponding unit 51 compares the three-dimensional map representing the three-dimensional coordinates in the monitoring area with the integrated spatial information, and detects the monitoring object (predicted object, obstacle, suspicious object, etc.). Check the monitoring object.
Here, the automatic detection unit 50 determines that the object in the integrated spatial information existing at the same position on the reference three-dimensional map is a predicted object and is not an obstacle or a suspicious object.
On the other hand, if there is an object that does not exist in the three-dimensional map and exists in the acquired integrated spatial information, it is determined as an obstacle or a suspicious object, not a predicted object.
Furthermore, when it exists in the three-dimensional map and does not exist in the acquired integrated spatial information, it is determined to be examined or confirmed.

監視対象物(予測される対象物、障害物、不審物等)自動検出部52は、三次元地図と統合空間情報とを比較して、一致する部分と対応しない不一致の部分とを決定する。
具体的には、監視対象物自動検出部52は、三次元地図と統合空間情報との不一致の部分を分離して取り出し、監視区域内の監視対象物(予測される対象物、障害物、不審物等)として特定する。
なお、この段階では、不一致部分の三次元座標は特定でき、障害物又は不審物との判定はできるが、認識はされておらず、その特定された対象物が何であるかは不明のままである。
The monitoring object (predicted object, obstacle, suspicious object, etc.) automatic detection unit 52 compares the three-dimensional map with the integrated spatial information, and determines a matching part and a mismatching part that does not correspond.
Specifically, the monitoring object automatic detection unit 52 separates and extracts the mismatched portion between the three-dimensional map and the integrated spatial information, and monitors the monitoring object (predicted object, obstacle, suspicious object) in the monitoring area. ).
At this stage, the three-dimensional coordinates of the inconsistent part can be specified and it can be determined as an obstacle or a suspicious object, but it is not recognized, and it remains unknown what the specified object is. is there.

地図更新部80は、監視対象物の確認結果、及び監視対象物(予測される対象物、障害物、不審物等)等を、三次元地図部30の三次元地図に登録する機能を持つ。
具体的には、地図更新部80は、三次元地図との対比の結果、対象物に変化が有ればそれを三次元地図に更新して登録する。
また、地図更新部80は、監視対象物(予測される対象物、障害物、不審物等)も次回の監視時に再確認するために一時登録する。
さらに、地図更新部80は、認識結果を三次元地図に反映させる必要が有れば反映させて登録する。
このように、地図更新部80によって三次元地図の更新が続けられることで、三次元地図部30に備えられる三次元地図は常に新しい情報に更新されることになる。
The map update unit 80 has a function of registering the confirmation result of the monitoring object and the monitoring object (predicted object, obstacle, suspicious object, etc.) in the 3D map of the 3D map unit 30.
Specifically, if there is a change in the object as a result of comparison with the three-dimensional map, the map update unit 80 updates and registers it in the three-dimensional map.
In addition, the map update unit 80 also temporarily registers a monitoring object (predicted object, obstacle, suspicious object, etc.) for reconfirmation at the next monitoring.
Furthermore, the map update unit 80 reflects and registers the recognition result if it is necessary to reflect it in the three-dimensional map.
As described above, when the update of the 3D map is continued by the map update unit 80, the 3D map provided in the 3D map unit 30 is always updated with new information.

視点方向コントロール部60は、特定された監視対象物(予測される対象物、障害物、不審物等)の三次元座標と前記車輌の三次元座標から演算により決定される監視対象物(予測される対象物、障害物、不審物等)の方向に対して、カメラ等の機器をコントロールする機能を持つ部分である。
具体的には、視点コントロール部61は、レーザスキャナ装置を可動方式として、その方向をコントロールすることができる。
レーザ機器は一般に高額なので複数取り付けるとは困難なため、一台のレーザスキャナ装置を可動型にして利用することが望ましい。
また、レーザに関する視点コントロール部を設置せず、レーザは固定型として、カメラのみで指定方向を観察するようにすれば、コスト的には有利である。
The viewpoint direction control unit 60 is configured to calculate a monitoring target (predicted object determined by calculation from the three-dimensional coordinates of the specified monitoring target (predicted target, obstacle, suspicious object, etc.) and the three-dimensional coordinates of the vehicle. (Object, obstacle, suspicious object, etc.) having a function of controlling a device such as a camera.
Specifically, the viewpoint control unit 61 can control the direction of the laser scanner device as a movable system.
Since laser devices are generally expensive, it is difficult to mount a plurality of laser devices. Therefore, it is desirable to use one laser scanner device in a movable type.
In addition, it is advantageous in terms of cost if the viewpoint control unit related to the laser is not installed, and the laser is fixed and the designated direction is observed only with the camera.

また、視点コントロール部61は、監視対象物(予測される対象物、障害物、不審物等)に対して指定方向カメラを向けることで、監視対象物(予測される対象物、障害物、不審物等)を拡大して捉えると同時に、既設の監視対象物に対して、三次元地図に印された位置に、同じ姿勢で存在するか否かを確認することもできる。
この確認のためには、車輌位置からの方向を指定するので、指定方向に既設の監視対象物が予定通り存在すれば、それは監視対象物の確認と同時に、車輌位置の確認にもなることは重要である。
そして、次々と既設の監視対象物が指定通りの方向に存在することを確認していくことで、カメラの正しい三次元の軌跡を取得することができる。
In addition, the viewpoint control unit 61 directs the camera in the designated direction to the monitoring target (predicted target, obstacle, suspicious object, etc.), so that the monitoring target (predicted target, obstacle, suspicious) It is also possible to confirm whether or not the existing monitoring target is present in the same posture at the position marked on the three-dimensional map.
For this confirmation, the direction from the vehicle position is specified, so if there is an existing monitoring target in the specified direction as planned, it can be confirmed at the same time as the monitoring target as well as the vehicle position. is important.
The correct three-dimensional trajectory of the camera can be acquired by confirming that existing monitoring objects are present in the designated direction one after another.

移動体追跡部62は、単体の全周カメラの映像から得られる移動体CV値から、又は同期処理した複数の全周カメラによる映像から、移動する物体のみを抽出する。
すなわち、監視対象物(予測される対象物、障害物、不審物等)は移動物体の中にも存在するという前提で、移動体追跡部62では、移動体とその概略の大きさを検出し、次に、検出された移動体を追跡し、その三次元位置及び方向を追跡する。
The moving body tracking unit 62 extracts only the moving object from the moving body CV value obtained from the image of a single omnidirectional camera or from the images of a plurality of synchronized omnidirectional cameras.
In other words, the moving object tracking unit 62 detects the moving object and its approximate size on the assumption that the monitoring object (predicted object, obstacle, suspicious object, etc.) also exists in the moving object. Next, the detected moving body is tracked and its three-dimensional position and direction are tracked.

自動認識部70は、取得された情報を総合的に組み合わせ、監視対象物(予測される対象物、障害物、不審物等)として予想される属性情報と照らし合わされて監視対象物(予測される対象物、障害物、不審物等)を認識する機能を持つ。
ここで、認識とは、その監視対象物の属性を記録の中から呼び出せた状態をいう。例えば、監視区域内に「タイヤ」が落ちていた場合、それを監視対象物として判断しその三次元座標を取得した段階では「検出」され「特定」はされてはいるが、未だ「認識」は出来ていない状況である。それが路上に落ちているタイヤであると判断するには、監視対象物(予測される対象物、障害物、不審物等)は、認識部分にあるデータベースと比較され、タイヤの属性と一致したときに、それがタイヤであると認識されたことになる。
The automatic recognizing unit 70 comprehensively combines the acquired information, and compares the attribute information predicted as the monitoring target (predicted target, obstacle, suspicious object, etc.) with the monitoring target (predicted). (Objects, obstacles, suspicious objects, etc.).
Here, “recognition” refers to a state in which the attribute of the monitored object can be called out from the record. For example, if a "tire" has fallen in the monitoring area, it is detected and specified at the stage where it is determined as a monitoring object and its three-dimensional coordinates are acquired, but it is still "recognized". Is not in the situation. To determine that the tire is falling on the road, the monitored object (predicted object, obstacle, suspicious object, etc.) was compared with the database in the recognition part and matched with the attribute of the tire Sometimes it was recognized as a tire.

本実施形態では、記録した属性と比較して自動認識するPRM認識部71を備える。
PRM認識部71は、上述した対象物を認識するためのPRM技術を使用するものであり、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する。
In the present embodiment, a PRM recognition unit 71 that automatically recognizes compared with the recorded attribute is provided.
The PRM recognizing unit 71 uses the above-described PRM technology for recognizing an object, and prepares all the shapes and attributes of the object to be predicted in advance as parts (operator parts). Compare the actual video and select the matching parts to recognize the object.

監視表示部90は、認識された監視対象物(予測される対象物、障害物、不審物等)を表示する表示手段である。
具体的には、監視表示部90は、認識された監視対象物(予測される対象物、障害物、不審物等)を、その属性とともに、さらにその三次元位置とともに、単独で現実の実像の中に、又は実写映像の中に、あるいは三次元地図の中に表示する。
なお、監視対象物(予測される対象物、障害物、不審物等)と特定された物体が、記録の中に存在しなければ自動認識部70では認識できないことになるが、その場合には、監視表示部90において、その監視対象物(予測される対象物、障害物、不審物等)の形状を映像として表示することができる。
また、監視対象となる対象物のいくつかには、予め属性が登録され、必要に応じて更新し、検索し、画像中で自動又は手動により指定すれば、呼び出された属性を映像とともに表示することができる。
The monitoring display unit 90 is a display unit that displays a recognized monitoring object (a predicted object, an obstacle, a suspicious object, or the like).
Specifically, the monitoring display unit 90 alone recognizes the monitored object (predicted object, obstacle, suspicious object, etc.) with its attributes and further with its three-dimensional position. Display in a live-action video or in a 3D map.
It should be noted that the automatic recognition unit 70 cannot recognize an object identified as a monitoring target (predicted target, obstacle, suspicious object, etc.) unless it exists in the record. The monitoring display unit 90 can display the shape of the monitoring object (predicted object, obstacle, suspicious object, etc.) as an image.
In addition, attributes are registered in advance for some of the objects to be monitored, updated as necessary, searched, and if called automatically or manually in the image, the called attributes are displayed together with the video. be able to.

例えば、空港内を移動する航空機は監視対象物であるが、それを本実施形態の監視装置1Aによって車輌を停止又は移動しながら監視・検出し、その形状やマークから航空機名を特定して、他の属性情報から便名まで認識して、監視表示部90で表示することができる。
また、監視対象物(予測される対象物、障害物、不審物等)を特定して警報音を発することができる。また、記憶装置の中から属性情報を取得できれば、自動認識して、その属性等を表示し、または警報等を発することも可能となる。
For example, an aircraft moving in an airport is an object to be monitored, but it is monitored and detected while the vehicle is stopped or moved by the monitoring apparatus 1A of the present embodiment, and the name of the aircraft is identified from its shape and mark, From the other attribute information to the flight name can be recognized and displayed on the monitoring display unit 90.
Further, it is possible to specify a monitoring object (a predicted object, an obstacle, a suspicious object, etc.) and emit an alarm sound. Further, if attribute information can be acquired from the storage device, it is possible to automatically recognize and display the attribute or the like, or to issue an alarm or the like.

さらに、現実の実像にCG合成して監視表示部90に表示されることができ、例えば、夜間の監視動作において、夜間映像に昼間の三次元化された映像や、視点移動した二次元映像を合成することができる。
夜間の監視の場合、現実の実像は真っ暗であるが、この現実の実像に車輌の三次元位置と姿勢を合致させることで、すなわち夜間映像のCV値を求めることで、運転者の視点とCGの視点を合致させて、夜間映像に昼間の映像を合成することができる。
これによって、オペレータは、夜間でありながら監視表示部90に表示される昼間の映像を見ながら運転走行し、監視行動を続けることが可能となる。
Furthermore, it can be CG-combined with a real real image and displayed on the monitor display unit 90. For example, in a night-time monitoring operation, a three-dimensional video in the daytime or a two-dimensional video moved in the viewpoint is converted into a night video. Can be synthesized.
In the case of nighttime monitoring, the actual real image is completely dark, but by matching the vehicle real-time image with the three-dimensional position and posture of the vehicle, that is, by obtaining the CV value of the nighttime image, the driver's viewpoint and CG The daytime video can be combined with the nighttime video by matching the viewpoints.
Thus, the operator can drive while watching the daytime video displayed on the monitoring display unit 90 at night, and can continue the monitoring action.

データ記録部100は、上述した自動検出部50の自動検出の結果と、自動認識部70の自動認識の結果を記録する記録手段である。
ここで、データ記録部100には、すべての機器と各部の経緯を同時に記録することが望ましい。
また、データ記録部100に記録するデータは、自動検出した監視対象物及び自動認識した監視対象物を画像として、又は同時にCG化して、長期間記録することもできる。
The data recording unit 100 is a recording unit that records the result of automatic detection by the automatic detection unit 50 and the result of automatic recognition by the automatic recognition unit 70 described above.
Here, it is desirable to record all devices and the history of each unit in the data recording unit 100 at the same time.
The data to be recorded in the data recording unit 100 can also be recorded for a long period of time as an automatically detected monitoring object and an automatically recognized monitoring object as an image or simultaneously CG.

自動判断部110は、自動検出部50の自動検出結果と、自動認識部70の自動認識結果の出力から、車輌の置かれている状況を把握して判断し、車輌の次の取るべき行動を決定する。すなわち、自動判断部110は、監視装置として、監視の目的に沿った判断を行う。
自動制御部120は、自動判断部110の出力により、車輌の各部を自動制御し、自動運転を行う制御手段である。
また、自動制御部120は、監視に必要となる各機器の制御や、移動する監視対象物の自動追跡,警報音の発生,関係部署への自動連絡等も行う。
The automatic determination unit 110 grasps and determines the situation in which the vehicle is placed from the automatic detection result of the automatic detection unit 50 and the output of the automatic recognition result of the automatic recognition unit 70, and determines the next action to be taken by the vehicle. decide. In other words, the automatic determination unit 110 performs determination according to the purpose of monitoring as a monitoring device.
The automatic control unit 120 is a control unit that automatically controls each part of the vehicle based on the output of the automatic determination unit 110 and performs automatic driving.
In addition, the automatic control unit 120 performs control of each device necessary for monitoring, automatic tracking of a moving monitoring object, generation of an alarm sound, automatic communication with related departments, and the like.

車輌部130は、自動制御部120で制御される車輌そのものである。
車輌には、上述したような本自動監視装置1Aの各種機器類が搭載されており、自動運転が可能であり、また自動運転を行わない場合には、オペレータによる通常の運転が可能である。
また、車輌は、監視対象物(予測される対象物、障害物、不審物等)の追跡機能と自動運転機能により、移動する不審物の自動追跡が可能となる。
The vehicle unit 130 is a vehicle itself that is controlled by the automatic control unit 120.
Various types of equipment of the automatic monitoring apparatus 1A as described above are mounted on the vehicle, and automatic driving is possible. When automatic driving is not performed, normal driving by an operator is possible.
Further, the vehicle can automatically track a moving suspicious object by a tracking function and an automatic driving function of a monitoring object (predicted object, obstacle, suspicious object, etc.).

通信回線部140は、視点方向コントロール部60の視点方向データを、通信回線を介してターミナル等に設置された中央監視部150や、滑走路等に沿って設置された固定設置ビデオカメラ部160に送信する。
これにより、中央監視部150では、既設の固定カメラを手動又は自動で指定された座標に向けることができ、中央監視部150において直接監視対象物(予測される対象物、障害物、不審物等)を映像で確認することができる。
The communication line unit 140 transfers the viewpoint direction data of the viewpoint direction control unit 60 to the central monitoring unit 150 installed in the terminal or the like via the communication line or the fixed installation video camera unit 160 installed along the runway or the like. Send.
As a result, the central monitoring unit 150 can point the existing fixed camera to the designated coordinates manually or automatically. ) Can be confirmed on the video.

以上、本発明の移動型自動監視装置の一実施形態として、空港内の監視装置を示したが、本発明は、監視目的以外にも、様々な応用が可能である。
すなわち、三次元地図を備えれば、あるいは三次元地図を備えなくても、リアルタイムに三次元地図を生成することにより、自動運転や自動案内装置として、通常の道路走行にも利用することができる。また、航空機や潜水艦、宇宙探査装置等にも応用が可能である。
以下に、本発明の移動型自動監視装置を監視目的以外に応用する場合の実施形態について説明する。
As mentioned above, although the monitoring apparatus in an airport was shown as one Embodiment of the mobile automatic monitoring apparatus of this invention, various applications other than the monitoring objective are possible for this invention.
In other words, if a 3D map is provided or a 3D map is not provided, a 3D map can be generated in real time so that it can be used for normal driving as an automatic driving or automatic guidance device. . It can also be applied to aircraft, submarines, space exploration devices, etc.
Hereinafter, an embodiment in which the mobile automatic monitoring apparatus of the present invention is applied for purposes other than monitoring purposes will be described.

[作業操作案内表示装置]
以下、本発明の移動型自動監視装置を使用して倉庫の荷物の運搬等を行うための作業操作案内表示装置の一実施形態について、図23〜図25を参照しつつ説明する。
図23は、本実施形態に係る作業操作案内表示装置の概略構成を示す機能ブロック図である。
図24は、図23に示す作業操作案内表示装置を搭載した作業車輌を模式的に示す説明図である。
また、図25は、図23に示す作業操作案内表示装置の監視表示部で表示される表示画像例である。
[Work operation guidance display device]
Hereinafter, an embodiment of a work operation guidance display device for carrying goods in a warehouse using the mobile automatic monitoring device of the present invention will be described with reference to FIGS.
FIG. 23 is a functional block diagram illustrating a schematic configuration of the work operation guidance display device according to the present embodiment.
FIG. 24 is an explanatory view schematically showing a work vehicle equipped with the work operation guidance display device shown in FIG.
FIG. 25 is an example of a display image displayed on the monitoring display unit of the work operation guidance display device shown in FIG.

上述したように、本発明の移動型自動監視装置は、例えば航空機離着陸時に、空港の現実の実像、や実写映像、又は前もって用意している三次元映像に、目的の案内マーカや監視対象物を重複して表示することができる。
本実施形態では、このような本発明の特徴を利用して、作業者,オペレータが作業車輌や建設機械等を使って作業をする場合に、その作業操作を補助する案内表示を行う、案内マークと現実の実像の合成による作業操作案内表示方法及び装置を提供するものであり、
具体的には、本実施形態の作業操作案内表示装置1Bは、一般の作業専用車輌や、ユンボ,バックフォー,ブルドーザ,クレーン,リフト等の重機を用いて作業を行う場合に、現実の実像又は実写映像に三次元化された工事の設計図を重ねて標示し、設計図と現場の現実の実像を重ね合わせて表示・確認できる案内表示装置である。
As described above, the mobile automatic monitoring device according to the present invention, for example, at the time of takeoff and landing of an aircraft, adds a target guide marker or a monitoring object to a real image of an airport, a real image, or a three-dimensional image prepared in advance. Duplicate display is possible.
In this embodiment, by utilizing such a feature of the present invention, when an operator or an operator works using a work vehicle, a construction machine, or the like, a guide mark is displayed to assist the work operation. And a work operation guidance display method and apparatus by combining real and real images,
Specifically, the work operation guidance display device 1B of the present embodiment is an actual real image or a real image when working using a general work-dedicated vehicle or heavy equipment such as a Yumbo, a backfor, a bulldozer, a crane, and a lift. This is a guidance display device that displays and confirms a 3D construction work plan by superimposing it on a live-action video, and overlaying the design map with the actual real image of the site.

本実施形態の作業操作案内表示装置1Bは、上述した移動型自動監視装置1における監視表示部90に特徴を有するものであり、その他の部分は、移動型自動監視装置1(及び空港内移動型自動監視装置1A)と同様の構成となっている。
具体的には、図23に示す通りであり、同図中、図1に示す移動型自動監視装置1(及び図19に示す空港内移動型自動監視装置1A)と同様の構成部分(同一の符号を付す)については、同様に動作・機能するものである。例えば、本実施形態の案合表示装置1Bを搭載した作業車輌においても、上述した空港内移動型自動監視装置1Aの監視車輌の場合と同様に、自動運転や自動作業を行うこともできる。
The work operation guidance display device 1B of the present embodiment is characterized by the monitoring display unit 90 in the mobile automatic monitoring device 1 described above, and the other parts are the mobile automatic monitoring device 1 (and in the airport mobile type). The configuration is the same as that of the automatic monitoring apparatus 1A).
Specifically, it is as shown in FIG. 23. In FIG. 23, the same components (same as the mobile automatic monitoring apparatus 1 shown in FIG. 1 (and the in-airport mobile automatic monitoring apparatus 1A shown in FIG. 19)). The operation and function are performed in the same manner. For example, even in a work vehicle equipped with the proposed display device 1B of the present embodiment, automatic driving and automatic work can be performed as in the case of the monitoring vehicle of the in-airport mobile automatic monitoring device 1A described above.

以下、作業車輌としてリフトを使用する場合の監視表示部90の構成及び動作について、図面を参照しつつ詳細に説明する。
図23に示すように、本実施形態では、空間情報取得部10で撮影・監視され、自動検出部50で検出され、また自動認識部70で認識された監視対象物(予測される対象物、障害物、不審物等)の映像(検出映像)が、監視表示部90の合成目的映像資料部91に一旦記録される。
また、合成目的映像資料部91には、合成目的映像資料として、監視対象物の認識CG部品(認識映像,認識CG)や、既存CG(設計図,計画図)等が記録されている。
そして、これらの合成目的映像資料が、図23に示すように、現実の実像92、空間情報取得部10で取得された実写映像93、三次元地図から切り出した現場三次元地図94として出力・表示され、また、これらの映像等とともに、部品化されたCGや、既存の三次元地図や完成形が示された設計図等が出力・表示されるようになっている。
以下に、現実の実像92に合成目的の映像資料としてCGが合成表示される場合について説明する。
Hereinafter, the configuration and operation of the monitoring display unit 90 when a lift is used as a work vehicle will be described in detail with reference to the drawings.
As shown in FIG. 23, in this embodiment, the monitoring object (predicted object, which is captured and monitored by the spatial information acquisition unit 10, detected by the automatic detection unit 50, and recognized by the automatic recognition unit 70). A video (detected video) of an obstacle, a suspicious object, etc.) is once recorded in the composite target video material part 91 of the monitoring display part 90.
Further, in the synthesis target video material unit 91, a recognition CG component (recognition video, recognition CG) of an object to be monitored, an existing CG (design drawing, plan diagram), and the like are recorded as the synthesis target video material.
Then, as shown in FIG. 23, these composite target video materials are output and displayed as a real real image 92, a real video 93 acquired by the spatial information acquisition unit 10, and an on-site 3D map 94 cut out from the 3D map. In addition to these images, a componentized CG, an existing three-dimensional map, a design drawing showing a completed form, and the like are output and displayed.
The case where CG is synthesized and displayed on the actual real image 92 as a video material for synthesis will be described below.

図25(a)は、現実の実像である。現実の実像とは、カメラ等で取り込んだ映像ではなく、現実そのものであり、現実世界の状況そのものを意味する。
図25(b)は、本案内表示装置1Bによって特定された監視対象物であるコンテナの最終積み上げの完成された形状の作業完了予定図である。
そして、図24に示すように、リフトの作業者前方に備えられたハーフフミラーと映像投影装置により、これら現実の実像(図25(a))と合成目的映像資料(図25(b))が、光学的に合成された視野合成図(図25(c)参照)として表示される。
また、本実施形態では、視野合成図には、図25(c)に示すように、障害物(図24(b)参照)を避けて車輌が移動する方向を自動案内する車輌案内マーカが示されるようになっている。さらに、視野合成図には、図25(c)に示すように、各コンテナの積み上げ時の移動方向も作業案内マーカとして矢印で示されるようになっている。
FIG. 25A is a real real image. A real real image is not an image captured by a camera or the like, but the reality itself, which means the situation in the real world.
FIG. 25B is a work completion schedule diagram of the completed shape of the final stacking of the containers that are the monitoring objects identified by the guidance display device 1B.
Then, as shown in FIG. 24, these real images (FIG. 25 (a)) and composite purpose video materials (FIG. 25 (b)) are provided by a half mirror and a video projection device provided in front of the lift operator. Is displayed as an optically synthesized visual field composite diagram (see FIG. 25C).
In this embodiment, as shown in FIG. 25 (c), the visual field composite diagram shows a vehicle guidance marker that automatically guides the direction in which the vehicle moves while avoiding obstacles (see FIG. 24 (b)). It is supposed to be. Further, as shown in FIG. 25 (c), in the visual field composite diagram, the moving direction when each container is stacked is also indicated by an arrow as a work guide marker.

これにより、現実世界の実映像(図25(a)参照)と、特定された監視対象物であるコンテナの最終積み上げの完成された形状(図25(b)参照)とが合成されて表示され(図25(c)参照)、リフトを使用してコンテナを整理整頓して積み上げる作業において、作業者(運転者)は、前方のハーフミラーを通して、現実の実像と作業の最終形と合成される映像を観察して作業を進めることができる。
このように、本実施形態では、合成目的映像資料部91に記録された合成目的映像資料が、図24(a)に示す映像投影装置とハーフミラーによって、実映像視界と重なるように、実スケールで、視点と距離に矛盾無く、作業者から観察できるようになっており、作業者は合成視界の中に、視野合成図を観察することができる。
As a result, the real image of the real world (see FIG. 25 (a)) and the completed shape of the final stacked container (see FIG. 25 (b)), which is the identified monitoring target, are combined and displayed. (Refer to FIG. 25 (c)) In the work of organizing and stacking containers using a lift, the operator (driver) is combined with the real real image and the final form of the work through the front half mirror. You can observe the video and work on it.
As described above, in the present embodiment, the real scale image material recorded in the composite purpose video material unit 91 is overlapped with the real video field of view by the video projection device and the half mirror shown in FIG. Thus, it is possible to observe from the operator without any contradiction between the viewpoint and the distance, and the operator can observe the visual field composite diagram in the composite visual field.

なお、リフトの走行作業上必要となるコンテナ等の監視対象物は、前もってCG化され自動認識部70のデータベースに保存されている。
そして、本作業案内表示装置1Bで検出され、特定・認識された監視対象物のコンテナは、自動認識部70のデータベースからCGデータが取り出され、作業者の現実の実像の視野に合成して表示される。CGは三次元的に実スケールで現実の実像に合成されるので、作業者は自身の見ている現実の実像に、視点の矛盾無くCGを合成して観察することになる。しかも作業者が頭部を移動させても、視点方向を変えても、三次元的に矛盾無く合成されているので、現実の実像とCGとの視点関係は保持される。
当然のことながら、この場合の車輌の動きは、リフトの屋根に取り付けた広角カメラ(図24(a)参照)の映像と三次元地図との対比により、CV値が求められ、現実の実像に矛盾無く合成することができる。
It should be noted that a monitoring object such as a container that is necessary for the traveling operation of the lift is converted into a CG in advance and stored in the database of the automatic recognition unit 70.
The container of the monitoring object detected and identified / recognized by the work guidance display device 1B is obtained by extracting CG data from the database of the automatic recognition unit 70 and combining it with the field of view of the actual real image of the worker. Is done. Since the CG is synthesized into a real real image on a three-dimensional real scale, the operator synthesizes and observes the CG with the real real image he / she sees without any contradiction in viewpoint. In addition, even if the operator moves the head or changes the viewpoint direction, the viewpoint relationship between the real real image and the CG is maintained because the three-dimensionally consistent composition is achieved.
As a matter of course, the movement of the vehicle in this case is determined by comparing the image of the wide-angle camera (see FIG. 24A) attached to the roof of the lift and the three-dimensional map, and the actual real image is obtained. Can be synthesized without contradiction.

なお、作業の管理者が作業者の作業状況を監視するには、無線により管理室に送られた車輌に取り付けられた空間情報取得部10の広角カメラによる実写映像と、自動検出され、自動認識された監視対象物(コンテナ)とを合成して観察すればよい。
この場合は、現実の実映像の替わりに、実写映像又は、三次元地図を合成されることになる。この場合も、広角カメラの映像は三次元地図との対比によりCV値が求められるので、矛盾のない三次元合成が可能である。
In order to monitor the work status of the worker, the work manager can automatically detect and automatically recognize the live-action video by the wide-angle camera of the spatial information acquisition unit 10 attached to the vehicle sent to the management room wirelessly. What is necessary is just to synthesize | combine and observe with the monitoring target object (container).
In this case, a real image or a three-dimensional map is synthesized instead of an actual real image. Also in this case, since the CV value is obtained by comparing the wide-angle camera image with the three-dimensional map, three-dimensional composition without contradiction is possible.

以上、本実施形態の作業案内表示装置1Bの搭載車輌としてリフトについて説明したが、搭載車輌としては、他の一般車輌やユンボ,バックフォー,ブルドーザ,クレーン等の重機としても有効であることは明らかである。
それぞれの車輌の移動と作業に関して、その完成形を設計図として、三次元地図の中に、あるいは実写映像の中に、あるいは現実の実像の中に合成表示することで、作業が効率化し、又管理が適切となり、工事記録等も正確に取れることになる。
さらに、本実施形態で示した以外に、合成目的映像資料として三次元地図を用いる場合の例としては、現実の実像と、検出され認識された監視対象物とを、視点として矛盾無く合成するものであることから、様々な応用がある。例えば、三次元地図に空港の映像を重ねて表示し、又は離着陸の案内マーカをCG合成で表示し、霧の中でも映像を確認しながら離着陸できる装置を提供する場合にも有効である。
As described above, the lift has been described as the vehicle on which the work guidance display device 1B according to the present embodiment is mounted. However, it is obvious that the mounted vehicle is effective as a heavy vehicle such as another general vehicle or a jumbo, a backhoe, a bulldozer, or a crane. It is.
For each vehicle's movement and work, the completed form is designed as a design drawing, displayed in a three-dimensional map, in a live-action image, or in a real real image. Management will be appropriate and construction records etc. will be taken accurately.
Furthermore, in addition to those shown in this embodiment, as an example of using a 3D map as a composition target video material, a real image and a detected and recognized monitoring object are synthesized as a viewpoint without contradiction. Therefore, there are various applications. For example, it is also effective in providing a device that can display an airport image on a three-dimensional map or display a take-off / landing guide marker by CG synthesis and can take off and land while checking the image even in fog.

[リアルタイム車輌位置姿勢検出装置]
さらに、本発明の移動型自動監視装置の応用例として、単機能として機能するリアルタイム車輌位置姿勢検出装置の一実施形態について、図26を参照しつつ説明する。
上述したように、本発明の移動型自動監視装置によれば、移動する車輌から、車輌の位置と姿勢をリアルタイムで検出することにより、三次元地図上での自車輌位置と姿勢が特定できることになり、ここから様々な応用装置・応用製品が可能となる。
[Real-time vehicle position and orientation detection device]
Furthermore, as an application example of the mobile automatic monitoring device of the present invention, an embodiment of a real-time vehicle position / orientation detection device functioning as a single function will be described with reference to FIG.
As described above, according to the mobile automatic monitoring device of the present invention, it is possible to identify the position and posture of the vehicle on the three-dimensional map by detecting the position and posture of the vehicle in real time from the moving vehicle. From here, various application devices and products can be used.

その場合、どのような応用例においても、車輌位置と姿勢を検出する必要があるため、まず、車輌に取り付けた広角カメラを空間情報取得部10として用い、三次元地図との比較により、リアルタイムで車輌位置姿勢検出を行う単機能としての車輌位置姿勢検出装置が構成できる。
当然のことながら、この単機能としての車輌位置姿勢検出装置を用いることにより、上述した空港内移動型自動監視装置1Aや作業操作案内表示装置1Bについても、安価に実現することができるようになる。
In that case, since it is necessary to detect the vehicle position and orientation in any application, first, a wide-angle camera attached to the vehicle is used as the spatial information acquisition unit 10 and compared with a three-dimensional map in real time. A vehicle position / orientation detection apparatus as a single function for performing vehicle position / orientation detection can be configured.
As a matter of course, by using the vehicle position / orientation detection device as a single function, the above-described in-airport mobile automatic monitoring device 1A and work operation guidance display device 1B can be realized at low cost. .

図26は、本実施形態に係るリアルタイム車輌位置姿勢検出装置1Cの概略構成を示す機能ブロック図である。
同図に示すように、本実施形態のリアルタイム車輌位置姿勢検出装置1Cは、上述した移動型自動監視装置1(図1参照)や、空港内移動型自動監視装置1A(図19参照),作業操作案内表示装置1B(図23参照)と同様の空間情報取得部10,位置座標取得部20,三次元地図部30,統合空間情報部40及び監視表示部90を備えている。
FIG. 26 is a functional block diagram showing a schematic configuration of the real-time vehicle position / orientation detection apparatus 1C according to the present embodiment.
As shown in the figure, the real-time vehicle position / orientation detection device 1C according to the present embodiment includes the above-described mobile automatic monitoring device 1 (see FIG. 1), airport mobile automatic monitoring device 1A (see FIG. 19), work Similar to the operation guidance display device 1B (see FIG. 23), a spatial information acquisition unit 10, a position coordinate acquisition unit 20, a three-dimensional map unit 30, an integrated spatial information unit 40, and a monitoring display unit 90 are provided.

空間情報取得部10は、広角カメラ11を備えている。
広角カメラ11は一台より複数台の方が精度の点から望ましい。全周囲カメラが最も望ましいが、コストを低く抑えるために、本実施形態では広角カメラを採用する。広角カメラを全周画像の一部として扱うことで、全周カメラと同じ扱いが可能である。そして、この広角カメラ11で取得されたリアルタイム映像11aが、後述する三種類のCV演算のために位置座標取得部20に送られる。
位置座標取得部20は、概略位置取得用のGPS20bを備える。GPS20bは、精度の点から、精度の高い位置検出は困難であるため、本実施形態では、単に概略位置決めとして用いている。
The spatial information acquisition unit 10 includes a wide-angle camera 11.
From the standpoint of accuracy, it is desirable that a plurality of wide-angle cameras 11 is more than one. Although an all-around camera is most desirable, a wide-angle camera is employed in this embodiment in order to keep costs low. By treating the wide-angle camera as a part of the all-round image, the same handling as the all-round camera is possible. Then, the real-time video 11a acquired by the wide-angle camera 11 is sent to the position coordinate acquisition unit 20 for three types of CV calculations described later.
The position coordinate acquisition unit 20 includes a GPS 20b for acquiring approximate positions. Since it is difficult to detect a position with high accuracy from the viewpoint of accuracy, the GPS 20b is simply used as approximate positioning in this embodiment.

三次元地図部30は、絶対座標を有するCV映像地図DB31を備えており、CV映像化された全周囲映像のデータベースが格納されている。
ここで、CV映像化された全周映像の各フレームは、元々撮影時のカメラ位置と姿勢を6自由度のCV値として持っているが、カメラ回転成分が0となるように、画像補正し、揺れのないCV映像とすることが好ましい。このようにすると、画像の回転成分は0となり、CV値はカメラの三次元座標のみとなり、実質3自由度のデータとなるので、データ量も少なくなり、きわめて扱いやすくなる。
監視表示部90は、本実施形態に係るリアルタイム車輌位置姿勢検出装置1Cの出力結果である車輌位置やCV映像地図を表示する表示モニタ91を備える。
The three-dimensional map unit 30 includes a CV video map DB 31 having absolute coordinates, and stores a database of all-around video converted to CV video.
Here, each frame of the all-round image converted into the CV image originally has the camera position and orientation at the time of shooting as a CV value of 6 degrees of freedom, but the image correction is performed so that the camera rotation component becomes zero. It is preferable to use a CV image without shaking. In this way, the rotation component of the image is 0, the CV value is only the three-dimensional coordinates of the camera, and the data is substantially three-degree-of-freedom, so the amount of data is reduced and the handling becomes extremely easy.
The monitoring display unit 90 includes a display monitor 91 that displays a vehicle position and a CV video map, which are output results of the real-time vehicle position / orientation detection apparatus 1C according to the present embodiment.

以上のような構成からなるリアルタイム車輌位置姿勢検出装置1Cでは、次のようにして車輌位置姿勢検出が行われる(図26参照)。
まず、位置座標取得部20のGPS20bにより車輌が位置する概略地域を取得し、この概略地域情報に基づいて、三次元地図部30のCV映像地図DB31のCV映像地図を選択する(S301)。
このCV映像地図選択(S301)では、GPS20bで取得された概略地域の周辺のCV映像を選択する。なお、このスタート設定については手動で位置合わせすることもできる。より正確には後述する指定点対応(S201)機能により行うことが好ましいが、スタート地点の概略位置設定はGPSと手動としてもよい。
In the real-time vehicle position / orientation detection apparatus 1C configured as described above, vehicle position / orientation detection is performed as follows (see FIG. 26).
First, the approximate area where the vehicle is located is acquired by the GPS 20b of the position coordinate acquisition unit 20, and the CV image map of the CV image map DB 31 of the three-dimensional map unit 30 is selected based on the approximate area information (S301).
In this CV video map selection (S301), the CV video around the approximate area acquired by the GPS 20b is selected. This start setting can be manually aligned. More precisely, it is preferable to use a function of designated point correspondence (S201) described later, but the approximate position of the start point may be set to GPS and manual.

次に、三次元地図部30における地図内指定点指示(S302)により、選択されたCV映像の中から、後にリアルタイム映像の中に対応点を求めて、上述した三次元指定点対応方式のCV演算をする指定点を選択して指定する。
この指定点は場所を指定された時点で自動検出することもできるが、CV映像内に前もって検出しておくことが望ましい。
次いで、位置座標取得部20における指定点対応(S201)により、検出された指定点の三次元座標を指示して、広角カメラで取得されたリアルタイム映像11aの映像内に、CV映像内の指定点に対応する地点を探し出す。
次に、指定点追跡(S202)により、三次元指定点をリアルタイム映像中の対応点と対応を取りながら、リアルタイム映像内で追跡する。
Next, a corresponding point is obtained in the real-time video later from the selected CV video in accordance with the designated point in the map (S302) in the three-dimensional map unit 30, and the CV of the above-described three-dimensional specified point corresponding method is used. Select and specify the designated point for the operation.
Although this designated point can be automatically detected when the location is designated, it is desirable to detect it beforehand in the CV video.
Next, the designated point correspondence (S201) in the position coordinate acquisition unit 20 indicates the three-dimensional coordinates of the detected designated point, and the designated point in the CV video is included in the video of the real-time video 11a obtained by the wide-angle camera. Find the point corresponding to.
Next, by tracking the designated point (S202), the 3D designated point is tracked in the real-time video while matching the corresponding point in the real-time video.

次に、指定点CV演算(S203)が行われる。
指定点CV演算(S203)では、三次元指定点対応方式CV演算が行われ、追跡された各フレーム内で指定点の複数個(精度の観点からは数十個とすることが望ましい)が取得映像に移転されることで、その点の三次元座標が既知となるため、4点以上の指定点の対応が求められれば、各フレームにおいてCV値、すなわち、リアルタイム映像11aを取得した広角カメラ11の各フレームの三次元位置と姿勢が、他のフレームに関係なく、フレーム固有の値として直ちに独立に求められる。
また、この三次元指定点対応方式CV演算では、三次元地図としてのCV映像の指定点が絶対座標を持てば、三次元指定点対応方式CV演算によって求められたCV値も絶対座標を持つことになる。これは重要なことである。
なお、この三次元指定点対応方式CV演算は、上述した特徴点追跡方式のCV演算(図2〜図14参照)と区別するために、三次元指定点対応方式CV演算(略して「指定点CV演算」)と呼び、上述したCV演算は、指定点CV演算と区別するために特徴点追跡方式CV演算(省略して「特徴点CV演算」)と呼ぶことがある。但し、演算された結果は、どちらのCV値も同じものである。
Next, a designated point CV calculation (S203) is performed.
In the designated point CV calculation (S203), a three-dimensional designated point correspondence method CV calculation is performed, and a plurality of designated points (preferably several tens from the viewpoint of accuracy) are obtained in each tracked frame. Since the three-dimensional coordinates of the point are known by being transferred to the video, if correspondence of four or more designated points is required, the wide-angle camera 11 that has acquired the CV value in each frame, that is, the real-time video 11a. The three-dimensional position and orientation of each frame are immediately and independently determined as frame-specific values regardless of other frames.
Further, in this three-dimensional designated point correspondence method CV calculation, if the designated point of the CV image as a three-dimensional map has absolute coordinates, the CV value obtained by the three-dimensional designated point correspondence method CV computation also has absolute coordinates. become. This is important.
The three-dimensional designated point correspondence method CV computation is distinguished from the above-described feature point tracking method CV computation (see FIGS. 2 to 14). The CV calculation described above may be referred to as a feature point tracking method CV calculation (abbreviated as “feature point CV calculation”) in order to distinguish from the specified point CV calculation. However, the calculated results are the same for both CV values.

また、指定点は、対応追跡(S204)により、リアルタイム映像11a内で追跡され、特徴点扱いCV演算(S205)により、追跡された指定点を特徴点と見立てて、フレーム間を追跡した関係として、特徴点CV演算が行われる。このときに、指定点は三次元座標持つことから上述した特徴点CV演算は相対座標ではなく、三次元地図と同じ絶対座標を持つことが重要である。
一方、リアルタイム映像11aは、特徴点CV演算による特徴点抽出(S206)により、自動的に特徴点抽出が行われ、短フレーム特徴点追跡(S207)により特徴点追跡が行われ、特徴点CV演算(S208)により、短フレーム間の特徴点CV演算が行われる。短フレーム簡でCV演算するのは、リアルタイム処理のために演算時間を短縮するためである。
ここで、整理すれば三種類のCV演算があることになる。(1)特徴点追跡方式CV演算(特徴点CV演算),(2)三次元指定点対応方式CV演算(指定点CV演算),(3)特徴点扱いCV演算の三種である。
In addition, the designated point is tracked in the real-time video 11a by correspondence tracking (S204), and the traced designated point is regarded as a feature point by the feature point handling CV calculation (S205), and the relationship between the frames is traced. The feature point CV calculation is performed. At this time, since the designated point has three-dimensional coordinates, it is important that the above-described feature point CV calculation has not the relative coordinates but the same absolute coordinates as the three-dimensional map.
On the other hand, in the real-time video 11a, feature point extraction is automatically performed by feature point extraction (S206) by feature point CV calculation, feature point tracking is performed by short frame feature point tracking (S207), and feature point CV calculation is performed. By (S208), the feature point CV calculation between short frames is performed. The reason why the CV calculation is performed with the short frame simplification is to reduce the calculation time for real-time processing.
Here, if organized, there are three types of CV operations. There are three types: (1) feature point tracking method CV computation (feature point CV computation), (2) three-dimensional designated point correspondence method CV computation (designated point CV computation), and (3) feature point handling CV computation.

そして、以上の指定点CV演算(S203),特徴点扱いCV演算(S205),特徴点CV演算(S208)の三種類のCV演算の結果は、統合空間情報部40に送られ、座標統合(S401)により、三種類のCV値の統合が行われる。
このとき、誤差が打ち消し合い、カメラ位置姿勢検出(S402)では、より精度の高いカメラ位置と姿勢(CV値)が求められる。
カメラ位置と車輌位置は、カメラの取り付け位置との関係で決まるので、最終的には車輌位置姿勢換算(S403)により、車輌位置に変換されて、監視表示部90と、その他の用途のために出力される。
ここでの出力は、様々な応用に利用可能である。
Then, the results of the three types of CV computations, the specified point CV computation (S203), the feature point handling CV computation (S205), and the feature point CV computation (S208), are sent to the integrated space information unit 40 for coordinate integration ( S401) integrates three types of CV values.
At this time, the errors cancel each other, and in the camera position and orientation detection (S402), a more accurate camera position and orientation (CV value) are obtained.
Since the camera position and the vehicle position are determined by the relationship with the camera mounting position, it is finally converted into the vehicle position by the vehicle position and orientation conversion (S403), and is used for the monitoring display unit 90 and other purposes. Is output.
The output here can be used for various applications.

監視表示部90では、表示モニタ91において、車輌位置が単独で、又は三次元地図(CV映像地図)と合成されて表示される。
以上のように、本実施形態に係るリアルタイム車輌位置姿勢検出装置1Cでは、リアルタイム処理でありながら、指定点CV演算(S203),特徴点扱いCV演算(S205),特徴点CV演算(S208)と三種類のCV演算を行うことで、精度を向上させることができる。
そして、この本実施形態に係るリアルタイム車輌位置姿勢検出装置1Cを基本として、他に様々な機能を付加していくことで、様々な用途に適した装置を組み立てることが可能となる。
In the monitor display unit 90, the vehicle position is displayed on the display monitor 91 alone or in combination with a three-dimensional map (CV video map).
As described above, in the real-time vehicle position / orientation detection apparatus 1C according to the present embodiment, the designated point CV calculation (S203), the feature point handling CV calculation (S205), and the feature point CV calculation (S208) are performed in real time. By performing three types of CV operations, the accuracy can be improved.
Then, by adding various other functions based on the real-time vehicle position / orientation detection apparatus 1C according to the present embodiment, it is possible to assemble apparatuses suitable for various applications.

以上、本発明の移動型自動監視装置について、好ましい実施形態を示して説明したが、本発明に係る移動型自動監視装置は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
例えば、上述した実施形態では、本発明の移動型自動監視装置によって監視する監視対象・監視エリアとして飛行場の滑走路及びターミナルを例にとって説明したが、本発明の適用対象がこれらに限定されるものではなく、監視カメラによる遠隔監視が必要であったり好適であったりする監視対象物や監視対象エリアであれば、どのような物や場所・空間に適用することができる。
The mobile automatic monitoring apparatus of the present invention has been described with reference to the preferred embodiment, but the mobile automatic monitoring apparatus according to the present invention is not limited to the above-described embodiment, and the scope of the present invention. Needless to say, various modifications can be made.
For example, in the above-described embodiment, the airfield runway and the terminal are described as examples of the monitoring target / monitoring area monitored by the mobile automatic monitoring device of the present invention. However, the application target of the present invention is limited to these. Instead, the present invention can be applied to any object, place, or space as long as it is a monitoring object or a monitoring object area that requires or is suitable for remote monitoring by a monitoring camera.

本発明の移動型自動監視装置は、例えば、飛行場のターミナルや滑走路、倉庫や大型店舗等、所定の監視対象物や監視対象エリアを監視する監視システム・セキュリティシステムや、自動運転システム・自動作業システム等として好適に利用できる。   The mobile automatic monitoring device of the present invention is a monitoring system / security system for monitoring a predetermined monitoring target or monitoring target area, such as an airport terminal, runway, warehouse, large store, etc., automatic driving system / automatic work, etc. It can be suitably used as a system or the like.

本発明の一実施形態に係る移動型自動監視装置の概略基本構成を示すブロック図である。1 is a block diagram showing a schematic basic configuration of a mobile automatic monitoring apparatus according to an embodiment of the present invention. 本発明の移動型自動監視装置の位置座標取得部として機能する特徴点追跡方式のCV演算部の一実施形態の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of one Embodiment of the CV calculating part of the feature point tracking system which functions as a position coordinate acquisition part of the mobile automatic monitoring apparatus of this invention. 図2に示すCV演算部で使用する全周ビデオ映像を撮影する手段を示す概略図であり、屋根部に全周カメラを搭載した車輌の斜視図である。It is the schematic which shows the means to image | photograph the perimeter video image | video used by the CV calculating part shown in FIG. 2, and is a perspective view of the vehicle which mounts the perimeter camera in the roof part. 図2に示すCV演算部で使用する全周ビデオ映像を撮影する手段を示す概略図であり、(a)は屋根部に全周カメラを搭載した車輌の正面図、(b)は同じく平面図である。It is the schematic which shows the means which image | photographs the perimeter video image | video used by the CV calculating part shown in FIG. 2, (a) is a front view of the vehicle which mounts a perimeter camera in a roof part, (b) is a top view similarly. It is. 全周カメラで撮影される映像から得られる変換画像を示す説明図であり、(a)は球面画像が貼り付けられる仮想球面を、(b)は仮想球面に貼り付けられた球面画像の一例を、(c)は(b)に示した球面画像をメルカトール図法に従って平面展開した画像を示している。It is explanatory drawing which shows the conversion image obtained from the image | video image | photographed with a omnidirectional camera, (a) is a virtual spherical surface to which a spherical image is affixed, (b) is an example of a spherical image affixed to a virtual spherical surface , (C) shows an image obtained by developing the spherical image shown in (b) on a plane according to the Mercator projection. 本発明の一実施形態に係るCV演算部おける具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the specific detection method of a camera vector in the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the specific camera vector in the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the specific camera vector in the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。It is explanatory drawing which shows the designation | designated aspect of the desirable feature point in the detection method of the camera vector by the CV calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the CV calculating part which concerns on one Embodiment of this invention, and a camera vector. 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the CV calculating part which concerns on one Embodiment of this invention, and a camera vector. 本発明の一実施形態に係るCV演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the CV calculating part which concerns on one Embodiment of this invention, and a camera vector. 本発明の一実施形態に係るCV演算部において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。In the CV calculating part which concerns on one Embodiment of this invention, it is explanatory drawing which shows the case where a some feature point is set according to the distance of a feature point from a camera, and a some calculation is repeated. 本発明の一実施形態に係るCV演算部求められたカメラベクトルの軌跡をビデオ映像中に表示した場合の図である。It is a figure at the time of displaying the locus | trajectory of the camera vector calculated | required by the CV calculating part which concerns on one Embodiment of this invention in a video image | video. 本発明の一実施形態に係る三次元指定点対応方式のCV演算部の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the CV calculating part of the three-dimensional designated point corresponding | compatible system which concerns on one Embodiment of this invention. 図15に示すCV演算部の基準点対応部の詳細を示すブロック図である。It is a block diagram which shows the detail of the reference point corresponding | compatible part of the CV calculating part shown in FIG. 図15に示すCV演算部の基準点対応部の詳細を示すブロック図である。It is a block diagram which shows the detail of the reference point corresponding | compatible part of the CV calculating part shown in FIG. 本発明の他の実施形態に係る三次元指定点対応方式のCV演算部の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the CV calculating part of the three-dimensional designated point corresponding | compatible system which concerns on other embodiment of this invention. 本発明の一実施形態に係る空港内移動型自動監視装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the mobile type | mold automatic monitoring apparatus in the airport which concerns on one Embodiment of this invention. 本発明の一実施形態に係る空港内移動型自動監視装置を搭載した車輌を模式的に示す説明図で、(a)は車輌の平面図、(b)は同じく側面図である。BRIEF DESCRIPTION OF THE DRAWINGS It is explanatory drawing which shows typically the vehicle carrying the in-airport movement type automatic monitoring apparatus which concerns on one Embodiment of this invention, (a) is a top view of a vehicle, (b) is a side view similarly. 本発明の一実施形態に係る空港内移動型自動監視装置を搭載した車輌を模式的に示す説明図で、積雪時用の監視装置を搭載した車輌の側面図である。It is explanatory drawing which shows typically the vehicle carrying the in-airport movement type | mold automatic monitoring apparatus which concerns on one Embodiment of this invention, and is a side view of the vehicle carrying the monitoring apparatus for the time of snow. 本発明の一実施形態に係る空港内移動型自動監視装置により監視される空港全体を模式的に示した平面図である。It is the top view which showed typically the whole airport monitored by the in-airport mobile automatic monitoring apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る作業操作案内表示装置の概略構成を示す機能ブロック図である。It is a functional block diagram showing a schematic structure of a work operation guidance display device according to an embodiment of the present invention. 本発明の一実施形態に係る作業操作案内表示装置を搭載した作業車輌を模式的に示す説明図である。It is explanatory drawing which shows typically the work vehicle carrying the work operation guidance display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る作業操作案内表示装置の監視表示部で表示される表示画像例である。It is an example of a display image displayed on the monitoring display unit of the work operation guidance display device according to the embodiment of the present invention. 本発明の一実施形態に係るリアルタイム車輌位置姿勢検出装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the real-time vehicle position and orientation detection apparatus which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

1 移動型自動監視装置
1A 空港内移動型自動監視装置
1B 作業操作案内表示装置
1C リアルタイム車輌位置姿勢検出装
10 空間情報取得部
20 位置座標取得部
30 三次元地図部
40 統合空間情報部
50 自動検出部
60 視点方向コントロール部
70 自動認識部
80 地図更新部
90 監視表示部
100 データ記録部
110 自動判断部
120 自動制御部
DESCRIPTION OF SYMBOLS 1 Mobile type | mold automatic monitoring apparatus 1A Airport movement type | mold automatic monitoring apparatus 1B Work operation guidance display apparatus 1C Real-time vehicle position and orientation detection apparatus 10 Spatial information acquisition part 20 Position coordinate acquisition part 30 Three-dimensional map part 40 Integrated space information part 50 Automatic detection Unit 60 View direction control unit 70 Automatic recognition unit 80 Map update unit 90 Monitoring display unit 100 Data recording unit 110 Automatic determination unit 120 Automatic control unit

Claims (6)

移動体に搭載され、移動体とともに移動して当該移動体周囲の空間情報を取得する空間情報取得部と、
移動する移動体の三次元位置と姿勢を示す位置座標情報を取得する位置座標取得部と、
移動体が移動する監視領域及び当該監視領域から前記空間情報取得部が空間情報を取得可能な領域の三次元地図を備えた三次元地図部と、
移動体周囲の空間情報と、移動体の位置座標情報、及び監視領域の三次元地図に基づいて、移動体周囲の三次元空間情報を統合して統合空間情報を生成する統合空間情報部と、
移動体周囲の前記統合空間情報と三次元地図とを対応させ、監視領域内にある監視対象物を検出し特定する自動検出部と、
自動検出部で特定された監視対象物の所定の属性情報を認識する自動認識部と、
移動体の移動に必要な画像情報と、自動検出部で特定された監視対象物の映像、及び自動認識部で属性認識された監視対象物のCG又は映像を、移動体から観察される視点と合致させて、実映像,実写映像又は三次元地図中に合成して表示する監視表示部と、
監視表示部を介して表示される監視対象物の所定のデータを記録する記録部と、
を備えることを特徴とする移動型自動監視装置。
A spatial information acquisition unit that is mounted on a mobile body and acquires spatial information around the mobile body by moving with the mobile body;
A position coordinate acquisition unit that acquires position coordinate information indicating the three-dimensional position and posture of the moving moving body;
A three-dimensional map unit provided with a three-dimensional map of a monitoring region where the moving body moves and a region where the spatial information acquisition unit can acquire spatial information from the monitoring region;
Based on the spatial information around the moving body, the position coordinate information of the moving body, and the three-dimensional map of the monitoring area, an integrated spatial information unit that generates integrated spatial information by integrating the three-dimensional spatial information around the moving body;
An automatic detection unit that associates the integrated spatial information around the moving body with a three-dimensional map, and detects and identifies a monitoring object in the monitoring area;
An automatic recognition unit for recognizing predetermined attribute information of the monitoring object identified by the automatic detection unit;
Image information necessary for moving the moving body, a video of the monitoring target identified by the automatic detection unit, and a viewpoint from which the CG or video of the monitoring target identified by the automatic recognition unit is observed from the moving body A monitoring display unit that matches and displays the actual video, the live-action video, or the three-dimensional map,
A recording unit for recording predetermined data of the monitoring object displayed via the monitoring display unit;
A mobile automatic monitoring device comprising:
前記自動検出部で監視対象物として特定される対象物の大きさ,形状,位置等の変更が検出されると、当該変更を、前記三次元地図部の三次元地図情報及び/又は前記記録部の所定のデータに反映させる地図更新部を備える請求項1記載の移動型自動監視装置。   When a change in the size, shape, position, etc. of an object specified as a monitoring object is detected by the automatic detection unit, the change is detected by the 3D map information of the 3D map unit and / or the recording unit. The mobile automatic monitoring apparatus according to claim 1, further comprising a map updating unit that reflects the predetermined data. 前記自動検出部で特定された監視対象物の三次元座標と、前記位置座標取得部で取得される移動体の三次元座標に基づいて決定される当該監視対象物の方向に向けて、前記空間情報取得部に備えられる観測機器を駆動制御する視点方向コントロール部を備える請求項1又は2記載の移動型自動監視装置。   The space toward the direction of the monitoring object determined based on the three-dimensional coordinates of the monitoring object specified by the automatic detection unit and the three-dimensional coordinates of the moving object acquired by the position coordinate acquisition unit. The mobile automatic monitoring apparatus according to claim 1, further comprising a viewpoint direction control unit that drives and controls an observation device provided in the information acquisition unit. 空間情報取得部が、
移動体周囲の映像を広範囲に取得する全周カメラ,指定方向に視点を向ける指定方向カメラ,レーザ光を走査して方向と距離を計測するレーザスキャン装置,レーダ波を発射して反射波の方向と距離を計測するレーダ装置等の各機器の一部又は全部を備え、昼夜、季節、天候等の状況に応じて、これら各機器を単独で又は任意の組み合わせにより、前記移動体周囲の空間情報を取得する請求項1乃至3のいずれか一項記載の移動型自動監視装置。
Spatial information acquisition unit
An all-round camera that captures a wide range of images around a moving object, a specified direction camera that directs the viewpoint in a specified direction, a laser scanning device that scans laser light to measure direction and distance, and a direction of reflected waves by emitting radar Information on the surroundings of the moving object, either alone or in any combination according to the situation such as day and night, season, weather, etc. The mobile automatic monitoring device according to any one of claims 1 to 3, which acquires
前記自動検出部で特定された監視対象物と、前記自動認識部で認識された当該監視対象物の属性情報に基づいて、前記移動体の次の行動を決定する自動判断部と、
前記自動判断部で決定された前記移動体の次の行動に従って、当該移動体を制御する自動制御部と、
を備えた請求項1乃至4のいずれか一項記載の移動型自動監視装置。
An automatic determination unit that determines the next action of the moving object based on the monitoring target identified by the automatic detection unit and the attribute information of the monitoring target recognized by the automatic recognition unit;
An automatic control unit that controls the moving body according to the next action of the moving body determined by the automatic determination unit;
The mobile automatic monitoring apparatus according to any one of claims 1 to 4, further comprising:
前記統合空間情報部が、
前記空間情報取得部で取得される移動体周囲の空間情報と、前記位置座標取得部で取得される当該移動体の位置座標情報のみに基づいて、移動体周囲の三次元空間情報を統合して統合空間情報を生成するとともに、
当該統合空間情報に基づいて、前記三次元地図部に備えられる三次元地図を生成する請求項1乃至5のいずれか一項記載の移動型自動監視装置。
The integrated spatial information part is
Based on only the spatial information around the moving body acquired by the spatial information acquisition unit and the positional coordinate information of the moving body acquired by the position coordinate acquisition unit, the three-dimensional spatial information around the moving body is integrated. While generating integrated spatial information,
The mobile automatic monitoring device according to any one of claims 1 to 5, wherein a three-dimensional map provided in the three-dimensional map unit is generated based on the integrated spatial information.
JP2005329732A 2005-11-15 2005-11-15 Mobile automatic monitoring device Active JP4980606B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005329732A JP4980606B2 (en) 2005-11-15 2005-11-15 Mobile automatic monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005329732A JP4980606B2 (en) 2005-11-15 2005-11-15 Mobile automatic monitoring device

Publications (2)

Publication Number Publication Date
JP2007142517A JP2007142517A (en) 2007-06-07
JP4980606B2 true JP4980606B2 (en) 2012-07-18

Family

ID=38204903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005329732A Active JP4980606B2 (en) 2005-11-15 2005-11-15 Mobile automatic monitoring device

Country Status (1)

Country Link
JP (1) JP4980606B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10043079B2 (en) 2015-01-15 2018-08-07 Hanwha Techwin Co., Ltd. Method and apparatus for providing multi-video summary
US10877475B2 (en) 2015-05-22 2020-12-29 Fujifilm Corporation Robot device and method of controlling movement of robot device
JP2021148698A (en) * 2020-03-23 2021-09-27 株式会社日立製作所 Automatic inspection device

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452078B2 (en) 2008-10-15 2013-05-28 Toyota Motor Engineering & Manufacturing North America System and method for object recognition and classification using a three-dimensional system with adaptive feature detectors
KR101028513B1 (en) 2009-03-10 2011-04-11 (주)씨앤에스 테크놀로지 Merging file devices of vehicle driving information and Method thereof
KR101015408B1 (en) 2009-06-12 2011-02-22 엠텍비젼 주식회사 Device and method for storing necessary information for transportation
US8687898B2 (en) 2010-02-01 2014-04-01 Toyota Motor Engineering & Manufacturing North America System and method for object recognition based on three-dimensional adaptive feature detectors
US8799201B2 (en) 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
US9423506B2 (en) 2011-09-16 2016-08-23 Saab Ab Tactical differential GPS
JP5790788B2 (en) * 2011-12-21 2015-10-07 日産自動車株式会社 Monitoring system
KR101511567B1 (en) * 2012-08-14 2015-04-13 삼성테크윈 주식회사 System for monitoring image and thereof method
KR101634129B1 (en) * 2014-03-14 2016-06-28 벨로스테크놀로지 주식회사 Moving object tracting control system for pan-tilt camera
JP6767241B2 (en) * 2016-03-30 2020-10-14 株式会社小松製作所 Terminal devices, control devices, data integration devices, work vehicles, imaging systems, and imaging methods
WO2017169598A1 (en) * 2016-03-30 2017-10-05 株式会社小松製作所 Terminal device, control device, data integration device, work vehicle, image-capturing system, and image-capturing method
JP6821154B2 (en) * 2016-11-16 2021-01-27 株式会社岩根研究所 Self-position / posture setting device using a reference video map
CN107830801A (en) * 2017-10-27 2018-03-23 东莞东聚电子电讯制品有限公司 A kind of high-precision sphere laminating apparatus
JPWO2022234668A1 (en) * 2021-05-07 2022-11-10

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165431A (en) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> Device and system for car navigation with scenery label
JP3327255B2 (en) * 1998-08-21 2002-09-24 住友電気工業株式会社 Safe driving support system
JP4100934B2 (en) * 2002-02-28 2008-06-11 シャープ株式会社 Composite camera system, zoom camera control method, and zoom camera control program
JP2004117071A (en) * 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd Vehicle surroundings monitoring apparatus and traveling control system incorporating the same
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10043079B2 (en) 2015-01-15 2018-08-07 Hanwha Techwin Co., Ltd. Method and apparatus for providing multi-video summary
US10877475B2 (en) 2015-05-22 2020-12-29 Fujifilm Corporation Robot device and method of controlling movement of robot device
JP2021148698A (en) * 2020-03-23 2021-09-27 株式会社日立製作所 Automatic inspection device
WO2021192357A1 (en) * 2020-03-23 2021-09-30 株式会社日立製作所 Automatic inspection device
JP7235691B2 (en) 2020-03-23 2023-03-08 株式会社日立製作所 Automatic inspection device

Also Published As

Publication number Publication date
JP2007142517A (en) 2007-06-07

Similar Documents

Publication Publication Date Title
JP4980606B2 (en) Mobile automatic monitoring device
JP4767578B2 (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
JP5227065B2 (en) 3D machine map, 3D machine map generation device, navigation device and automatic driving device
US9898821B2 (en) Determination of object data by template-based UAV control
US10896539B2 (en) Systems and methods for updating highly automated driving maps
US11017228B2 (en) Method and arrangement for condition monitoring of an installation with operating means
Loupos et al. Autonomous robotic system for tunnel structural inspection and assessment
US9465129B1 (en) Image-based mapping locating system
CN111487642A (en) Transformer substation inspection robot positioning navigation system and method based on three-dimensional laser and binocular vision
JP6821154B2 (en) Self-position / posture setting device using a reference video map
CN104067145A (en) Pruning robot system
JP6975513B2 (en) Camera-based automated high-precision road map generation system and method
JP6446005B2 (en) Underground exploration equipment
JP4980617B2 (en) 2D drawing and video composition display device
WO2018144396A1 (en) Tracking image collection for digital capture of environments, and associated systems and methods
Soheilian et al. Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas
JP4545093B2 (en) 3D automatic surveying device
JP4624000B2 (en) Compound artificial intelligence device
JP4926822B2 (en) Spring point reference CV region image pre-placement device
JP4773794B2 (en) New and old video coordinate integration device
EP1180324B1 (en) Method and apparatus for observing and determining the position of targets in geographical areas
Sukumar et al. Multi-sensor integration for unmanned terrain modeling
US20220390252A1 (en) Use of predefined (pre-built) graphical representations of roads for autonomous driving of vehicles and display of route planning
Grinstead et al. Developing detailed a priori 3D models of large environments to aid in robotic navigation tasks
Garcia et al. A Proposal to Integrate ORB-Slam Fisheye and Convolutional Neural Networks for Outdoor Terrestrial Mobile Mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080812

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090616

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090824

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20091201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4980606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250