JP2018097588A - Three-dimensional space specifying device, method, and program - Google Patents

Three-dimensional space specifying device, method, and program Download PDF

Info

Publication number
JP2018097588A
JP2018097588A JP2016241276A JP2016241276A JP2018097588A JP 2018097588 A JP2018097588 A JP 2018097588A JP 2016241276 A JP2016241276 A JP 2016241276A JP 2016241276 A JP2016241276 A JP 2016241276A JP 2018097588 A JP2018097588 A JP 2018097588A
Authority
JP
Japan
Prior art keywords
image
dimensional
region
dimensional space
point group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016241276A
Other languages
Japanese (ja)
Other versions
JP6546898B2 (en
Inventor
仁 新垣
Jin Niigaki
仁 新垣
勇 五十嵐
Isamu Igarashi
勇 五十嵐
直之 郡司
Naoyuki Gunji
直之 郡司
和彦 村崎
Kazuhiko Murazaki
和彦 村崎
慎吾 安藤
Shingo Ando
慎吾 安藤
筒口 けん
Ken Tsutsuguchi
けん 筒口
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016241276A priority Critical patent/JP6546898B2/en
Publication of JP2018097588A publication Critical patent/JP2018097588A/en
Application granted granted Critical
Publication of JP6546898B2 publication Critical patent/JP6546898B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To accurately specify a three-dimensional space in which an object to be detected is present.SOLUTION: The device comprises: an interface section 22 for displaying each of a plurality of images which an imaging range is overlapping; an input unit 10 for accepting, at each of the plurality of images, the designation of the range in which an object to be detected is present; and an analysis section 24 for specifying, based on the designation of the range in each of the plurality of images, the three-dimensional space in which the object to be detected is present.SELECTED DRAWING: Figure 1

Description

本発明は、3次元空間特定装置、方法、及びプログラムに係り、特に、検出対象物が存在する3次元空間を特定する3次元空間特定装置、方法、及びプログラムに関する。   The present invention relates to a three-dimensional space specifying device, method, and program, and more particularly, to a three-dimensional space specifying device, method, and program for specifying a three-dimensional space in which a detection target exists.

従来より、複数のカメラ画像に映された検出対象物のシルエット(カメラ画像における検出対象物が存在する2次元の領域)を抽出することで、その物体の3次元空間中での位置を、ボクセルで表現した空間で求める方法が知られている(非特許文献1)。   Conventionally, by extracting the silhouette of a detection object (a two-dimensional region where the detection object exists in a camera image) reflected in a plurality of camera images, the position of the object in a three-dimensional space can be determined as a voxel. There is known a method for obtaining in the space expressed by (Non-Patent Document 1).

秦真也、有田大作、谷口倫一郎、” 視体積交差法を用いた3Dモデルに基づく任意視点カラー画像生成”、火の国情報シンポジウム、pp.68 - 75、2003年.Shinya Taki, Daisaku Arita, Rinichiro Taniguchi, “Generation of Arbitrary Viewpoint Color Image Based on 3D Model Using Visual Volume Crossing Method”, Fire Country Information Symposium, pp.68-75, 2003.

しかしながら、非特許文献1に記載の技術は、固定したカメラで撮影することを前提としており、シルエットを取り出すために背景差分が行われる。日照変化などの背景画像の変化については事前に学習をすることで、頑健性を向上することができるが、移動体(車)に搭載されたカメラ画像の場合、背景画像が時々刻々と変化するために学習することが難しく、背景から前景画像領域を抽出する精度が低下する。つまり、本来は検出対象物がないような、誤った領域に検出対象物があると判定される可能性があるため、本技術を適用することは難しいという技術課題がある。   However, the technique described in Non-Patent Document 1 is premised on shooting with a fixed camera, and background difference is performed to extract a silhouette. You can improve the robustness by learning in advance about changes in the background image such as sunshine changes, but in the case of a camera image mounted on a moving body (car), the background image changes from moment to moment. Therefore, it is difficult to learn, and the accuracy of extracting the foreground image area from the background decreases. That is, there is a technical problem that it is difficult to apply the present technology because there is a possibility that it is determined that there is a detection target in an erroneous region that originally has no detection target.

本発明は上記問題点を考慮してなされたものであり、移動体から計測された画像や3次元点群を用いて、検出対象物が存在する3次元空間を精度よく特定することができる3次元空間特定装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in consideration of the above problems, and can accurately identify a three-dimensional space in which a detection target exists using an image or a three-dimensional point cloud measured from a moving object. An object of the present invention is to provide a dimension space identification device, method, and program.

上記目的を達成するために、本発明の3次元空間特定装置は、撮影範囲が重複する複数の画像の各々を表示し、前記複数の画像の各々において、検出対象物が存在する領域の指定を受け付けるインターフェース部と、前記複数の画像の各々における領域の指定に基づいて、前記検出対象物が存在する3次元空間を特定する解析部と、を含んで構成されている。   In order to achieve the above object, the three-dimensional space identification device of the present invention displays each of a plurality of images with overlapping imaging ranges, and specifies a region where a detection target exists in each of the plurality of images. The interface unit is configured to include an accepting interface unit, and an analysis unit that identifies a three-dimensional space in which the detection target exists based on designation of a region in each of the plurality of images.

本発明の3次元空間特定方法は、インターフェース部が、撮影範囲が重複する複数の画像の各々を表示し、前記複数の画像の各々において、検出対象物が存在する領域の指定を受け付け、解析部が、前記複数の画像の各々における領域の指定に基づいて、前記検出対象物が存在する3次元空間を特定する。   In the three-dimensional space specifying method of the present invention, the interface unit displays each of a plurality of images having overlapping imaging ranges, receives designation of a region where the detection target exists in each of the plurality of images, and the analysis unit However, based on the designation of the area in each of the plurality of images, the three-dimensional space in which the detection object exists is specified.

また、本発明のプログラムは、コンピュータを、上記の3次元空間特定装置の各部として機能させるためのものである。   Moreover, the program of this invention is for making a computer function as each part of said three-dimensional space identification apparatus.

本発明によれば、撮影範囲が重複する複数の画像の各々を表示し、複数の画像の各々において、検出対象物が存在する領域の指定を受け付け、検出対象物が存在する3次元空間を特定することにより、検出対象物が存在する3次元空間を精度よく特定することができる、という効果が得られる。   According to the present invention, each of a plurality of images having overlapping imaging ranges is displayed, and in each of the plurality of images, designation of a region where a detection target exists is received, and a three-dimensional space where the detection target exists is specified. By doing so, the effect that the three-dimensional space in which a detection target object exists can be pinpointed accurately is acquired.

第1実施形態、第2実施形態の設備検出装置の概略構成の一例を示す構成図である。It is a block diagram which shows an example of schematic structure of the equipment detection apparatus of 1st Embodiment and 2nd Embodiment. 第1実施形態、第2実施形態の設備検出装置により実行される事前処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the preliminary process performed by the equipment detection apparatus of 1st Embodiment and 2nd Embodiment. 第1実施形態、第2実施形態の設備検出装置により実行されるインタラクティブ検出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the interactive detection process performed by the equipment detection apparatus of 1st Embodiment and 2nd Embodiment. カメラ画像を提示するGUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen which presents a camera image. 第1実施形態の設備検出装置により実行される再解析対象点群決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the reanalysis target point group determination process performed by the equipment detection apparatus of 1st Embodiment. カメラ画像上においてユーザーの操作により領域が指定された様子を示す図である。It is a figure which shows a mode that the area | region was designated by operation of the user on the camera image. 指定された領域内にある点群を検出する方法を説明するための図である。It is a figure for demonstrating the method to detect the point cloud in the designated area | region. 画像指定3D点を含む画像を抽出する方法を説明するための図である。It is a figure for demonstrating the method of extracting the image containing an image designation | designated 3D point. 候補画像を提示するGUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen which presents a candidate image. 選択された候補画像上においてユーザーの操作により領域が指定された様子を示す図である。It is a figure which shows a mode that the area | region was designated by the user's operation on the selected candidate image. 指定された領域により3次元空間を特定する方法を説明するための図である。It is a figure for demonstrating the method to specify three-dimensional space by the designated area | region. 指定された領域により特定された3次元空間の3次元点群を決定する方法を説明するための図である。It is a figure for demonstrating the method to determine the three-dimensional point group of the three-dimensional space specified by the designated area | region. 第2実施形態の設備検出装置により実行される再解析対象点群決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the reanalysis target point group determination process performed by the equipment detection apparatus of 2nd Embodiment. 仮想画像の一例を示す図である。It is a figure which shows an example of a virtual image. 複数の候補画像を提示するGUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen which shows a some candidate image. 選択された候補画像上においてユーザーの操作により領域が指定された様子を示す図である。It is a figure which shows a mode that the area | region was designated by the user's operation on the selected candidate image. 指定された領域により3次元空間を特定する方法を説明するための図である。It is a figure for demonstrating the method to specify three-dimensional space by the designated area | region. オルソ画像の一例を示す図である。It is a figure which shows an example of an ortho image. 撮影範囲を表示したオルソ画像の一例を示す図である。It is a figure which shows an example of the ortho image which displayed the imaging | photography range. オルソ画像上においてユーザーの操作により領域が指定された様子を示す図である。It is a figure which shows a mode that the area | region was designated by the user's operation on an ortho image. オクルージョンの影響が少ない視点の仮想画像の一例を示す図である。It is a figure which shows an example of the virtual image of a viewpoint with little influence of occlusion. オクルージョンの影響が少ない視点の仮想画像を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the virtual image of a viewpoint with little influence of an occlusion. オクルージョンの影響が少ない視点の仮想画像を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the virtual image of a viewpoint with little influence of an occlusion. 従来技術により画像上での指定を行った様子を示す図である。It is a figure which shows a mode that designation | designated on the image was performed by the prior art.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態は本発明を限定するものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that this embodiment does not limit the present invention.

[発明の概要]
まず、本発明の実施の形態における概要を説明する。
[Summary of Invention]
First, an outline of the embodiment of the present invention will be described.

インフラ設備の老朽化が進む中で、膨大な設備の管理コスト削減に向けて、3次元点群を用いた設備の状態認識技術の開発が期待されている。ここで、設備の状態認識技術とは、例えば電柱の傾きやたわみの量、電線や通信線の最低地上高さを自動で計測する技術等のことである。例えば、特許文献1(特開2014−15336号公報)のような技術があり、以降ではインフラ設備検出技術と呼ぶこととする。
ただし、これらのインフラ設備検出技術を用いても、計測条件によっては100%の精度で推定することは難しい。
With the aging of infrastructure equipment, development of equipment state recognition technology using 3D point cloud is expected to reduce the management cost of huge equipment. Here, the equipment state recognition technique refers to, for example, a technique for automatically measuring the inclination of a power pole, the amount of deflection, and the minimum ground height of an electric wire or communication line. For example, there is a technique as disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2014-15336), and hereinafter referred to as an infrastructure equipment detection technique.
However, even if these infrastructure equipment detection technologies are used, it is difficult to estimate with 100% accuracy depending on measurement conditions.

なぜなら、例えば、レーザースキャナを搭載した計測車(MMS)と被写体との距離が離れていると、計測された3次元点の密度が小さく、被計測表面積も小さくなるために高精度な形状推定をすることが難しくなるためである。   This is because, for example, if the distance between the measurement vehicle (MMS) equipped with a laser scanner and the subject is large, the density of the measured three-dimensional points is small and the surface area to be measured is also small. Because it becomes difficult to do.

そのため、インフラ設備検出技術により推定された結果について、ビューアソフト(GUIインターフェース)を用いて、設備管理者が後処理として正しい情報か誤った情報であるか、を確認しつつ、その情報が正しければ設備管理DBに登録をする作業が必要となる。   Therefore, for the results estimated by the infrastructure equipment detection technology, if the information is correct while the equipment manager confirms whether the information is correct or incorrect as post-processing using the viewer software (GUI interface) Work to register in the equipment management database is required.

このとき、誤って検出した設備の情報については、登録せずに無視(もしくは目視確認によりクリック等の簡易な操作により削除)すればよいが、検出漏れが生じている設備については、再度3次元点群を用いて解析処理をしなければならない。   At this time, the information of the equipment that has been detected in error may be ignored (or deleted by simple operation such as clicking by visual confirmation) without registering, but for equipment that has been detected undetected, it is again three-dimensional. Analysis must be performed using point clouds.

そもそも計測した点群の質が悪いためにインフラ設備検出技術の結果が誤ってしまうシーン(3D点群データ)に対して、再度自動検出技術を適用しても精度の向上は難しく、人手により検出精度を向上させるための有用な情報を付与する必要がある。具体的にはそのシーンに含まれる検出対象物が何であるかを指定し、かつ検出対象物が入力されたシーン(3次元点群)のどの位置に存在するのか示すことが重要となる。   In the first place, it is difficult to improve the accuracy even if the automatic detection technology is applied again to the scene (3D point cloud data) where the result of the infrastructure equipment detection technology is wrong due to the poor quality of the measured point cloud. It is necessary to provide useful information for improving accuracy. Specifically, it is important to specify what the detection target object is included in the scene and to indicate in which position of the input scene (three-dimensional point group) the detection target object exists.

以上のことから、検出精度を向上するために、GUIインターフェース等により、検出対象物を指定することと、3次元点群の再解析範囲を決定して再度検出処理を実行すること、が必要である。   From the above, in order to improve the detection accuracy, it is necessary to specify the detection target using a GUI interface or the like, and to determine the reanalysis range of the 3D point cloud and execute the detection process again. is there.

このとき、検出対象物の種類の指定はGUIにより簡易に行えるが、3次元空間を指定することは難しい。図24に示すように、MMS(Mobile Mapping System)で計測された1枚のカメラ画像上での「領域の指定」では、奥行方向の不確実性が残るため3次元空間における再解析範囲が決定されない。ここで、「領域の指定」とは、丸や四角、矩形等の図形や曲線などの線分を描くことで処理範囲を明示することを意味する。   At this time, the type of the detection object can be easily specified by the GUI, but it is difficult to specify the three-dimensional space. As shown in FIG. 24, “area specification” on one camera image measured by MMS (Mobile Mapping System) leaves uncertainty in the depth direction, so the reanalysis range in the three-dimensional space is determined. Not. Here, “designation of the area” means that the processing range is specified by drawing a line segment such as a figure such as a circle, square, rectangle, or a curve.

そこで、本発明の実施の形態では、2枚以上のカメラ画像を用いることで、2次元画像上の領域を指定することで、再解析範囲を3次元空間として指定することを実現する。また、ユーザーが領域指定すべき画像は、システム側で自動的に選択もしくは生成して表示することで、効率的に設備管理DBを更新する作業を可能とする。   Therefore, in the embodiment of the present invention, it is possible to specify a reanalysis range as a three-dimensional space by specifying an area on a two-dimensional image by using two or more camera images. In addition, an image to be designated by the user is automatically selected or generated on the system side and displayed, thereby enabling an operation for efficiently updating the facility management DB.

[実施形態の概説]
本実施形態の設備検出装置は、物体の表面上の位置を表す3次元点の集合である3次元点群と、複数の画像とを入力として、道路周辺の設備を検出することを目的とするものである。具体的には、本実施形態の設備検出装置は、道路周辺に存在する設備として、電柱、架線、マンホール、グレーチングなどを検出対象とする。
[Outline of Embodiment]
The equipment detection apparatus of this embodiment aims to detect equipment around a road by inputting a 3D point group that is a set of 3D points representing a position on the surface of an object and a plurality of images. Is. Specifically, the facility detection apparatus according to the present embodiment detects utility poles, overhead lines, manholes, gratings, and the like as facilities existing around the road.

本実施形態における3次元情報とは、緯度、経度、及び海抜(高さ)情報でもよいし、ユーザーが設定した特定の位置を原点とした3次元ユークリッド座標系でも極座標系でもよい。以下の例では、ユーザーが設定した原点における3次元ユークリッド座標系(各方向をX,Y,Z座標とする)を想定する。各座標の単位はメートル(m)やセンチメートル(cm)、及びミリメートル(mm)で表現するが、他の単位でもよい。   The three-dimensional information in the present embodiment may be latitude, longitude, and sea level (height) information, or may be a three-dimensional Euclidean coordinate system or a polar coordinate system with a specific position set by the user as the origin. In the following example, a three-dimensional Euclidean coordinate system at the origin set by the user (each direction is assumed to be an X, Y, Z coordinate) is assumed. The unit of each coordinate is expressed in meters (m), centimeters (cm), and millimeters (mm), but other units may be used.

3次元点とは、各点に上記の3次元座標に、その点群が撮影された時刻や、レーザーの反射強度や赤・青・緑等の色情報等が付与されている点である。3次元点に付与される情報に制限はないが、少なくとも位置情報(X,Y,Z座標)と時刻が付与されたものであり、3次元点群とはその3次元点が2点以上集まった集合である。   A three-dimensional point is a point where each point is given the time when the point group was photographed, laser reflection intensity, color information such as red, blue, and green, etc., on the above three-dimensional coordinates. There is no restriction on the information given to the three-dimensional point, but at least position information (X, Y, Z coordinates) and time are given, and the three-dimensional point group is a collection of two or more three-dimensional points. It is a set.

[第1実施形態]
<第1実施形態の設備検出装置100の構成>
次に、第1実施形態の設備検出装置の構成について説明する。
[First Embodiment]
<Configuration of Facility Detection Device 100 of First Embodiment>
Next, the structure of the equipment detection apparatus of 1st Embodiment is demonstrated.

図1に示すように、第1実施形態の設備検出装置100は、入力部10、演算部20、及び画像出力部90を備えている。   As shown in FIG. 1, the facility detection apparatus 100 according to the first embodiment includes an input unit 10, a calculation unit 20, and an image output unit 90.

入力部10は、画像出力部90により出力されたGUI画面に対する、ユーザーによる操作を受け付ける。   The input unit 10 receives a user operation on the GUI screen output by the image output unit 90.

演算部20は、インターフェース部22、解析部24、画像生成部26、及び記憶部28を備えている。   The calculation unit 20 includes an interface unit 22, an analysis unit 24, an image generation unit 26, and a storage unit 28.

インターフェース部22は、画像出力部90により出力されるGUI画面を描画すると共に、入力部10により受け付けたユーザーによる操作の内容を把握する。   The interface unit 22 draws the GUI screen output from the image output unit 90 and grasps the content of the user operation accepted by the input unit 10.

解析部24は、予め用意された、物体の表面上の位置を表す3次元点の集合である3次元点群を解析して、道路周辺の設備を検出する。   The analysis unit 24 detects a facility around the road by analyzing a three-dimensional point group, which is a set of three-dimensional points representing a position on the surface of the object, prepared in advance.

画像生成部26は、予め撮影された画像に対して、解析部24による検出結果を反映して強調表示した強調表示画像を生成すると共に、強調表示画像と撮影範囲が重複する画像を取得し、生成した強調表示画像及び取得した画像が、GUI画面に表示されるようにインターフェース部22へ出力する。   The image generation unit 26 generates a highlighted image that is highlighted with reflection of the detection result of the analysis unit 24 with respect to a previously shot image, and acquires an image in which the shooting range overlaps with the highlighted image. The generated highlight image and the acquired image are output to the interface unit 22 so as to be displayed on the GUI screen.

記憶部28は、3次元点群記憶部30と、画像記憶部32と、計測ルート記憶部34と、設備情報記憶部36とを備えている。   The storage unit 28 includes a three-dimensional point cloud storage unit 30, an image storage unit 32, a measurement route storage unit 34, and an equipment information storage unit 36.

3次元点群記憶部30は、3次元点群を計測する装置によって予め計測された、物体の表面上の位置を表す3次元点の集合である3次元点群を記憶している。3次元点群を計測する装置は、レーザースキャナ、レーザーレンジファインダ、超音波センサ、マイクロソフト社のKinect(登録商標)のような赤外線センサ、または超音波センサ等、被写体とセンサとの距離を測定可能な装置である。例えば、レーザースキャナをGPSが搭載された車の上等に搭載し、移動しながら計測することで、屋外の環境の地物を被写体とし、例えば、ガードレール、道路地面、ケーブル、及び建物等であり、これら被写体表面の3次元位置を計測する。本実施形態では、3次元点群を計測する装置として、車上にGPSとレーザースキャナとが搭載されているMMS(Mobile Mapping System)を想定している。なお、3次元点群を計測する装置は、ステレオカメラにより取得した奥行き情報から求めた3次元点群を出力するものであってもよい。   The three-dimensional point group storage unit 30 stores a three-dimensional point group that is a set of three-dimensional points that represent positions on the surface of an object, which are measured in advance by a device that measures the three-dimensional point group. The 3D point cloud measuring device can measure the distance between the subject and the sensor, such as laser scanner, laser range finder, ultrasonic sensor, infrared sensor such as Microsoft Kinect (registered trademark), or ultrasonic sensor. Device. For example, a laser scanner is mounted on a GPS-equipped car or the like and is measured while moving, so that an outdoor environmental feature is a subject, such as a guardrail, road ground, cable, and building. Then, the three-dimensional position of the subject surface is measured. In the present embodiment, an MMS (Mobile Mapping System) in which a GPS and a laser scanner are mounted on a vehicle is assumed as an apparatus for measuring a three-dimensional point group. In addition, the apparatus which measures a three-dimensional point group may output the three-dimensional point group calculated | required from the depth information acquired with the stereo camera.

画像記憶部32は、3次元点群を計測する装置による計測と共にカメラによって撮影された複数のカメラ画像が記憶されている。複数のカメラ画像には、撮影時に得られたカメラパラメータ(焦点距離、撮影位置、カメラ姿勢、撮影時刻)が付与されている。   The image storage unit 32 stores a plurality of camera images photographed by a camera together with measurement by a device that measures a three-dimensional point group. Camera parameters (focal length, shooting position, camera posture, shooting time) obtained at the time of shooting are given to the plurality of camera images.

計測ルート記憶部34は、3次元点群を計測する装置による計測が行われたときに当該装置を搭載した車両が走行したルート情報を記憶している。   The measurement route storage unit 34 stores route information traveled by a vehicle on which the device is mounted when measurement is performed by the device that measures the three-dimensional point group.

設備情報記憶部36は、解析部24によって検出された道路周辺の設備の情報を記憶している。また、設備情報記憶部36は、道路周辺の設備の情報を格納した設備管理地図を記憶している。設備管理地図では、例えば、3次元空間上での道路周辺の各設備の情報が格納されている。   The facility information storage unit 36 stores information on facilities around the road detected by the analysis unit 24. Moreover, the facility information storage unit 36 stores a facility management map that stores information on facilities around the road. In the facility management map, for example, information on each facility around the road in a three-dimensional space is stored.

インターフェース部22は、設備管理GUI機能描画部38と、ユーザーGUI操作内容把握部40と、GUI上画像描画部42と、を備えている。   The interface unit 22 includes an equipment management GUI function drawing unit 38, a user GUI operation content grasping unit 40, and an on-GUI image drawing unit 42.

設備管理GUI機能描画部38は、ユーザーによって操作される、設備管理のためのGUI機能を、画像出力部90によって出力されるGUI画面に描画する。例えば、ユーザーによるクリック操作のためのボタンなどをGUI画面に描画する。   The facility management GUI function rendering unit 38 renders the facility management GUI function operated by the user on the GUI screen output by the image output unit 90. For example, a button for a click operation by the user is drawn on the GUI screen.

ユーザーGUI操作内容把握部40は、ユーザーによるGUI画面に対する操作の内容を把握する。   The user GUI operation content grasping unit 40 grasps the content of the operation on the GUI screen by the user.

GUI上画像描画部42は、画像生成部26により出力された画像を、画像出力部90によって出力されるGUI画面に描画する。   The on-GUI image drawing unit 42 draws the image output by the image generation unit 26 on the GUI screen output by the image output unit 90.

解析部24は、インフラ設備検出部44と、再解析処理対象点群決定部46とを備えている。   The analysis unit 24 includes an infrastructure equipment detection unit 44 and a reanalysis processing target point group determination unit 46.

インフラ設備検出部44は、3次元点群記憶部30に記憶されている3次元点群に対して点群解析を行って、道路周辺の設備を検出する。3次元点群に対する解析方法としては、従来既知の手法を用いればよく、例えば、上記特許文献1に記載の手法を用いればよい。   The infrastructure equipment detection unit 44 performs a point cloud analysis on the 3D point cloud stored in the 3D point cloud storage unit 30 to detect equipment around the road. As an analysis method for the three-dimensional point group, a conventionally known method may be used. For example, the method described in Patent Document 1 may be used.

また、インフラ設備検出部44は、後述するように再解析処理対象点群決定部46によって決定された再解析処理対象の3次元点群に対して点群解析を行って、道路周辺の設備を検出する。   In addition, the infrastructure equipment detection unit 44 performs a point cloud analysis on the reanalysis processing target 3D point group determined by the reanalysis processing target point group determination unit 46 as described later, and detects the equipment around the road. To detect.

再解析処理対象点群決定部46は、3次元点群記憶部30に記憶されている3次元点群から、GUI画面上に表示された画像に対する、ユーザーによる領域指定に基づいて、指定された領域に含まれる3次元点を検出する。   The reanalysis processing target point group determination unit 46 is designated based on the region designation by the user for the image displayed on the GUI screen from the three-dimensional point group stored in the three-dimensional point group storage unit 30. A three-dimensional point included in the region is detected.

再解析処理対象点群決定部46は、GUI画面上に表示された複数の画像に対する、ユーザーによる領域指定に基づいて、検出対象となる設備が存在する3次元空間を特定し、設備検出のための再解析処理対象となる3次元点群を決定する。   The reanalysis processing target point group determination unit 46 specifies a three-dimensional space in which a facility to be detected exists based on a region designation by a user for a plurality of images displayed on the GUI screen, and detects the facility. A three-dimensional point group to be reanalyzed is determined.

画像生成部26は、強調表示画像生成部48と、ユーザー指定補助画像生成部50とを備えている。   The image generation unit 26 includes a highlighted display image generation unit 48 and a user-designated auxiliary image generation unit 50.

強調表示画像生成部48は、インフラ設備検出部44によって検出された道路周辺の設備と、設備情報記憶部36に記憶されている道路周辺の設備の情報とを比較し、画像記憶部32に記憶されている画像に対して、比較結果に応じた強調表示を行った画像を生成し、GUI画面上に表示される画像として、GUI上画像描画部42へ出力する。   The highlight image generation unit 48 compares the facility around the road detected by the infrastructure facility detection unit 44 with the information about the facility around the road stored in the facility information storage unit 36 and stores it in the image storage unit 32. An image in which highlighting is performed according to the comparison result is generated for the displayed image, and is output to the on-GUI image rendering unit 42 as an image to be displayed on the GUI screen.

ユーザー指定補助画像生成部50は、画像記憶部32に記憶されている画像から、再解析処理対象点群決定部46によって検出された3次元点を含む撮影範囲の画像を取得し、GUI画面上に表示される画像として、GUI上画像描画部42へ出力する。   The user-designated auxiliary image generation unit 50 acquires an image of the imaging range including the three-dimensional point detected by the reanalysis processing target point group determination unit 46 from the image stored in the image storage unit 32, and displays the image on the GUI screen. Is output to the image rendering unit 42 on the GUI.

なお、本実施形態の設備検出装置100は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する事前処理及びインタラクティブ検出処理を実行するためのプログラムや各種データを記憶したROMと(Read Only Memory)、を含むコンピュータで構成することが出来る。本実施形態のCPUがプログラムを実行することにより、演算部20が有する各部として機能する。   The facility detection apparatus 100 of the present embodiment includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM that stores programs and various data for executing pre-processing and interactive detection processing described later, and (Read Only Memory). The CPU of the present embodiment functions as each unit included in the calculation unit 20 by executing the program.

<第1実施形態の設備検出装置100の動作>
次に、第1実施形態の設備検出装置100の動作について説明する。
<Operation | movement of the equipment detection apparatus 100 of 1st Embodiment>
Next, operation | movement of the equipment detection apparatus 100 of 1st Embodiment is demonstrated.

まず、3次元点群を計測する装置を搭載した車両が走行しながら、各時刻において、3次元点群を計測すると共に、カメラによって撮影し、得られた3次元点群が3次元点群記憶部30に格納されると共に、撮影時に得られたカメラパラメータが付与された複数のカメラ画像が画像記憶部32に記憶される。   First, while a vehicle equipped with a device for measuring a three-dimensional point cloud is traveling, the three-dimensional point group is measured at each time and photographed by a camera, and the obtained three-dimensional point group is stored in a three-dimensional point group. A plurality of camera images to which camera parameters obtained at the time of photographing are added are stored in the image storage unit 32 while being stored in the unit 30.

次に、図2に示すように、本実施形態の設備検出装置100において、事前処理が実行される。   Next, as shown in FIG. 2, pre-processing is executed in the equipment detection apparatus 100 of the present embodiment.

ステップS100で、インフラ設備検出部44は、3次元点群記憶部30に記憶されている3次元点群に対して点群解析を行って、道路周辺の設備を検出し、検出された道路周辺の設備の情報を設備情報記憶部36に格納する。   In step S100, the infrastructure equipment detection unit 44 performs a point cloud analysis on the 3D point cloud stored in the 3D point cloud storage unit 30 to detect equipment around the road, and the detected road surroundings. The facility information is stored in the facility information storage unit 36.

ステップS102で、強調表示画像生成部48は、上記ステップS100で検出された道路周辺の設備の各々について、画像記憶部32に記憶されている各カメラ画像の当該設備を表す領域を、強調表示領域として算出する。これにより、自動検出で100%の精度で設備を検出することができないことに対応して、目視で確認して間違ったものや検出漏れを見つけることができる。   In step S <b> 102, the highlighted image generation unit 48 displays an area representing the facility of each camera image stored in the image storage unit 32 for each of the facilities around the road detected in step S <b> 100. Calculate as Accordingly, in response to the fact that the equipment cannot be detected with 100% accuracy by automatic detection, it is possible to visually check and find a wrong one or a detection omission.

ステップS104で、設備情報記憶部36に記憶されている設備管理地図に格納されている各設備の情報と、上記ステップS100で検出された道路周辺の設備の情報とを比較して、乖離している部分を、画像記憶部32に記憶されている各カメラ画像において、強調表示領域として算出する。また、画像記憶部32に記憶されている各カメラ画像について、上記ステップS102、S104で算出された強調表示領域を強調表示した画像を生成し、画像記憶部32に格納し、事前処理ルーチンを終了する。これにより、カメラ画像上に検出結果を分かりやすく表示することができるため、効率的に目視確認ができるようになる。   In step S104, the information on each facility stored in the facility management map stored in the facility information storage unit 36 is compared with the information on the facilities in the vicinity of the road detected in step S100. The calculated portion is calculated as a highlight display area in each camera image stored in the image storage unit 32. Further, for each camera image stored in the image storage unit 32, an image in which the highlighted display area calculated in steps S102 and S104 is highlighted is generated, stored in the image storage unit 32, and the preprocessing routine is finished. To do. As a result, the detection result can be displayed in an easy-to-understand manner on the camera image, so that the visual confirmation can be performed efficiently.

次に、図3に示すように、本実施形態の設備検出装置100において、インタラクティブ検出処理が実行される。   Next, as shown in FIG. 3, interactive detection processing is executed in the equipment detection apparatus 100 of the present embodiment.

まず、ステップS110で、画像記憶部32に記憶されているカメラ画像の撮影時刻を処理対象の撮影時刻として更新する。あるいは、画像記憶部32に記憶されているカメラ画像の最初の撮影時刻を、処理対象の撮影時刻として設定する。   First, in step S110, the shooting time of the camera image stored in the image storage unit 32 is updated as the shooting time of the processing target. Alternatively, the first shooting time of the camera image stored in the image storage unit 32 is set as the shooting time to be processed.

ステップS112では、強調表示画像生成部48は、上記ステップS110で更新された撮影時刻に対応するカメラ画像及びカメラパラメータを、画像記憶部32から取得し、カメラ画像をGUI上画像描画部42へ出力する。   In step S112, the highlight image generation unit 48 acquires the camera image and camera parameters corresponding to the shooting time updated in step S110 from the image storage unit 32, and outputs the camera image to the on-GUI image drawing unit 42. To do.

ステップS114では、GUI上画像描画部42は、画像生成部26により出力されたカメラ画像を、画像出力部90によって出力されるGUI画面に描画する(図4参照)。このとき、当該カメラ画像における強調表示領域を、点滅や塗りつぶし等により強調する。   In step S114, the on-GUI image drawing unit 42 draws the camera image output by the image generation unit 26 on the GUI screen output by the image output unit 90 (see FIG. 4). At this time, the highlighted display area in the camera image is highlighted by blinking, painting, or the like.

ステップS116では、入力部10によって、ユーザーによる誤検出部分(強調表示領域)に対するクリック操作を受け付けて、設備情報記憶部36から、当該誤検出部分の設備情報を削除する。このように、カメラ画像に対するクリック操作だけで、設備の誤検出を削除することができる。   In step S <b> 116, the input unit 10 accepts a click operation on the erroneously detected part (highlighted display area) by the user, and deletes the equipment information of the erroneously detected part from the equipment information storage unit 36. In this way, erroneous detection of equipment can be deleted only by clicking on the camera image.

ステップS118では、再解析対象点群を決定する処理を行う。ステップS118は、図5に示す処理ルーチンによって実現される。   In step S118, processing for determining a reanalysis target point group is performed. Step S118 is realized by the processing routine shown in FIG.

ステップS130では、入力部10によって、GUI画面のカメラ画像上における、ユーザーによる検出対象となる設備が存在する領域を指定する操作を受け付ける(図6参照)。これにより、設備の検出漏れがある場合に、当該設備が存在する領域を指定することができる。   In step S130, the input unit 10 accepts an operation for designating a region where equipment to be detected by the user exists on the camera image on the GUI screen (see FIG. 6). Thereby, when there is an equipment detection omission, it is possible to specify an area where the equipment exists.

ステップS132では、再解析処理対象点群決定部46は、上記ステップS130によって指定された領域と、上記ステップS112で取得したカメラ画像及びカメラパラメータとに基づいて、3次元点群記憶部30に記憶されている3次元点群から、指定された領域の範囲内の3次元点(以下、画像指定3D点とも称する。)を検出する。例えば、図7に示すように、ユーザーにより指定された領域の各画素をデプス方向に延長したときに最も撮影位置から近くに存在する3次元点からなる点群を検出する。このとき、点群欠損やユーザーの指定領域の間違いにより後方に存在する物体にも画像指定3D点が現れる場合がある。   In step S132, the reanalysis processing target point group determination unit 46 stores the three-dimensional point group storage unit 30 based on the region specified in step S130 and the camera image and camera parameters acquired in step S112. A three-dimensional point (hereinafter also referred to as an image designated 3D point) within the designated area is detected from the three-dimensional point group. For example, as shown in FIG. 7, when each pixel in the region designated by the user is extended in the depth direction, a point group consisting of three-dimensional points that are closest to the shooting position is detected. At this time, there may be a case where an image designated 3D point also appears in an object existing behind due to a point cloud loss or an error in a user designated area.

ステップS134では、再解析処理対象点群決定部46は、画像記憶部32に記憶されているカメラ画像及びカメラパラメータに基づいて、上記ステップS132で検出された画像指定3D点が写っているカメラ画像を候補画像として抽出し(図8参照)、GUI上画像描画部42により、抽出された各候補画像を、GUI画面上に描画して、ユーザーに提示する(図9参照)。   In step S134, the reanalysis processing target point group determination unit 46, based on the camera image and camera parameters stored in the image storage unit 32, captures the camera image in which the image designated 3D point detected in step S132 is captured. Are extracted as candidate images (see FIG. 8), and each extracted candidate image is drawn on the GUI screen by the GUI image drawing unit 42 and presented to the user (see FIG. 9).

ステップS136では、ユーザーによる候補画像の選択を受け付ける。例えば、ユーザーがクリック操作により何れか一つの候補画像を選択する(上記図9参照)。   In step S136, selection of a candidate image by the user is accepted. For example, the user selects any one candidate image by a click operation (see FIG. 9).

ステップS138では、入力部10によって、選択された候補画像上において、ユーザーによる検出対象となる設備が存在する領域を指定する操作を受け付ける(図10参照)。   In step S138, the input unit 10 accepts an operation for designating an area in which a facility to be detected by the user exists on the selected candidate image (see FIG. 10).

ステップS140では、再解析処理対象点群決定部46は、上記ステップS130によって指定された領域と、上記ステップS138によって指定された領域と、上記ステップS112で取得したカメラ画像及びカメラパラメータと、上記ステップS136で選択された候補画像及びカメラパラメータとに基づいて、3次元点群記憶部30に記憶されている3次元点群から、指定された2つの領域の重複領域となる3次元空間内の3次元点群を検出する(図11参照)。   In step S140, the reanalysis processing target point group determination unit 46 determines the area specified in step S130, the area specified in step S138, the camera image and camera parameters acquired in step S112, and the above step. Based on the candidate image selected in S136 and the camera parameters, 3 in the three-dimensional space that is an overlapping area of the two specified areas from the three-dimensional point group stored in the three-dimensional point group storage unit 30. A dimension point group is detected (see FIG. 11).

例えば、図12に示すように、上記ステップS130によって指定された領域の画素をデプス方向に延長したときに最も撮影位置から近くに存在する3次元点の位置からΔDの範囲と、上記ステップS138によって指定された領域の画素をデプス方向に延長したときに最も撮影位置から近くに存在する3次元点の位置からΔDの範囲とで規定される3次元空間を特定し、特定された3次元空間内の3次元点群を検出する。   For example, as shown in FIG. 12, when the pixels in the region designated in step S130 are extended in the depth direction, the range of ΔD from the position of the three-dimensional point that is closest to the shooting position, and in step S138, When a pixel in the specified area is extended in the depth direction, a three-dimensional space defined by the range of ΔD from the position of the three-dimensional point closest to the shooting position is specified, and the specified three-dimensional space The three-dimensional point group is detected.

ステップS142では、強調表示画像生成部48は、上記ステップS112で取得したカメラ画像及びカメラパラメータと、上記ステップS140で検出された3次元点群とに基づいて、検出された3次元点群を強調表示したカメラ画像を生成し、GUI上画像描画部42により、強調表示されたカメラ画像を、GUI画面上に描画して、ユーザーに提示して、当該処理ルーチンを終了する。なお、上記ステップS136で選択された候補画像に対して、強調表示するようにしてもよい。   In step S142, the highlight image generation unit 48 emphasizes the detected three-dimensional point group based on the camera image and camera parameters acquired in step S112 and the three-dimensional point group detected in step S140. The displayed camera image is generated, and the on-GUI image drawing unit 42 draws the highlighted camera image on the GUI screen, presents it to the user, and ends the processing routine. Note that the candidate image selected in step S136 may be highlighted.

このように、検出漏れとなる設備については、3次元点群を用いて再解析する必要があるが、再解析する範囲を人手で教えてあげることで、精度良く検出することが可能となる。   As described above, it is necessary to reanalyze the equipment that becomes a detection failure by using a three-dimensional point group. However, it is possible to detect it with high accuracy by manually teaching the range to be reanalyzed.

そして、上記図3に示すインタラクティブ検出処理のステップS120において、入力部10によって、ユーザーによる検出対象となる設備の種類の指定(上記図4参照)を受け付けると共に、再解析の実行指示を受け付けると、上記ステップS140によって検出された3次元点群に対して、再度、点群解析を行って、道路周辺の設備を検出し、検出された道路周辺の設備の情報を設備情報記憶部36に格納する。   Then, in step S120 of the interactive detection process shown in FIG. 3, the input unit 10 accepts designation of the type of equipment to be detected by the user (see FIG. 4 above) and accepts a reanalysis execution instruction. A point cloud analysis is performed again on the three-dimensional point group detected in step S140 to detect equipment around the road, and information on the detected equipment around the road is stored in the equipment information storage unit 36. .

ステップS122で、検出漏れの設備がないか否かを判定する。ユーザーによる「次の時刻」ボタン(上記図4参照)に対するクリック操作を受け付けると、検出漏れの設備がないと判断し、ステップS124へ進む。一方、そうでない場合には、上記ステップS118へ戻り、再び、領域の指定を受け付ける。   In step S122, it is determined whether or not there is a detection failure facility. When a click operation on the “next time” button (see FIG. 4) by the user is accepted, it is determined that there is no equipment that is not detected, and the process proceeds to step S124. On the other hand, if not, the process returns to step S118, and the designation of the area is accepted again.

ステップS124では、処理対象となっている撮影時刻が、画像記憶部32に記憶されているカメラ画像の最後の時刻であるか否かを判定する。処理対象となっている撮影時刻が、画像記憶部32に記憶されているカメラ画像の最後の時刻でない場合には、上記ステップS110へ戻り、処理対象の撮影時刻を、次のカメラ画像の撮影時刻に更新する。一方、処理対象となっている撮影時刻が、画像記憶部32に記憶されているカメラ画像の最後の時刻である場合には、ステップS126で、設備情報記憶部36に記憶されている設備管理地図を更新して、インタラクティブ検出処理を終了する。   In step S <b> 124, it is determined whether or not the shooting time that is the processing target is the last time of the camera image stored in the image storage unit 32. If the shooting time to be processed is not the last time of the camera image stored in the image storage unit 32, the process returns to step S110, and the shooting time to be processed is set to the shooting time of the next camera image. Update to On the other hand, when the photographing time to be processed is the last time of the camera image stored in the image storage unit 32, the facility management map stored in the facility information storage unit 36 in step S126. Is updated and the interactive detection process is terminated.

以上説明したように、第1実施形態の設備検出装置100によれば、撮影範囲が重複する複数の画像の各々を表示し、ユーザーの操作により、複数の画像の各々において、検出対象の設備が存在する領域の指定を受け付け、検出対象の設備が存在する3次元空間を特定することにより、検出漏れの設備が存在する3次元空間を精度よく特定することができ、3次元点群の再解析を行うことができる。   As described above, according to the facility detection apparatus 100 of the first embodiment, each of a plurality of images with overlapping imaging ranges is displayed, and the facility to be detected is detected in each of the plurality of images by a user operation. By accepting the specification of the existing area and specifying the three-dimensional space where the equipment to be detected exists, the three-dimensional space where the equipment that is not detected can be accurately specified, and the reanalysis of the three-dimensional point cloud It can be performed.

[第2実施形態]
次に、第2実施形態の設備検出装置について説明する。なお、第2実施形態の設備検出装置は、第1実施形態の設備検出装置と同様の構成であるため、同一符号を付して説明を省略する。
[Second Embodiment]
Next, the equipment detection apparatus of 2nd Embodiment is demonstrated. In addition, since the equipment detection apparatus of 2nd Embodiment is the structure similar to the equipment detection apparatus of 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第2実施形態では、仮想視点から見た仮想画像を生成して、ユーザーに提示し、領域の指定を受け付ける点が、第1実施形態と異なっている。   The second embodiment is different from the first embodiment in that a virtual image viewed from a virtual viewpoint is generated, presented to the user, and an area designation is received.

<第2実施形態の設備検出装置100の構成>
第2実施形態の設備検出装置100の画像生成部26は、予め撮影された画像に対して、解析部24による検出結果を反映して強調表示した強調表示画像を生成すると共に、強調表示画像の撮影範囲を表す仮想画像を生成し、生成した強調表示画像及び生成した仮想画像が、GUI画面に表示されるようにインターフェース部22へ出力する。
<Configuration of Facility Detection Device 100 of Second Embodiment>
The image generation unit 26 of the facility detection apparatus 100 according to the second embodiment generates a highlighted image that reflects the detection result of the analysis unit 24 with respect to a previously captured image, and also displays the highlighted image. A virtual image representing the shooting range is generated, and the generated highlighted image and the generated virtual image are output to the interface unit 22 so as to be displayed on the GUI screen.

再解析処理対象点群決定部46は、GUI画面上に表示された強調表示画像及び仮想画像に対する、ユーザーによる領域指定に基づいて、検出対象となる設備が存在する3次元空間を特定し、設備検出のための再解析処理対象となる3次元点群を決定する。   The reanalysis processing target point group determination unit 46 specifies a three-dimensional space in which the equipment to be detected exists based on the region designation by the user for the highlighted image and the virtual image displayed on the GUI screen. A three-dimensional point group to be reanalyzed for detection is determined.

ユーザー指定補助画像生成部50は、ユーザーによる領域指定がされたカメラ画像の撮影範囲を表す、仮想視点から見た仮想画像を取得し、GUI画面上に表示される画像として、GUI上画像描画部42へ出力する。   The user-designated auxiliary image generation unit 50 acquires a virtual image viewed from a virtual viewpoint, which represents a shooting range of a camera image for which a region is designated by the user, and displays an image on the GUI as an image displayed on the GUI screen. Output to 42.

<第2実施形態の設備検出装置100の動作>
次に、第2実施形態の設備検出装置100の動作について説明する。なお、第1実施形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation | movement of the equipment detection apparatus 100 of 2nd Embodiment>
Next, operation | movement of the equipment detection apparatus 100 of 2nd Embodiment is demonstrated. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、上記図2に示すように、第2実施形態の設備検出装置100において、第1実施形態と同様に、事前処理が実行される。   First, as shown in FIG. 2, in the facility detection apparatus 100 according to the second embodiment, pre-processing is executed as in the first embodiment.

そして、上記図3に示すように、第2実施形態の設備検出装置100において、第1実施形態と同様に、インタラクティブ検出処理が実行される。   And as shown in the said FIG. 3, in the equipment detection apparatus 100 of 2nd Embodiment, an interactive detection process is performed similarly to 1st Embodiment.

このとき、上記ステップS118の、再解析対象点群を決定する処理は、図13に示す処理ルーチンによって実現される。   At this time, the process of determining the reanalysis target point group in step S118 is realized by the process routine shown in FIG.

ステップS130では、入力部10によって、GUI画面のカメラ画像上における、ユーザーによる検出対象となる設備が存在する領域を指定する操作を受け付ける(上記図6参照)。   In step S130, the input unit 10 accepts an operation for designating a region where equipment to be detected by the user exists on the camera image on the GUI screen (see FIG. 6 above).

ステップS132では、再解析処理対象点群決定部46は、上記ステップS130によって指定された領域と、上記ステップS112で取得したカメラ画像及びカメラパラメータとに基づいて、3次元点群記憶部30に記憶されている3次元点群から、指定された領域の範囲内の3次元点(画像指定3D点)を検出する。   In step S132, the reanalysis processing target point group determination unit 46 stores the three-dimensional point group storage unit 30 based on the region specified in step S130 and the camera image and camera parameters acquired in step S112. A three-dimensional point (image designated 3D point) within the range of the designated region is detected from the three-dimensional point group that has been designated.

ステップS200では、ユーザー指定補助画像生成部50は、上記ステップS112で取得したカメラ画像及びカメラパラメータに基づいて、当該カメラ画像の撮影範囲の3次元領域を算出する(図14参照)。   In step S200, the user-specified auxiliary image generation unit 50 calculates a three-dimensional area of the shooting range of the camera image based on the camera image and camera parameters acquired in step S112 (see FIG. 14).

ステップS202では、ユーザー指定補助画像生成部50は、3次元点群記憶部30に記憶されている3次元点群から、上記ステップS200で算出された撮影範囲の3次元領域に含まれる3次元点群を取得し、取得した3次元点群を、複数の仮想視点の各々から見た仮想画像を、候補画像として生成する。そして、GUI上画像描画部42により、生成された各候補画像を、GUI画面上に描画して、ユーザーに提示する(図15参照)。例えば、真上から見た仮想画像、斜め方向から見た仮想画像、MMSの走行軌跡に対して垂直方向から見た仮想画像を生成する。   In step S <b> 202, the user-specified auxiliary image generation unit 50 uses the three-dimensional points included in the three-dimensional area of the imaging range calculated in step S <b> 200 from the three-dimensional point group stored in the three-dimensional point group storage unit 30. A group is acquired, and a virtual image obtained by viewing the acquired three-dimensional point group from each of a plurality of virtual viewpoints is generated as a candidate image. Then, each of the generated candidate images is drawn on the GUI screen by the GUI image drawing unit 42 and presented to the user (see FIG. 15). For example, a virtual image viewed from directly above, a virtual image viewed from an oblique direction, and a virtual image viewed from the vertical direction with respect to the travel locus of the MMS are generated.

ステップS204では、ユーザーによる仮想画像の選択を受け付ける。例えば、ユーザーがクリック操作により何れか一つの仮想画像を選択する(上記図15参照)。   In step S204, the selection of the virtual image by the user is accepted. For example, the user selects any one virtual image by a click operation (see FIG. 15 above).

ステップS206では、入力部10によって、選択された仮想画像上において、ユーザーによる検出対象となる設備が存在する領域を指定する操作を受け付ける(図16参照)。   In step S <b> 206, the input unit 10 accepts an operation for designating a region in which a facility to be detected by the user exists on the selected virtual image (see FIG. 16).

ステップS208では、再解析処理対象点群決定部46は、上記ステップS130によって指定された領域と、上記ステップS206によって指定された領域と、上記ステップS112で取得したカメラ画像及びカメラパラメータと、上記ステップS204で選択された仮想画像及び仮想画像の視点方向とに基づいて、3次元点群記憶部30に記憶されている3次元点群から、指定された2つの領域の重複領域となる3次元空間内の3次元点群を検出する(図17参照)。   In step S208, the reanalysis processing target point group determination unit 46 determines the area specified in step S130, the area specified in step S206, the camera image and camera parameters acquired in step S112, and the above step. Based on the virtual image selected in S204 and the viewpoint direction of the virtual image, a three-dimensional space that is an overlapping region of the two specified regions from the three-dimensional point group stored in the three-dimensional point group storage unit 30 Among them, a three-dimensional point group is detected (see FIG. 17).

例えば、上記図12に示すように、上記ステップS130によって指定された領域の画素をデプス方向に延長したときに最も撮影位置から近くに存在する3次元点の位置からΔDの範囲と、上記ステップS138によって指定された領域の画素をデプス方向に延長したときに最も撮影位置から近くに存在する3次元点の位置からΔDの範囲とで規定される3次元空間を特定し、特定された3次元空間内の3次元点群を検出する。   For example, as shown in FIG. 12, the range of ΔD from the position of the three-dimensional point that is closest to the shooting position when the pixels in the region specified in step S130 are extended in the depth direction, and step S138. A three-dimensional space defined by the range of ΔD from the position of the three-dimensional point closest to the shooting position when the pixels in the region designated by the depth are extended in the depth direction, and the specified three-dimensional space A three-dimensional point group is detected.

ステップS142では、強調表示画像生成部48は、上記ステップS112で取得したカメラ画像及びカメラパラメータと、上記ステップS208で検出された3次元点群とに基づいて、検出された3次元点群を強調表示したカメラ画像を生成し、GUI上画像描画部42により、強調表示されたカメラ画像を、GUI画面上に描画して、ユーザーに提示して、当該処理ルーチンを終了する。なお、上記ステップS204で選択された仮想画像に対して、強調表示するようにしてもよい。   In step S142, the highlight image generation unit 48 emphasizes the detected three-dimensional point group based on the camera image and camera parameters acquired in step S112 and the three-dimensional point group detected in step S208. The displayed camera image is generated, and the on-GUI image drawing unit 42 draws the highlighted camera image on the GUI screen, presents it to the user, and ends the processing routine. Note that the virtual image selected in step S204 may be highlighted.

なお、第2実施形態の設備検出装置100の他の構成及び作用については、第1実施形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the equipment detection apparatus 100 of 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

以上説明したように、第2実施形態に係る設備検出装置によれば、撮影範囲が重複するカメラ画像と仮想画像との各々を表示し、ユーザーの操作により、カメラ画像と仮想画像との各々において、検出対象の設備が存在する領域の指定を受け付け、検出対象の設備が存在する3次元空間を特定することにより、検出漏れの設備が存在する3次元空間を精度よく特定することができ、3次元点群の再解析を行うことができる。   As described above, according to the equipment detection device according to the second embodiment, each of the camera image and the virtual image with overlapping shooting ranges is displayed, and each of the camera image and the virtual image is displayed by a user operation. By receiving the designation of the area where the detection target equipment exists and specifying the three-dimensional space where the detection target equipment exists, it is possible to accurately specify the three-dimensional space where the detection failure equipment exists. Reanalysis of the dimension point group can be performed.

なお、本実施形態は一例であり、具体的な構成は本実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれ、状況に応じて変更可能であることは言うまでもない。   Note that this embodiment is an example, and the specific configuration is not limited to this embodiment, and includes design and the like within a scope that does not depart from the gist of the present invention, and can be changed according to circumstances. Needless to say.

例えば、第2実施形態の設備検出装置100は、複数の仮想画像を生成するのではなく、真上から見たオルソ画像のみを生成してもよい。例えば、ユーザー指定補助画像生成部50は、上記ステップS112で取得したカメラ画像のカメラパラメータから、当該カメラ画像の撮影範囲を算出し、3次元点群記憶部30に記憶されている3次元点群から、上記算出された撮影範囲の3次元空間に含まれる3次元点群を取得し、取得した3次元点群を、真上から見たオルソ画像を生成する(図18参照)。このとき、路面設備(例えば、マンホールや区画線、グレーチング)が検出対象であれば、地面が再解析範囲となるため、地面より上空に存在する点群を除去するようにしてもよい。そして、ユーザー指定補助画像生成部50は、上記ステップS112で取得したカメラ画像のカメラパラメータから、オルソ画像上における、当該カメラ画像の撮影範囲を決定する(図19参照)。そして、GUI上画像描画部42により、生成されたオルソ画像を、GUI画面上に描画して、ユーザーに提示し、入力部10によって、オルソ画像上において、ユーザーによる検出対象となる設備が存在する領域を指定する操作を受け付ける(図20)。   For example, the facility detection apparatus 100 according to the second embodiment may generate only an ortho image viewed from directly above, instead of generating a plurality of virtual images. For example, the user-specified auxiliary image generation unit 50 calculates the shooting range of the camera image from the camera parameters of the camera image acquired in step S112, and stores the three-dimensional point group stored in the three-dimensional point group storage unit 30. Then, a three-dimensional point group included in the three-dimensional space of the calculated photographing range is acquired, and an ortho image obtained by viewing the acquired three-dimensional point group from directly above is generated (see FIG. 18). At this time, if road surface equipment (for example, manholes, lane markings, and gratings) is a detection target, the ground is in the reanalysis range, and therefore, a point group that exists above the ground may be removed. Then, the user-designated auxiliary image generation unit 50 determines the shooting range of the camera image on the ortho image from the camera parameters of the camera image acquired in step S112 (see FIG. 19). Then, the generated ortho image is drawn on the GUI screen by the GUI image drawing unit 42 and presented to the user, and the input unit 10 has equipment to be detected by the user on the ortho image. An operation for designating an area is accepted (FIG. 20).

また、第2実施形態の設備検出装置100は、複数の仮想画像を生成する際に、オクルージョンの影響が少ない視点から見た仮想画像を候補画像とするようにしてもよい(図21参照)。ユーザーにより指定された領域に含まれる点群のうち、広い面積で存在する点群の領域が、検出対象の設備が存在する確率の高い領域であるため、この領域を広く映す視点の仮想画像を候補画像とするようにしてもよい。例えば、画像指定3D点からなる点群に対して、k近傍点群によるクラスタリングを行い、クラスタが一定以上の大きさの箇所は、検出対象である確率は高いと判断する(図22参照)。そして、図23に示すように、画像指定3D点のクラスタの重心位置から仮想カメラ視点の方向に対して様々な候補画像を生成し、画像指定3D点がなるべくオクルージョンの影響を受けない視点の仮想画像を候補画像とすればよい。   In addition, when generating a plurality of virtual images, the facility detection apparatus 100 of the second embodiment may use a virtual image viewed from a viewpoint with less influence of occlusion as a candidate image (see FIG. 21). Of the point cloud included in the area specified by the user, the area of the point cloud that exists in a wide area is the area where there is a high probability that the equipment to be detected exists, so a virtual image of the viewpoint that reflects this area widely is displayed. You may make it be a candidate image. For example, clustering is performed using a k-neighboring point group for a point group composed of image designated 3D points, and it is determined that the probability that a cluster is a certain size or larger is a detection target (see FIG. 22). Then, as shown in FIG. 23, various candidate images are generated with respect to the direction of the virtual camera viewpoint from the center of gravity position of the cluster of the image designated 3D point, and the virtual of the viewpoint where the image designated 3D point is not affected by occlusion as much as possible. The image may be a candidate image.

また、道路周辺の設備を検出対象物とする場合を例に説明したが、これに限定されるものではなく、道路周辺の設備以外のものを検出対象物としてもよい。   Moreover, although the case where the equipment around the road is used as the detection target has been described as an example, the present invention is not limited to this, and a thing other than the equipment around the road may be used as the detection target.

10 入力部
20 演算部
22 インターフェース部
24 解析部
26 画像生成部
28 記憶部
30 3次元点群記憶部
32 画像記憶部
34 計測ルート記憶部
36 設備情報記憶部
38 設備管理GUI機能描画部
40 ユーザーGUI操作内容把握部
42 GUI上画像描画部
44 インフラ設備検出部
46 再解析処理対象点群決定部
48 強調表示画像生成部
50 ユーザー指定補助画像生成部
90 画像出力部
100 設備検出装置
DESCRIPTION OF SYMBOLS 10 Input part 20 Operation part 22 Interface part 24 Analysis part 26 Image generation part 28 Storage part 30 Three-dimensional point cloud storage part 32 Image storage part 34 Measurement route storage part 36 Equipment information storage part 38 Equipment management GUI function drawing part 40 User GUI Operation content grasping unit 42 GUI image drawing unit 44 Infrastructure facility detection unit 46 Reanalysis processing target point group determination unit 48 Highlighted image generation unit 50 User-specified auxiliary image generation unit 90 Image output unit 100 Facility detection device

Claims (8)

撮影範囲が重複する複数の画像の各々を表示し、前記複数の画像の各々において、検出対象物が存在する領域の指定を受け付けるインターフェース部と、
前記複数の画像の各々における領域の指定に基づいて、前記検出対象物が存在する3次元空間を特定する解析部と、
を含む3次元空間特定装置。
An interface unit that displays each of a plurality of images having overlapping shooting ranges, and receives designation of an area where a detection target exists in each of the plurality of images;
An analysis unit that identifies a three-dimensional space in which the detection target exists based on designation of a region in each of the plurality of images;
A three-dimensional space specifying device.
前記複数の画像の各々は、撮影位置が付与された画像である請求項1記載の3次元空間特定装置。   The three-dimensional space specifying device according to claim 1, wherein each of the plurality of images is an image to which a shooting position is given. ユーザー指定補助画像生成部を更に含み、
前記インターフェース部は、画像を表示し、前記画像において、検出対象物が存在する領域の指定を受け付け、
前記解析部は、予め用意された、物体の表面上の位置を表す3次元点の集合である3次元点群から、前記画像における領域の指定に含まれる3次元点を検出し、
前記ユーザー指定補助画像生成部は、前記解析部によって検出された3次元点を含む撮影範囲の画像を取得し、
前記インターフェース部は、前記ユーザー指定補助画像生成部によって取得した画像を表示し、前記画像において、前記検出対象物が存在する領域の指定を受け付ける請求項1又は2記載の3次元空間特定装置。
A user-specified auxiliary image generation unit;
The interface unit displays an image, and in the image, accepts designation of a region where a detection target exists,
The analysis unit detects a three-dimensional point included in the designation of the region in the image from a three-dimensional point group that is a set of three-dimensional points representing a position on the surface of the object prepared in advance.
The user-specified auxiliary image generation unit acquires an image of a shooting range including a three-dimensional point detected by the analysis unit,
The three-dimensional space identification device according to claim 1 or 2, wherein the interface unit displays an image acquired by the user-specified auxiliary image generation unit, and receives designation of a region where the detection target exists in the image.
ユーザー指定補助画像生成部を更に含み、
前記インターフェース部は、画像を表示し、前記画像において、検出対象物が存在する領域の指定を受け付け、
前記解析部は、前記画像の撮影範囲に対応する3次元領域を算出し、
前記ユーザー指定補助画像生成部は、予め用意された、物体の表面上の位置を表す3次元点の集合である3次元点群から、前記解析部によって算出された3次元領域に含まれる点群を取得し、取得した点群を表し、かつ、仮想的な視点から見た仮想画像を生成し、
前記インターフェース部は、前記ユーザー指定補助画像生成部によって生成された仮想画像を表示し、前記仮想画像において、前記検出対象物が存在する領域の指定を受け付ける請求項1又は2記載の3次元空間特定装置。
A user-specified auxiliary image generation unit;
The interface unit displays an image, and in the image, accepts designation of a region where a detection target exists,
The analysis unit calculates a three-dimensional region corresponding to the imaging range of the image,
The user-specified auxiliary image generation unit includes a point group included in the three-dimensional region calculated by the analysis unit from a three-dimensional point group that is a set of three-dimensional points representing a position on the surface of the object. , Representing the acquired point cloud and generating a virtual image viewed from a virtual viewpoint,
3. The three-dimensional space identification according to claim 1, wherein the interface unit displays a virtual image generated by the user-specified auxiliary image generation unit, and receives designation of a region where the detection target exists in the virtual image. apparatus.
前記仮想画像を、前記解析部によって算出された3次元領域に含まれる点群を、真上から見たオルソ画像とした請求項4記載の3次元空間特定装置。   The three-dimensional space specifying device according to claim 4, wherein the virtual image is an ortho image as viewed from directly above a point group included in the three-dimensional region calculated by the analysis unit. 前記検出対象物を、道路周辺の設備とし、
前記解析部は、更に、前記特定した前記検出対象物が存在する3次元空間に含まれる3次元点からなる点群を解析して、道路周辺の設備を検出する請求項1〜請求項5の何れか1項記載の3次元空間特定装置。
The detection object is a facility around the road,
The analysis unit further detects a facility around a road by analyzing a point group composed of three-dimensional points included in a three-dimensional space in which the identified detection target exists. The three-dimensional space identification device according to any one of the preceding claims.
インターフェース部が、撮影範囲が重複する複数の画像の各々を表示し、前記複数の画像の各々において、検出対象物が存在する領域の指定を受け付け、
解析部が、前記複数の画像の各々における領域の指定に基づいて、前記検出対象物が存在する3次元空間を特定する
3次元空間特定方法。
The interface unit displays each of a plurality of images having overlapping shooting ranges, and receives designation of a region where a detection target exists in each of the plurality of images,
The analysis unit specifies a three-dimensional space in which the detection target exists based on designation of a region in each of the plurality of images.
コンピュータを、請求項1〜請求項6の何れか1項に記載の3次元空間特定装置の各部として機能させるためのプログラム。   The program for functioning a computer as each part of the three-dimensional space identification apparatus of any one of Claims 1-6.
JP2016241276A 2016-12-13 2016-12-13 Three-dimensional space identification apparatus, method, and program Active JP6546898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016241276A JP6546898B2 (en) 2016-12-13 2016-12-13 Three-dimensional space identification apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016241276A JP6546898B2 (en) 2016-12-13 2016-12-13 Three-dimensional space identification apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2018097588A true JP2018097588A (en) 2018-06-21
JP6546898B2 JP6546898B2 (en) 2019-07-17

Family

ID=62632964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016241276A Active JP6546898B2 (en) 2016-12-13 2016-12-13 Three-dimensional space identification apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6546898B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020240737A1 (en) * 2019-05-29 2020-12-03

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000074667A (en) * 1998-09-03 2000-03-14 Asahi Optical Co Ltd Road illustrating device, road illustrating method, and recording medium recording road illustrating program
JP2002236909A (en) * 2001-02-09 2002-08-23 Minolta Co Ltd Image data processing method and modeling device
JP2009204615A (en) * 2007-02-16 2009-09-10 Mitsubishi Electric Corp Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring terminal device, measuring server device, plotting device, plotting method, plotting program, and plotted data
WO2013103151A1 (en) * 2012-01-04 2013-07-11 株式会社ニコン Electronic device, method for generating information, and method for estimating position

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000074667A (en) * 1998-09-03 2000-03-14 Asahi Optical Co Ltd Road illustrating device, road illustrating method, and recording medium recording road illustrating program
JP2002236909A (en) * 2001-02-09 2002-08-23 Minolta Co Ltd Image data processing method and modeling device
JP2009204615A (en) * 2007-02-16 2009-09-10 Mitsubishi Electric Corp Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring terminal device, measuring server device, plotting device, plotting method, plotting program, and plotted data
WO2013103151A1 (en) * 2012-01-04 2013-07-11 株式会社ニコン Electronic device, method for generating information, and method for estimating position

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020240737A1 (en) * 2019-05-29 2020-12-03
JP7269515B2 (en) 2019-05-29 2023-05-09 日本電信電話株式会社 Video generation device, video generation method, and video generation program

Also Published As

Publication number Publication date
JP6546898B2 (en) 2019-07-17

Similar Documents

Publication Publication Date Title
US11632536B2 (en) Method and apparatus for generating three-dimensional (3D) road model
EP3581890B1 (en) Method and device for positioning
CA2678156C (en) Measurement apparatus, measurement method, and feature identification apparatus
CN113592989B (en) Three-dimensional scene reconstruction system, method, equipment and storage medium
CN105043350A (en) Binocular vision measuring method
CN104574393A (en) Three-dimensional pavement crack image generation system and method
JP6524529B2 (en) Building limit judging device
CN107396037B (en) Video monitoring method and device
CN108362205B (en) Space distance measuring method based on fringe projection
US20130135446A1 (en) Street view creating system and method thereof
WO2021017211A1 (en) Vehicle positioning method and device employing visual sensing, and vehicle-mounted terminal
KR101996241B1 (en) Device and method for providing 3d map representing positon of interest in real time
CN116385420A (en) Method, system, device and storage medium for determining area size
US20220215576A1 (en) Information processing device, information processing method, and computer program product
CN113344906B (en) Camera evaluation method and device in vehicle-road cooperation, road side equipment and cloud control platform
CN114565908A (en) Lane line detection method and device, electronic device and storage medium
US20220148216A1 (en) Position coordinate derivation device, position coordinate derivation method, position coordinate derivation program, and system
KR101459522B1 (en) Location Correction Method Using Additional Information of Mobile Instrument
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
Kochi et al. 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera
JP6546898B2 (en) Three-dimensional space identification apparatus, method, and program
CN113112551B (en) Camera parameter determining method and device, road side equipment and cloud control platform
KR101575742B1 (en) Method for Investigating Excavated Rock Surface based on Stereo Vision
KR101463906B1 (en) Location Correction Method Using Additional Image Information
CN107802468B (en) Blind guiding method and blind guiding system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R150 Certificate of patent or registration of utility model

Ref document number: 6546898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150