JP2019095876A - Three-dimensional point group display device, three-dimensional point group display system, method for displaying three-dimensional point group, three-dimensional point group display program, and recording medium - Google Patents

Three-dimensional point group display device, three-dimensional point group display system, method for displaying three-dimensional point group, three-dimensional point group display program, and recording medium Download PDF

Info

Publication number
JP2019095876A
JP2019095876A JP2017222447A JP2017222447A JP2019095876A JP 2019095876 A JP2019095876 A JP 2019095876A JP 2017222447 A JP2017222447 A JP 2017222447A JP 2017222447 A JP2017222447 A JP 2017222447A JP 2019095876 A JP2019095876 A JP 2019095876A
Authority
JP
Japan
Prior art keywords
dimensional point
point cloud
image data
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017222447A
Other languages
Japanese (ja)
Other versions
JP7003594B2 (en
Inventor
亮輔 赤木
Ryosuke Akagi
亮輔 赤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017222447A priority Critical patent/JP7003594B2/en
Publication of JP2019095876A publication Critical patent/JP2019095876A/en
Application granted granted Critical
Publication of JP7003594B2 publication Critical patent/JP7003594B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a three-dimensional point group display device that can surely attain matching of three-dimensional point group data and image data.SOLUTION: A three-dimensional point group display device 1 includes: a data acquisition unit 2 for acquiring image data 22 obtained by taking an image of a monitoring target by a camera 21; a display processing unit 3 for displaying, in a screen 4a, three-dimensional point group data 31 obtained by measuring at least a part of a range of the monitoring target which is imaged by the camera 21; and an operation range setting unit 6 for setting an operational range by a user input to the three-dimensional point group data 31 displayed in the screen 4b.SELECTED DRAWING: Figure 1

Description

この発明は、3次元点群表示装置の表示画面上に、カメラで撮影された画像を半自動でマッチングさせて表示させる、3次元点群表示装置、3次元点群表示システム、3次元点群表示方法、3次元点群表示プログラムおよび記録媒体に関するものである。   The present invention relates to a three-dimensional point cloud display device, a three-dimensional point cloud display system, a three-dimensional point cloud display, and a method of semi-automatically matching and displaying an image captured by a camera on a display screen of the three-dimensional point cloud display device The present invention relates to a method, a three-dimensional point cloud display program, and a recording medium.

河川等の広域インフラ監視を行う場合、レーザスキャンにより得られた地形や構造物の3次元点群データを3次元点群表示装置に表示させることがある。そして、3次元点群表示装置の画面上にカメラで撮像された動画や静止画といった画像データを重畳表示することで、画像によるリアルタイム状態と周囲の環境を合わせて確認でき、河川の氾濫状況などを正確に把握することが可能となる。この機能を実現するためには、3次元点群データと画像データのマッチングを行う必要がある。   When wide area infrastructure monitoring such as rivers is performed, three-dimensional point cloud data of terrain or structure obtained by laser scanning may be displayed on a three-dimensional point cloud display device. Then, by superimposing and displaying image data such as a moving image or a still image captured by a camera on the screen of the three-dimensional point cloud display device, it is possible to check the real time state by the image and the surrounding environment. It becomes possible to grasp exactly. In order to realize this function, it is necessary to match three-dimensional point cloud data with image data.

従来、3次元点群データと画像データのマッチングを取るために、周辺の実画像を撮影するカメラ、GPS装置から取得したモバイル端末の概略位置の周辺の3次元座標データをサーバから取得し、この取得した3次元座標データと、上記カメラによって撮影された現在の実画像をオルソ補正したものとについて、それぞれ特徴情報を抽出し、この抽出した特徴情報同士をマッチングさせていた(特許文献1)。   Conventionally, in order to obtain matching between 3D point group data and image data, 3D coordinate data of the peripheral position of the mobile terminal acquired from a camera or a camera for capturing a real image of the peripheral is obtained from the server, Feature information is extracted for each of the acquired three-dimensional coordinate data and an image obtained by ortho-correcting the current real image captured by the camera, and the extracted feature information is matched (Patent Document 1).

特開2016−170060号公報(段落[0007])JP, 2016-170060, A (paragraph [0007])

特許文献1は、モバイル端末での拡張現実を用いて、現実空間の映像に設備情報を重畳表示することを想定したものであり、モバイル端末のユーザは設備に近くにいることが多い。そのため、GPSから現在の概略位置を取得した後、概略位置を中心に半径20メートルの領域を含む3次元地図情報の要求を、サーバの3次元地図情報送信部に送信するように構成されていた。   Patent Document 1 assumes that facility information is superimposed and displayed on a real space image using augmented reality in a mobile terminal, and the user of the mobile terminal is often close to the facility. Therefore, after acquiring the current approximate position from the GPS, it is configured to transmit a request for three-dimensional map information including a region with a radius of 20 meters centering on the approximate position to the three-dimensional map information transmission unit of the server .

しかしながら、広域インフラ監視を行う場合、カメラの周囲にカメラで撮影している画像の対象が存在するとは限らず、特許文献1のように現在の概略位置のGPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせようとしてもマッチングできない可能性があった。   However, when performing wide-area infrastructure monitoring, it is not limited to the fact that there is an object of an image captured by a camera around the camera, and three-dimensional surroundings based on GPS data of the current approximate position as in Patent Document 1. Even if it tried to match map information and a real image, there was a possibility that it could not match.

本発明は上記のような課題を解決するためになされたものであり、3次元点群データと画像データのマッチングを行う上で、3次元点群データと画像データとのマッチングを確実に行わせる3次元点群表示装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and in performing matching between three-dimensional point cloud data and image data, matching between three-dimensional point cloud data and image data is reliably performed. The object is to obtain a three-dimensional point cloud display device.

本発明に係る3次元点群表示装置は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。   A three-dimensional point cloud display device according to the present invention includes a data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets. The display processing unit performs processing to display the 3D point cloud data obtained by measurement on the screen, and the operation range setting to set the operation range by user input to the 3D point cloud data displayed on the screen A feature information extraction unit for extracting feature information of selected data selected from 3D point cloud data based on the settings of the calculation range setting unit and the image data obtained by the data obtaining unit; 3 based on the matching result of the matching unit that matches the feature information of the three-dimensional point cloud data and the feature information of the image data based on the result of the extraction by And a, a superimposed display processing unit that superimposes the display image data on the Mototengun data.

本発明に係る3次元点群表示装置は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、画像データに含まれる属性情報により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。   A three-dimensional point cloud display device according to the present invention includes a data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets. For the display processing unit that displays the 3D point cloud data obtained by measurement on the screen and the 3D point cloud data displayed on the screen, setting of the operation range based on the attribute information included in the image data Operation range setting unit for performing the process, and a feature information extraction unit for extracting each feature information of the selected data selected from the three-dimensional point cloud data based on the settings of the operation range setting unit and the image data acquired by the data acquisition unit Based on the result of extraction by the feature information extraction unit, the matching unit matches the feature information of the three-dimensional point cloud data and the feature information of the image data, and the matching result of the matching unit Hazuki, and a, a superimposed display processing unit that superimposes the display image data on the 3D point group data in the screen.

また、本発明に係る3次元点群表示システムは、監視対象を撮影するカメラと、カメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。   Further, in the 3D point cloud display system according to the present invention, a camera for shooting a monitoring target, a data acquisition unit for obtaining image data obtained by shooting with the camera, and a camera among the monitoring targets. A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measurement including at least a part of the range, and calculation range by user input for three-dimensional point cloud data displayed on the screen Feature information extraction for extracting each feature information of the selected data selected from the 3D point cloud data based on the setting of the calculation range setting unit for setting the data and the calculation range setting unit and the data acquisition unit A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on the result of the extraction by the unit and the feature information extraction unit; The basis of the results, and a, a superimposed display processing unit that superimposes the display image data on the 3D point group data in the screen.

また本発明に係る3次元点群表示方法は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、演算範囲設定ステップでの設定に基づき3次元点群データから選択された選択データとデータ取得ステップにより取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、特徴情報抽出処理ステップによる抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、マッチング処理ステップでのマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理スを有している。   In the three-dimensional point cloud display method according to the present invention, a data acquisition step of acquiring image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets Display processing step to display 3D point group data obtained by including and obtained on the screen, and calculation range to set calculation range by user input to 3D point group data displayed on the screen A setting step, a feature information extraction processing step of extracting feature information of each of selected data selected from 3D point cloud data based on the setting in the calculation range setting step and the image data acquired by the data acquisition step; Matching that matches feature information of 3D point cloud data and feature information of image data based on the result of extraction by the information extraction processing step And management step, on the basis of the matching result of the matching processing step, and a superimposed display process scan to superimpose image data on the 3D point group data in the screen.

また、本発明に係る3次元点群表示プログラムは、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、演算範囲設定ステップでの設定に基づき3次元点群データから選択された選択データとデータ取得ステップにより取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、特徴情報抽出処理ステップによる抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、マッチング処理ステップのマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理ステップと、をコンピュータに実行させる。   Further, a three-dimensional point cloud display program according to the present invention includes a data acquisition step of acquiring image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets. And a display processing step for displaying the 3D point group data obtained by measurement on the screen, and an operation for setting an operation range by user input to the 3D point group data displayed on the screen A range setting step, a feature information extraction processing step of extracting feature information of each of selected data selected from 3D point cloud data based on the settings in the calculation range setting step and image data acquired by the data acquisition step; Based on the result of extraction by the feature information extraction processing step, the feature information of the three-dimensional point cloud data and the feature information of the image data are matched. And quenching process step, on the basis of the result of the matching matching processing steps to execute the superimposing display processing step of displayed superimposed image data on the 3D point group data in the screen, to the computer.

また、本発明に係る記録媒体は、上記3次元点群表示プログラムが記録されている。   The recording medium according to the present invention has the above-described three-dimensional point cloud display program recorded therein.

また、本発明に係る3次元点群表示装置によれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。   Further, according to the three-dimensional point cloud display device of the present invention, it becomes possible to reliably perform matching between three-dimensional point cloud data and image data.

また、本発明に係る3次元点群表示システムによれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。   Further, according to the three-dimensional point cloud display system according to the present invention, it becomes possible to reliably perform matching between three-dimensional point group data and image data.

また、本発明に係る3次元点群表示方法によれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。   Further, according to the three-dimensional point group display method according to the present invention, it becomes possible to reliably perform matching between three-dimensional point group data and image data.

また、本発明に係る3次元点群表示プログラムによれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。   Further, according to the three-dimensional point group display program according to the present invention, it becomes possible to reliably perform matching between three-dimensional point group data and image data.

また、本発明に係る記録媒体によれば、上記プログラムを記録しており、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。   Furthermore, according to the recording medium of the present invention, the above program is recorded, and it becomes possible to reliably perform matching between 3D point cloud data and image data.

実施の形態1に係る3次元点群表示システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a three-dimensional point cloud display system according to Embodiment 1. 実施の形態1に係る3次元点群表示装置のハードウェア構成例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of a three-dimensional point cloud display device according to a first embodiment. 実施の形態1に係る監視対象として河川を想定した場合のカメラとレーザスキャナの配置の例を示す図である。FIG. 6 is a diagram showing an example of the arrangement of cameras and laser scanners in the case of assuming a river as a monitoring target according to the first embodiment. 実施の形態1に係る3次元点群表示装置の動作を示すフローチャート図である。FIG. 5 is a flowchart showing the operation of the three-dimensional point cloud display device according to the first embodiment. 実施の形態1に係る画像データと、3次元点群データを表示する表示器における画面の内容を示す図である。FIG. 6 is a view showing the contents of a screen of a display for displaying image data and three-dimensional point group data according to the first embodiment. 実施の形態1に係る演算範囲設定部として機能するメッセージ入力画面の構成を示す図である。FIG. 7 is a diagram showing a configuration of a message input screen that functions as an operation range setting unit according to Embodiment 1. 実施の形態1に係る特徴情報抽出作業と、マッチング作業の内容を説明するための図である。It is a figure for demonstrating the content of the characteristic information extraction operation | work which concerns on Embodiment 1, and a matching operation | work. 実施の形態1に係る重畳表示処理部が表示器において画像データを3次元点群データに重畳表示させることを示す図である。FIG. 7 is a diagram showing that the superposition display processing unit according to Embodiment 1 causes the display device to superimpose and display image data on three-dimensional point group data. 実施の形態2に係る入力部としてポインティングデバイスを利用して演算範囲を設定する場合のブロック図であるFIG. 17 is a block diagram in the case of setting an operation range using a pointing device as an input unit according to a second embodiment. 実施の形態2に係るポインティングデバイスを利用しての演算範囲を設定する設定画面である。15 is a setting screen for setting a calculation range using the pointing device according to the second embodiment. 実施の形態3に係る演算部の構成を示すブロック図である。FIG. 16 is a block diagram showing a configuration of an arithmetic unit according to Embodiment 3. 実施の形態3に係る3次元点群表示装置の動作を示すフローチャート図である。FIG. 14 is a flowchart showing the operation of the three-dimensional point cloud display device according to the third embodiment. 実施の形態3に係る変形例を示す図である。FIG. 18 is a view showing a modification according to the third embodiment. 実施の形態4に係る、3次元点群表示システムの構成を示すブロック図である。FIG. 18 is a block diagram showing a configuration of a three-dimensional point cloud display system according to a fourth embodiment. 実施の形態4に係る3次元点群表示装置の動作を示すフローチャート図である。FIG. 18 is a flowchart showing the operation of the three-dimensional point cloud display device according to the fourth embodiment. 実施の形態4に係る3次元点群データを表示する表示器における画面の内容を示す図である。FIG. 18 is a diagram showing the contents of a screen of a display for displaying three-dimensional point group data according to a fourth embodiment. 実施の形態4に係る変形例の動作を示すフローチャート図である。FIG. 14 is a flowchart showing the operation of a modification according to the fourth embodiment.

以下に、本発明の実施の形態に係る3次元点群表示装置、3次元点群表示システム装置、3次元点群表示方法について図面に基づいて詳細に説明する。なお、各実施の形態により本発明が限定されるものではなく、各実施の形態を組み合わせたり適宜変更したりすることができる。また、各実施の形態で同等の構成については、同一の符号を付してその説明を省略などする。   Hereinafter, a three-dimensional point cloud display device, a three-dimensional point cloud display system device, and a three-dimensional point cloud display method according to an embodiment of the present invention will be described in detail based on the drawings. The present invention is not limited by the embodiments, and the embodiments can be combined or appropriately changed. The same reference numerals are given to the same configuration in each embodiment, and the description thereof will be omitted.

実施の形態1.
本発明の実施の形態1について、図1から図8を用いて説明する。実施の形態1の概要は、画面に表示される3次元点群データに対してマッチング作業を行う演算範囲の設定を受け付ける演算範囲設定部を設けたことである。
Embodiment 1
Embodiment 1 of the present invention will be described with reference to FIGS. 1 to 8. The outline of the first embodiment is that a calculation range setting unit is provided which receives setting of a calculation range for performing a matching operation on three-dimensional point group data displayed on a screen.

図1は実施の形態1に係る3次元点群表示システム40の構成を示すブロック図である。3次元点群表示システム40は、3次元点群表示装置1と、カメラユニット20と、記憶部30とを含んでいる。記憶部は3次元点群表示装置1とは別の構成として開示しているが、3次元点群表示装置1自体に十分な記録保存領域があれば、3次元点群表示装置1の中に記憶部30を設けてもよい。   FIG. 1 is a block diagram showing the configuration of a three-dimensional point cloud display system 40 according to the first embodiment. The three-dimensional point cloud display system 40 includes a three-dimensional point cloud display device 1, a camera unit 20, and a storage unit 30. Although the storage unit is disclosed as a configuration different from that of the three-dimensional point cloud display device 1, if the three-dimensional point cloud display device 1 itself has a sufficient storage area, the three-dimensional point cloud display device 1 may A storage unit 30 may be provided.

3次元点群表示装置1は、3次元点群表示装置1の各種機能を実現する3次元点群表示プログラムとしてのプログラムP(後に詳述する)と、カメラユニット20から不図示のネットワーク等を介して送信される画像データ22および記憶部30から呼び出される3次元点群データ31を取得するデータ取得部2と、データ取得部2が取得した画像データ22、3次元点群データ31および後述の演算範囲設定部6による演算範囲の設定に関するデータをデータ取得部2から取り込んでディスプレイなどの表示器4に表示する処理を行う表示処理部3と、マウス、トラックボール、キーボードなどの外部の接続機器である入力部7からの入力を受け付ける入力受付部5と、を含んでいる。   The three-dimensional point cloud display device 1 includes a program P (to be described in detail later) as a three-dimensional point cloud display program for realizing various functions of the three-dimensional point cloud display device 1, and a network (not shown) from the camera unit 20. The data acquisition unit 2 acquires the image data 22 transmitted via the image and the three-dimensional point cloud data 31 called from the storage unit 30, the image data 22 acquired by the data acquisition unit 2, the three-dimensional point cloud data 31, and A display processing unit 3 performing processing for fetching data relating to setting of the calculation range by the calculation range setting unit 6 from the data acquisition unit 2 and displaying it on a display 4 such as a display, and external connected devices such as a mouse, track ball And an input receiving unit 5 for receiving an input from the input unit 7.

また、3次元点群表示装置1は、各種演算を行う演算部8を備えている。演算部8は、データ取得部2で取得した画像データ22のカメラ21からの視点と3次元点群データ31の視点を対応させる視点対応部9と、画像データ22および3次元点群データ31を取り込んでエッジ情報などに関する各々の特徴情報を抽出する特徴情報抽出部10と、抽出した各々の特徴情報に基づき画像データ22および3次元点群データ31に関するマッチングを行うマッチング部11と、を含んでいる。   The three-dimensional point cloud display device 1 also includes an operation unit 8 that performs various operations. The arithmetic unit 8 corresponds to the viewpoint corresponding unit 9 that associates the viewpoint from the camera 21 of the image data 22 acquired by the data acquisition unit 2 with the viewpoint of the three-dimensional point cloud data 31, the image data 22, and the three-dimensional point cloud data 31. Including a feature information extraction unit 10 that takes in and extracts each feature information related to edge information and the like, and a matching unit 11 that performs matching on the image data 22 and the three-dimensional point cloud data 31 based on each extracted feature information There is.

データ取得部2は、表示器4に表示された不図示のデータ範囲取得画面での入力部7による設定に関する入力を入力受付部5から受信した場合、記憶部30と通信を行い、表示器4に表示させる3次元点群データ31のデータ範囲を絞ってデータ取得を行うように構成される。例えば、図3において説明を行う監視対象についての選択をしたり、3次元点群データ31の取得時期を選択したり、といったことが想定される。また、データ取得部2は、演算部8における演算範囲を設定する演算範囲設定部6を含んでいる。   The data acquisition unit 2 communicates with the storage unit 30 when receiving an input related to the setting by the input unit 7 on the data range acquisition screen (not shown) displayed on the display 4, the display 4 The data acquisition is performed while narrowing the data range of the three-dimensional point cloud data 31 to be displayed. For example, it is assumed that the monitoring target described in FIG. 3 is selected, the acquisition time of the three-dimensional point cloud data 31 is selected, and the like. Further, the data acquisition unit 2 includes an operation range setting unit 6 that sets an operation range in the operation unit 8.

また、表示処理部3は、マッチング部11によるマッチングの結果に基づき、3次元点群データ31の上に画像データ22を位置合わせして重畳表示する重畳表示処理部12を有している。   In addition, the display processing unit 3 has a superimposed display processing unit 12 that aligns the image data 22 on the three-dimensional point cloud data 31 and displays the image data 22 on the basis of the matching result by the matching unit 11.

特徴抽出部10と、マッチング部11および重畳表示処理部12の各々の処理をするタイミングについて説明する。ある時点での画像データ22を利用して行う特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業は、少なくとも3次元点群表示システ40を構築する際に、初期設定として行うだけで十分である。3次元点群表示システム40を運用する段階では初期設定として行ったマッチング部11のマッチングの結果を利用して、重畳表示処理部12が、データ取得部2から都度取得される画像データ22を3次元点群表示データ31の各点と対応する位置に重畳表示すればよい。   The timing of processing of each of the feature extraction unit 10, the matching unit 11, and the superimposed display processing unit 12 will be described. The feature extraction unit 10 performs the feature extraction operation using the image data 22 at a certain point in time and the matching operation by the matching unit 11 using the extracted feature information, at least the three-dimensional point cloud display system 40 When constructing, it is sufficient to carry out as initial setting. At the stage of operating the three-dimensional point cloud display system 40, the superimposed display processing unit 12 uses the matching result of the matching unit 11 performed as the initial setting to generate the image data 22 acquired each time from the data acquisition unit 2. It may be superimposed on the position corresponding to each point of the dimensional point cloud display data 31.

カメラユニット20は、河川などの環境や工場などの設備といった監視対象を撮影するカメラ21と、カメラ21により撮影された画像データ22を3次元点群表示装置1のデータ取得部2へ送信するデータ送信部23とを含んでいる。   The camera unit 20 transmits data to a data acquisition unit 2 of the three-dimensional point cloud display device 1 with a camera 21 for capturing a monitoring target such as an environment such as a river or equipment such as a factory and image data 22 captured by the camera 21. And a transmitting unit 23.

なお、カメラ21により撮影される画像データ22は静止画であっても動画であってもよい。ただし特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業は、画像データ22が動画の場合には、予め定められた期間に撮影された画像データ22としての動画データの平均値を利用したり、予め定められた期間における任意の時点での1つの画像を利用したりすることが好ましい。すなわち、リアルタイムに変化する動画に基づいてマッチングを行おうとすると、特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業を行おうとすると、計算量が膨大になる可能性があるためである。   The image data 22 captured by the camera 21 may be a still image or a moving image. However, in the feature extraction unit 10 and the matching operation by the matching unit 11 using the extracted feature information, when the image data 22 is a moving image, an image captured during a predetermined period It is preferable to use the average value of the moving image data as the data 22, or to use one image at any time in a predetermined period. That is, when matching is performed based on a moving image that changes in real time, the amount of calculation is required when performing the task of feature extraction to the feature extraction unit 10 and the matching operation by the matching unit 11 using the extracted feature information. There is a possibility of

記憶部30は、レーザスキャナ24(図3を参照)などにより予め監視対象やその周囲をスキャンして取得した複数の点を3次元点群データ31として格納している。3次元点群データ31は、たとえば、X軸、Y軸、Z軸により構成されるワールド座標系の空間における点である。なお、3次元点群データ31は、不図示のGPSデータなども利用して、各点が、絶対座標を保有してもよい。   The storage unit 30 stores, as the three-dimensional point cloud data 31, a plurality of points acquired by scanning the monitoring target and its surroundings in advance by the laser scanner 24 (see FIG. 3) or the like. The three-dimensional point cloud data 31 is, for example, a point in the space of the world coordinate system configured by the X axis, the Y axis, and the Z axis. The three-dimensional point cloud data 31 may also have absolute coordinates by using GPS data (not shown) or the like.

図2は、3次元点群表示装置1のハードウェア構成例を示す図である。図2に示すように、3次元点群表示装置1は、プロセッサ100と、メモリ101と、インタフェース回路102とを備えている。プロセッサ100、メモリ101、インタフェース回路102は、システムバス103によりそれぞれ通信可能に接続されている。   FIG. 2 is a diagram showing an example of the hardware configuration of the three-dimensional point cloud display device 1. As shown in FIG. 2, the three-dimensional point cloud display device 1 includes a processor 100, a memory 101, and an interface circuit 102. The processor 100, the memory 101, and the interface circuit 102 are communicably connected by a system bus 103.

プロセッサ100は、記録媒体としてのメモリ101に格納されたプログラムPを呼び出すことで、コンピュータとしての3次元点群表示装置1aにおける表示処理部3の機能を実現したり、重畳表示処理部12の機能を実現したり、演算部8における特徴情報抽出部10の機能を実現したり、マッチング部11の機能を実現したり、その他のデータ処理の機能を実現したりする。   The processor 100 implements the function of the display processing unit 3 in the three-dimensional point cloud display device 1a as a computer by calling a program P stored in the memory 101 as a recording medium, or the function of the superimposed display processing unit 12 , The function of the feature information extraction unit 10 in the calculation unit 8, the function of the matching unit 11, or the other data processing function.

さらにプロセッサ100は、インタフェース回路102を介して接続される入力部7においてユーザが入力を行った場合、メモリ101における入力受付部5が入力を受け付けることで、記憶部30の3次元点群データ31のデータをデータ処理(抽出、加工、変換等)することが可能である。   Furthermore, when the user performs an input in the input unit 7 connected via the interface circuit 102, the processor 100 receives the input by the input reception unit 5 in the memory 101, thereby the three-dimensional point cloud data 31 of the storage unit 30. It is possible to process (extract, process, convert, etc.) data of

なお、プロセッサ100は、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち1以上を含む。メモリ101は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Enable Program Read Only Memory)をはじめとした不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち1以上を含んでいる。また、本ハードウェアの構成は、実施の形態1について説明したが、本発明の各実施の形態も同様のハードウェア構成を採用することが可能である。   The processor 100 is an example of a processing circuit, and includes one or more of a central processing unit (CPU), a digital signal processor (DSP), and a large scale integration (LSI). The memory 101 includes a random access memory (RAM), a read only memory (ROM), a flash memory, a non-volatile or volatile semiconductor memory such as an EPROM (enable program read only memory), a magnetic disk, a flexible memory, an optical disk, It includes one or more of a compact disc and a DVD (Digital Versatile Disc). Further, although the configuration of this hardware has been described for the first embodiment, each embodiment of the present invention can adopt the same hardware configuration.

図3は、監視対象として河川25を想定した場合のカメラ21とレーザスキャナ24の配置の例を示す図である。カメラ21とレーザスキャナ24は河川25見渡せる高台26に設置されている。高台26は川岸125に対して河川25よりも離れた位置に位置する。   FIG. 3 is a view showing an example of the arrangement of the camera 21 and the laser scanner 24 when the river 25 is assumed to be a monitoring target. The camera 21 and the laser scanner 24 are installed on a platform 26 overlooking the river 25. The plateau 26 is located farther from the river shore 125 than the river 25.

カメラ21により河川25を撮影することにより、水位の変化や河川氾濫の可能性などをリアルタイムに監視することが可能となる。カメラ21は、監視対象である河川25以外に、周囲の環境や構造物を合わせて撮影することがある。例えば、カメラ21の撮影方向を撮影方向121aとし、河川25の近辺に存在する構造物としての倉庫27や住宅28を撮影対象として収める撮影フレーム29とすることで、河川25の状況を分かりやすく把握できる。   By photographing the river 25 with the camera 21, it becomes possible to monitor, in real time, changes in water level, possibility of river flooding and the like. In addition to the river 25 to be monitored, the camera 21 may capture images of surrounding environments and structures together. For example, by setting the shooting direction of the camera 21 as the shooting direction 121a and using the shooting frame 29 containing the warehouse 27 and the house 28 as structures present in the vicinity of the river 25 as the shooting target, the situation of the river 25 can be understood easily it can.

一方、レーザスキャナ24は、スキャン部が可動式となっており、通常、カメラ21よりも広いエリアをスキャンして、3次元点群データ31として記憶部30に格納される。しかしながらこのような構成に限られず、レーザスキャナ24は、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して3次元点群データ31を得るように設けられればよい。すなわち、監視対象に対して、画像データ22と3次元点群データ31とのデータの範囲が重なる部分を有していればよい。   On the other hand, the scanning unit of the laser scanner 24 is movable, and normally, an area wider than the camera 21 is scanned and stored in the storage unit 30 as three-dimensional point cloud data 31. However, the present invention is not limited to such a configuration, and the laser scanner 24 may be provided so as to obtain three-dimensional point group data 31 by performing measurement including at least a part of the range photographed by the camera 21 among monitoring targets. . That is, it is only necessary to have a portion where the range of data of the image data 22 and the three-dimensional point cloud data 31 overlaps the monitoring target.

なお、撮影方向121aとは、例えば、撮影フレーム29の中心とカメラ21とを結ぶ方向のことを示す。カメラ21の撮影方向121aは不図示の方位センサ等により取得され、カメラ21の撮影位置121bは不図示のGPSデータ等により取得される。撮影方向121aと撮影位置121bに関する情報は、たとえば画像データ22に埋め込まれて記録されている。   The shooting direction 121 a indicates, for example, a direction connecting the center of the shooting frame 29 and the camera 21. The shooting direction 121a of the camera 21 is obtained by an azimuth sensor or the like (not shown), and the shooting position 121b of the camera 21 is obtained by GPS data (not shown) or the like. Information on the photographing direction 121a and the photographing position 121b is embedded and recorded in the image data 22, for example.

なお、マッチング部11によるマッチングを行うに当たって、カメラ21による撮影時期と、レーザスキャナ24によるスキャンの時期は同じ時期か近い時期の方が、画像データ22と3次元点群データとの相違が少ないために演算部8による各種の演算に好適である。しかしながら、両者のデータの時期が離れていても演算部8による各種の演算を行うことは可能である。   In addition, when performing matching by the matching unit 11, the difference between the image data 22 and the three-dimensional point cloud data is smaller if the imaging timing by the camera 21 and the scanning timing by the laser scanner 24 are the same timing or closer. Is suitable for various calculations by the calculation unit 8. However, it is possible to perform various calculations by the calculation unit 8 even if the timings of the two data are different.

図4は、3次元点群表示装置1の動作を示すフローチャート図である。図1、図5から図8も適宜参照して説明を行う。まず、図1に示すように、データ取得部2は、画像データ22と3次元点群データ31とを取得する(図4のデータ取得ステップST1)。なお、以下の各ステップの説明において、説明を簡略化するために、単にステップST1、ステップST2などとステップの名称を省略した形で記載することがあることを述べておく。   FIG. 4 is a flowchart showing the operation of the three-dimensional point cloud display device 1. Description will be given with reference to FIGS. 1 and 5 to 8 as appropriate. First, as shown in FIG. 1, the data acquisition unit 2 acquires the image data 22 and the three-dimensional point cloud data 31 (data acquisition step ST1 in FIG. 4). It should be noted that in the following description of each step, in order to simplify the description, the names of the steps such as the steps ST1 and ST2 may be simply omitted.

図5に示すように、表示処理部3は、データ取得部2から受け取った画像データ22と3次元点群データ31とを処理して、画像データ22と3次元点群データ31を表示器4に表示する(表示処理ステップST2)。ワールド座標系である3次元点群データ31は、スクリーン座標系として視点を切り替え可能に表示器4に表示される。次に、ユーザが入力部7を用いて入力を行い、入力受付部5を介して視点対応部9によりカメラ21の座標(位置)を表示器4の画面4a(図5)のように設定する(視点対応処理ステップST3)。   As shown in FIG. 5, the display processing unit 3 processes the image data 22 and the three-dimensional point group data 31 received from the data acquisition unit 2 to display the image data 22 and the three-dimensional point group data 31. (Display processing step ST2). The three-dimensional point group data 31 which is the world coordinate system is displayed on the display 4 so as to be switchable as a screen coordinate system. Next, the user performs input using the input unit 7 and sets the coordinates (position) of the camera 21 as shown on the screen 4 a of the display 4 (FIG. 5) by the viewpoint handling unit 9 via the input reception unit 5. (Viewpoint correspondence processing step ST3).

その後、カメラ21の視点と3次元点群データ31の視点が一致した画面4b(図6)を表示される(視点対応画面表示処理ステップST4)。視点対応処理ステップST3および視点対応画面表示処理ステップST4の内容を図5および図6を用いて詳細に説明する。   Thereafter, the screen 4b (FIG. 6) in which the viewpoint of the camera 21 and the viewpoint of the three-dimensional point cloud data 31 coincide with each other is displayed (viewpoint corresponding screen display processing step ST4). The contents of the viewpoint correspondence processing step ST3 and the viewpoint correspondence screen display processing step ST4 will be described in detail with reference to FIGS. 5 and 6.

図5は、画像データ22と、3次元点群データ31を表示する表示器4における画面4aの内容を示す図である。監視対象となった河川25やその周囲の構造物と、3次元点群データ31との関係性を説明する。画面4aでは、河川25は点群河川25a、川岸125は点群川岸125a、河川25と川岸125の境界を第1の点群境界25a1、第2の点群境界25a2、倉庫27は点群倉庫27a、住宅28は点群住宅28a、カメラ21は点群カメラ21aとして3次元点群データ31により表示されている。   FIG. 5 is a view showing the contents of the screen 4 a of the display 4 for displaying the image data 22 and the three-dimensional point cloud data 31. The relationship between the river 25 to be monitored and the structure around it and the three-dimensional point cloud data 31 will be described. In the screen 4a, the river 25 is a point cloud river 25a, the river shore 125 is a point cloud river shore 125a, the boundary between the river 25 and the river shore 125 is a first point cloud boundary 25a1, a second point cloud boundary 25a2, a warehouse 27 is a point cloud warehouse 27a, a house 28 is displayed by a three-dimensional point cloud data 31 as a point cloud house 28a, and a camera 21 as a point cloud camera 21a.

監視対象となった河川25やその周囲の構造物と、画像データ22との関係性を説明する。表示器4は、画面4aにおいて、角部の表示領域に画像データ22の内容が画像データ表示領域41(画像フレーム)を作成し、3次元点群データ31と画像データ22とを両方合わせて確認できる。後に詳述する演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。なお、画像データ表示領域41に表示される画像データ22は、リアルタイムに映し出されるものであってもよいし、ある時点で撮影されたものであってもよい。   The relationship between the image data 22 and the river 25 to be monitored and the structures around it will be described. The display 4 creates the image data display area 41 (image frame) with the contents of the image data 22 in the display area of the corner on the screen 4a, and checks both the three-dimensional point cloud data 31 and the image data 22 together it can. The operation of setting the calculation range by the calculation range setting unit 6 described in detail later can be performed efficiently. The image data 22 displayed in the image data display area 41 may be displayed in real time or may be captured at a certain time.

画像データ表示領域41では、河川25は画像河川25b、河川25の水の色合い起伏などが画像河川水25b1、倉庫27は画像倉庫27b、住宅28は画像住宅28bとして画像データ22により表示されている。   In the image data display area 41, the river 25 has the image river 25b, the color shades of the water of the river 25, etc., the image river water 25b1, the warehouse 27 has the image warehouse 27b, and the house 28 has been displayed by the image data 22 as the image house 28b. .

なお、画像データ表示領域41は画面4aの角部(たとえば画面4aの対角の端部領域)に配置されることで、画面4aにおける3次元点群データ31の表示領域での視認性の低下を抑制でき、画像データ22と3次元点群データ31との両者の状態を効率よく把握することが可能である。ただし、画像データ表示領域41を設けないで、画面4aには3次元点群データ31だけを表示し、画像データ22は不図示の別の画面に表示するようにしてもよい。   The image data display area 41 is disposed at the corner of the screen 4a (for example, the end area of the diagonal of the screen 4a), thereby reducing the visibility of the three-dimensional point group data 31 in the display area of the screen 4a. It is possible to efficiently grasp the state of both the image data 22 and the three-dimensional point cloud data 31. However, without providing the image data display area 41, only the three-dimensional point cloud data 31 may be displayed on the screen 4a, and the image data 22 may be displayed on another screen (not shown).

ところで、3次元点群データ31と画像データ22とのマッチング部11によるマッチング作業を行う上では、互いの視点が一致した状態で特徴情報抽出部10による特徴情報の抽出が好ましい。すなわち、互いの視点がずれていると、特徴情報抽出部10により抽出された3次元点群データ31の特徴情報と画像データ22の特徴情報とが、アスペクト比が異なった状態で抽出されてしまい、マッチング部11によるマッチング作業が精度よく実行されない恐れがあるためである。ただし、必ずしも視点の一致を行わなくても、ある程度マッチング作業を行うことは可能である。   By the way, in order to perform a matching operation by the matching unit 11 between the three-dimensional point cloud data 31 and the image data 22, it is preferable to extract feature information by the feature information extraction unit 10 in a state in which the viewpoints match each other. That is, if the viewpoints are shifted from each other, the feature information of the three-dimensional point cloud data 31 extracted by the feature information extraction unit 10 and the feature information of the image data 22 are extracted in a state of different aspect ratios. This is because there is a risk that the matching operation by the matching unit 11 can not be performed with high accuracy. However, it is possible to perform matching work to some extent without necessarily matching the viewpoints.

そこで、3次元点群データ31と画像データ22との視点を合わせるために、例えば、画面4aにおいて、入力部7としてのマウスによるカーソル29を点群カメラ21aの位置に合わせると、点群カメラ21aの座標が表示される(視点対応処理ステップST3)。そして、カメラの視点にビューワの視点を合わせるかどうかのメッセージ42が表示される。そして、Yesのチェックボックスでの「Yes」の選択を行う(視点対応処理ステップST3)。その後、図6に示すように3次元点群データ31と画像データ22との視点が一致するように表示器4は画面4bを表示する(図4の視点対応画面表示処理ステップST4)。   Therefore, for example, when the cursor 29 by the mouse as the input unit 7 is aligned with the position of the point cloud camera 21a on the screen 4a in order to align the viewpoints of the three-dimensional point group data 31 and the image data 22, the point cloud camera 21a The coordinates of are displayed (viewpoint correspondence processing step ST3). Then, a message 42 indicating whether the viewpoint of the viewer is to be adjusted to the viewpoint of the camera is displayed. Then, “Yes” is selected in the check box “Yes” (viewpoint corresponding process step ST3). Thereafter, as shown in FIG. 6, the display 4 displays the screen 4b such that the viewpoints of the three-dimensional point cloud data 31 and the image data 22 coincide with each other (viewpoint corresponding screen display processing step ST4 in FIG. 4).

なお、画面4aに、点群カメラ21aが存在しない場合がある。その場合には、たとえば、カメラ21を設置した際にカメラの設置位置の絶対座標を記録して管理している不図示の設備管理データベースを参照する。そして、参照した絶対座標のデータを入力部7で入力し、点群データ31の絶対座標と対応させるなどすることで視点対応処理ステップST3を実行してもよい。   The point cloud camera 21a may not exist on the screen 4a. In such a case, for example, when the camera 21 is installed, a facility management database (not shown) that records and manages absolute coordinates of the installation position of the camera is referred to. Then, the data of the absolute coordinates referred to may be input by the input unit 7, and the viewpoint correspondence processing step ST3 may be executed by correlating with the absolute coordinates of the point cloud data 31 or the like.

図6は、演算範囲設定部6として機能するメッセージ入力画面44の構成を示す図である。演算範囲設定部6により、3次元点群データ31における演算を行う演算範囲の設定を行う(図4の演算範囲設定テップST5)。すなわち、演算範囲設定部6による演算範囲の設定基づき3次元点群データ31から選択された選択データ31aに対して、演算部8は演算を行う。   FIG. 6 is a diagram showing the configuration of the message input screen 44 functioning as the calculation range setting unit 6. The calculation range setting unit 6 sets a calculation range to be calculated in the three-dimensional point group data 31 (calculation range setting step ST5 in FIG. 4). That is, the operation unit 8 performs an operation on the selected data 31 a selected from the three-dimensional point cloud data 31 based on the setting of the operation range by the operation range setting unit 6.

なお、演算範囲設定部6の設定によりマッチング部11によるマッチング作業の範囲のみを設定し特徴情報抽出部10による特徴情報の抽出は3次元点群データ31の全領域で行ってもよいし、特徴情報抽出部10による特徴情報の抽出およびマッチング部11によるマッチング作業の両者の範囲を設定するようにしてもよい。すなわち、少なくとも、3次元点群データ31におけるマッチング部11のマッチング作業の範囲が設定されていればよい。   In addition, only the range of the matching operation by the matching unit 11 is set by the setting of the calculation range setting unit 6, and extraction of the feature information by the feature information extraction unit 10 may be performed in the entire region of the three-dimensional point cloud data 31 The range of both of the extraction of feature information by the information extraction unit 10 and the matching operation by the matching unit 11 may be set. That is, at least the range of the matching operation of the matching unit 11 in the three-dimensional point cloud data 31 may be set.

メッセージ入力画面44に対する具体的な入力方法について説明する。画像データ22と3次元点群データ31とをマッチングさせるためには、画像データ22全体が包含される3次元点群データ31の領域を設定することが好ましい。しかしながら3次元点群データ31において広い領域を演算範囲として設定すると演算部8による演算量が多くなってしまう。そこで、画面フレーム41と画面4bに共通して表示される構造物などを目印に、その周囲の範囲を演算の対象とする演算範囲として設定することが好ましい。   A specific input method for the message input screen 44 will be described. In order to match the image data 22 with the three-dimensional point cloud data 31, it is preferable to set an area of the three-dimensional point cloud data 31 in which the entire image data 22 is included. However, if a wide area in the three-dimensional point cloud data 31 is set as the calculation range, the amount of calculation by the calculation unit 8 will be large. Therefore, it is preferable to set a structure or the like displayed in common on the screen frame 41 and the screen 4b as a mark and a range around the mark as a calculation range for calculation.

例えば、倉庫27(点群倉庫27a、画像倉庫27b)が共通して存在する目印とした場合、点群倉庫27aにカーソル29を合わせて点群倉庫27aの座標(X1,Y1,Z1)を表示させ、その座標の情報を基に、メッセージ入力画面44に演算範囲(X1−α1≦X1≦X1+α2、Y1−β1≦X1≦X1+β2、Z1−γ1≦X1≦X1+γ2)を設定する。このように3次元点群データ31と画像データ22に共通して表示される構造物の座標を目印に演算範囲を設定することで、演算量を抑えつつ、マッチング作業を確実に実行させることが可能となる。   For example, when the warehouse 27 (point cloud warehouse 27a, image warehouse 27b) is a mark existing in common, the cursor 29 is placed on the point cloud warehouse 27a to display the coordinates (X1, Y1, Z1) of the point cloud warehouse 27a. The calculation range (X1-.alpha.1.ltoreq.X1.ltoreq.X1 + .alpha., Y1-.beta.1.ltoreq.X1.ltoreq.X1 + .beta., Z1-.gamma.1.ltoreq.X1.ltoreq.X1 + .gamma.2) is set on the message input screen 44 based on the information of the coordinates. As described above, by setting the calculation range using the coordinates of the structure displayed in common to the three-dimensional point group data 31 and the image data 22 as a mark, the matching operation can be reliably performed while suppressing the amount of calculation. It becomes possible.

なお、演算範囲設定テップST5では、メッセージ入力画面44で入力した演算範囲に基づき、演算範囲となる演算範囲領域44aを画面4bに表示するようにしてもよい。このようにすれば、ユーザにとって、どの領域が演算範囲として設定されたかが分かり、設定した演算範囲が不適な場合には、容易に修正を行うことが可能になる。   In the calculation range setting step ST5, the calculation range area 44a to be the calculation range may be displayed on the screen 4b based on the calculation range input on the message input screen 44. In this way, it is possible for the user to know which area is set as the calculation range, and when the set calculation range is unsuitable, it is possible to easily correct.

なお、演算範囲設定部6の例としてメッセージ入力画面44におけるユーザ入力による演算範囲の設定方法について説明したが、これに限られるものではない。たとえば、画像データ22に含まれる属性情報を利用して演算範囲を設定してもよい。属性情報としては、たとえば、カメラ21に関する撮影方向121aおよび撮影位置121bに関する情報と、必要に応じてカメラ21に関するレンズなどの情報が想定される。   In addition, although the setting method of the calculation range by the user input in the message input screen 44 was demonstrated as an example of the calculation range setting part 6, it is not restricted to this. For example, the calculation range may be set using attribute information included in the image data 22. As the attribute information, for example, information on the photographing direction 121a and the photographing position 121b regarding the camera 21 and information on a lens and the like regarding the camera 21 are assumed as needed.

具体的には、撮影方向121a、撮影位置121b、カメラ21のレンズの焦点距離などから、画像データ22が撮影する概略範囲が分かるため、その概略範囲に予め定められたマージンを持たせるような範囲を演算範囲とするようにしてもよい。あるいは、自動的に演算範囲の仮設定を行い、仮設定を踏まえてユーザが調整して正式な演算範囲の設定とするようにしてもよい。   Specifically, since the approximate range to be captured by the image data 22 is known from the imaging direction 121a, the imaging position 121b, the focal length of the lens of the camera 21, etc., a range in which a predetermined margin is given to the approximate range. May be set as the calculation range. Alternatively, temporary setting of the calculation range may be automatically performed, and the user may adjust based on the temporary setting to set the formal calculation range.

図7は、特徴情報抽出部10により、データ取得部2を介して取得した画像データ22および3次元点群データ31から各々の特徴情報を抽出する特徴情報抽出作業(図4の特徴情報抽出処理ステップST6)と、マッチング部11により、設定された演算範囲内での各々の特徴情報が最も一致する画像データ22の位置とサイズを抽出するマッチング作業(図4のマッチング処理ステップST7)の内容を説明するための図である。例えば、特徴情報としてエッジ情報が想定される。   FIG. 7 shows a feature information extraction operation for extracting each piece of feature information from the image data 22 and the three-dimensional point cloud data 31 obtained by the feature information extraction unit 10 via the data acquisition unit 2 (feature information extraction processing in FIG. Step ST6) and the contents of the matching work (matching process step ST7 in FIG. 4) for extracting the position and size of the image data 22 that the respective feature information in the set calculation range most closely matches by the matching unit 11 It is a figure for demonstrating. For example, edge information is assumed as feature information.

エッジ情報とは、画像データ22および3次元点群データ31の特徴情報の抽出により得られた、境界線の情報である。例えば、画像データ22であれば、監視対象が河川の場合、水面と陸部で大きく色合いが異なることから、境界線が抽出できる。また監視対象が道路の場合、舗装された道路と、路肩の色が異なることから、境界線が抽出できる。   Edge information is information on boundaries obtained by extracting feature information of the image data 22 and the three-dimensional point cloud data 31. For example, in the case of the image data 22, when the monitoring target is a river, the boundary line can be extracted because the color tone is largely different between the water surface and the land portion. In addition, when the monitoring target is a road, the border line can be extracted because the color of the road and the shoulder of the road are different.

一方、3次元点群データ31であれば、点群はx座標、y座標、z座標のデータの集合であり、たとえば監視対象が河川の場合、水面は、ほぼxy平面に平行なのに対し、水面付近の陸部は傾いているため、水面と陸部との境界線を取ることができる。   On the other hand, in the case of three-dimensional point group data 31, the point group is a set of data of x coordinate, y coordinate and z coordinate. For example, when the monitoring target is a river, the water surface is almost parallel to the xy plane. Because the land area in the vicinity is inclined, the boundary line between the water surface and the land area can be taken.

図7の(A)と(B)は、3次元点群データ31に関するエッジ情報の抽出を説明するための図である。図7(A)が初期状態で、図7(B)がエッジ情報の抽出結果である。説明を分かりやすくするために、画面4bにおいては画像データ表示領域41の表示は省略して記載している。   FIGS. 7A and 7B are diagrams for explaining extraction of edge information related to the three-dimensional point cloud data 31. FIG. FIG. 7A shows the initial state, and FIG. 7B shows the extraction result of the edge information. In order to make the explanation easy to understand, the display of the image data display area 41 is omitted on the screen 4b.

一方、図7の(C)と(D)は画像データ22に関するエッジ情報の抽出を説明するための図である。図7(C)が初期状態で、図7(D)がエッジ情報の抽出結果である。図7の(A)と(B)と比較しやすいように、図7の(C)と(D)の画像データ表示領域41を拡大して記載している。図7(E)は、図7の(B)と(D)との抽出結果を基にしたマッチング作業の結果を示す図である。   On the other hand, FIGS. 7C and 7D are diagrams for explaining extraction of edge information related to the image data 22. FIG. FIG. 7C shows an initial state, and FIG. 7D shows the extraction result of edge information. The image data display area 41 of (C) and (D) of FIG. 7 is enlarged and described so as to be easily compared with (A) and (B) of FIG. 7. FIG. 7E is a diagram showing the result of the matching operation based on the extraction results of FIG. 7B and FIG. 7D.

以下、詳細に特徴情報抽出作業およびマッチング作業について説明する。図7(B)では、第1の点群境界25a1が第1の点群境界エッジ45a1としてエッジ情報が抽出され、第2の点群境界25a2が第2の点群境界エッジ45a2としてエッジ情報が抽出され、点群倉庫27aは点群倉庫エッジ46aとしてエッジ情報が抽出され、点群住宅28aは点群住宅エッジ47aとしてエッジ情報が抽出されていることが表示されている。   Hereinafter, the feature information extraction work and the matching work will be described in detail. In FIG. 7B, edge information is extracted as the first point group boundary 25a1 as the first point group boundary edge 45a1, and edge information is extracted as the second point group boundary 25a2 as the second point group boundary edge 45a2. It is displayed that the point cloud warehouse 27a has edge information extracted as a point cloud warehouse edge 46a, and that the point cloud house 28a has edge information extracted as a point cloud house edge 47a.

一方、図7(D)では、画像河川25bが画像河川エッジ45bとしてエッジ情報が抽出され、画像倉庫27bが画像倉庫エッジ46bとしてエッジ情報が抽出され、画像住宅28bは画像住宅エッジ47bとしてエッジ情報が抽出される。図7(C)では画像河川水25b1が表示されていたがエッジ情報としては抽出されないため、図7(D)には対応するものが存在していない。   On the other hand, in FIG. 7D, the image river 25b extracts edge information as the image river edge 45b, the image warehouse 27b extracts edge information as the image warehouse edge 46b, and the image house 28b as the image house edge 47b. Is extracted. Although the image river water 25b1 is displayed in FIG. 7C, since it is not extracted as edge information, there is no corresponding one in FIG. 7D.

なお、図7の(B)または(D)において、エッジ処理の状態を把握しながら、エッジ処理をより適切な状態にすべく、たとえばバーの移動によるエッジ抽出に関するパラメータ調整が可能なようにしてもよい。このようにすれば図7(E)でのマッチング作業の精度向上が期待できる。   In (B) or (D) of FIG. 7, in order to make the edge processing more appropriate while grasping the state of the edge processing, for example, it is possible to adjust parameters related to edge extraction by moving the bar. It is also good. This can be expected to improve the accuracy of the matching operation in FIG. 7 (E).

図7(E)は、表示器4が画面4cを表示したものである。画面4cでは、特徴情報抽出処理ステップST6で取得したエッジ情報を利用して、マッチング処理ステップST7でのマッチング作業では3次元点群データ31のエッジ情報と画像データ22のエッジ情報の重ね合わせを行った結果を表示している。   FIG. 7E shows the display 4 displaying the screen 4c. In the screen 4c, the edge information of the three-dimensional point group data 31 and the edge information of the image data 22 are superimposed in the matching work in the matching processing step ST7 using the edge information acquired in the feature information extraction processing step ST6. The result is displayed.

具体的には、画面4cは画像データ22のエッジ情報が3次元点群データ31のエッジ情報に対してもっとも重なる3次元点群データ上の位置および画像データ22のサイズを抽出して、抽出結果に基づく位置及びサイズを調整しての表示となる。今回のマッチング作業の結果では、点群倉庫エッジ46aには画像倉庫エッジ46bがおおよそ重なり、点群住宅47aには画像住宅47bがおおよそ重なり、第1の点群境界エッジ45a1には画像河川エッジ45bがおおよそ重なっていることが読み取れる。   Specifically, the screen 4 c extracts the position on the three-dimensional point group data and the size of the image data 22 where the edge information of the image data 22 most overlaps the edge information of the three-dimensional point group data 31 and extracts the extraction result It becomes a display by adjusting the position and size based on. As a result of the matching work, the image warehouse edge 46b approximately overlaps the point cloud warehouse edge 46a, the image housing 47b approximately overlaps the point cloud housing 47a, and the image river edge 45b at the first point cloud boundary edge 45a1. It can be read that the

図8は、マッチング結果に基づき、重畳表示処理部12が表示器4において画像データ22を3次元点群データ31に重畳表示させることを示す図である(図4の重畳表示処理ステップST8)。たとえば、図7(E)における画面4cの表示の後、たとえば数秒など予め定められた時間が経過した後か画面4cをカーソル29でクリックするなどすると、図8のように表示される。   FIG. 8 is a diagram showing that the superimposed display processing unit 12 causes the display unit 4 to superimpose the image data 22 on the three-dimensional point cloud data 31 based on the matching result (superimposed display processing step ST8 in FIG. 4). For example, after the screen 4c in FIG. 7E is displayed, when a predetermined time such as a few seconds has elapsed or when the screen 4c is clicked with the cursor 29, for example, the screen is displayed as shown in FIG.

具体的には、画像データ22は、マッチング結果と、撮影方向121aおよび撮影位置121bに関する情報を利用して、点群データ31が存在する空間上に3次元座標で出力される。そして、画像データ22は、アスペクト比(縦横比)を変更せず、マッチング結果に基づき拡大または縮小が行われ、表示処理部3は、3次元点群データ31に画像データ22を重畳表示する処理を行う。すなわち、点群河川25aには画像河川25bが重畳表示され、点群倉庫27aには画像倉庫27bが重畳表示され、点群住宅28aには画像住宅28bが重畳表示される。   Specifically, the image data 22 is output in three-dimensional coordinates in the space where the point cloud data 31 exists, using the matching result and the information on the photographing direction 121a and the photographing position 121b. Then, the image data 22 is enlarged or reduced based on the matching result without changing the aspect ratio (aspect ratio), and the display processing unit 3 displays the image data 22 superimposed on the three-dimensional point cloud data 31. I do. That is, the image river 25b is superimposed and displayed on the point cloud river 25a, the image warehouse 27b is superimposed and displayed on the point cloud warehouse 27a, and the image housing 28b is superimposed and displayed on the point cloud house 28a.

マッチング部11で利用した画像データ22がある時点での画像データである場合には、マッチング結果を利用して、重畳表示処理部12は、今後、カメラ21により取得される画像データ22を3次元点群データ31に対する適切な位置に重畳表示するようにすればよい。   If the image data 22 used by the matching unit 11 is image data at a certain point, the superimposed display processing unit 12 uses the matching result to make the image data 22 acquired by the camera 21 three-dimensional from now on. It may be superimposed on the point cloud data 31 at an appropriate position.

このようにして、ユーザは画面4cにおいて、監視対象のリアルタイムな情報を画像データ22が表示される画像データ表示領域41aに表示される内容で知覚し、画像データ表示領域41aの周囲の状況を3次元点群データ31の内容により把握でき、総合的な監視対象への監視を行うことが可能となる。   Thus, on the screen 4c, the user perceives the real-time information to be monitored with the contents displayed in the image data display area 41a where the image data 22 is displayed, and the situation around the image data display area 41a is 3 It can be grasped by the contents of the dimensional point cloud data 31, and it becomes possible to monitor a comprehensive monitoring target.

なお、図1では、3次元点群表示装置1が演算部8を含んでいることを説明したが、たとえば、計算能力が3次元点群表示装置1よりも高い不図示のサーバやワークステーションに演算部8を格納するようにしてもよい。そうすることで、より短時間で特徴情報抽出作業やマッチング作業を行うことが可能になる。合わせて記憶部30も不図示のサーバに格納してもよい。   Although it has been described in FIG. 1 that the three-dimensional point cloud display device 1 includes the computing unit 8, for example, in a server or a workstation (not shown) having higher computing power than the three-dimensional point cloud display device 1. The arithmetic unit 8 may be stored. By doing so, it becomes possible to perform feature information extraction work and matching work in a shorter time. In addition, the storage unit 30 may also be stored in a server (not shown).

また、図7では特徴情報抽出作業とマッチング作業を画面4bや画面4cに表示することを説明したが、画面4bや画面4cに表示をせずに、内部処理として実行するようにしてもよい。表示処理部3の負荷が減ることで3次元点群表示装置1の処理能力に余裕が生まれ、特徴情報抽出作業とマッチング作業の処理速度を内部処理にしない場合と比べて向上させることができる。   Although the feature information extraction work and the matching work are displayed on the screen 4b and the screen 4c in FIG. 7, the process may be performed as an internal process without displaying the feature information extraction work and the matching work on the screen 4b or the screen 4c. The reduction in the load on the display processing unit 3 allows for an increase in the processing capacity of the three-dimensional point cloud display device 1, and the processing speed of the feature information extraction work and the matching work can be improved compared to the case where the internal processing is not performed.

本発明の実施の形態1に係る3次元点群表示装置1によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。   According to the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the data acquisition unit 2 for acquiring the image data 22 obtained by photographing the monitoring target with the camera 21, and the camera among the monitoring targets 21. Display processing unit 3 performing processing for displaying on screen 4 a the three-dimensional point cloud data 31 obtained by measurement including at least a part of the range photographed by 21 and three-dimensional point cloud data displayed on screen 4 b The data acquisition unit 2 acquires selection data 31 a selected from the three-dimensional point cloud data 31 based on the setting of the calculation range setting unit 6 that sets the calculation range by user input with respect to 31 and the calculation range setting unit 6. The feature information of the three-dimensional point cloud data 31 and the feature information of the image data 22 based on the feature information extraction unit 10 for extracting each feature information of the image data 22 and the extraction result by the feature information extraction unit 10 Because the matching unit 11 for matching each other and the superimposed display processing unit 12 for superimposing the image data on the three-dimensional point cloud data 31 in the screen 4 c based on the matching result of the matching unit 11 are provided. As compared with the configuration in which the real image is matched with the surrounding three-dimensional map information based on the GPS data, it becomes possible to reliably perform the matching between the three-dimensional point cloud data 31 and the image data 22.

また、本発明の実施の形態1に係る3次元点群表示装置1は、表示処理部3は、演算範囲設定部6での設定を行う場合に、画面4aの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。   Further, in the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the display processing unit 3 causes the image data 22 to be displayed inside the screen 4a when the setting by the calculation range setting unit 6 is performed. Since the image data display area 41 is created, the operation of setting the calculation range by the calculation range setting unit 6 can be performed efficiently.

また、本発明の実施の形態1に係る3次元点群表示装置1によれば、演算範囲設定部6での設定を行う場合に、画像データ表示領域41は、画面4aの角部に配置されるので、画面4aにおける3次元点群データ31の表示領域での視認性の低下を抑制でき、画像データ22と3次元点群データ31との両者の状態を効率よく把握することが可能である。   Further, according to the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the image data display area 41 is arranged at the corner of the screen 4a when setting by the calculation range setting unit 6. Therefore, it is possible to suppress a decrease in visibility in the display area of the three-dimensional point group data 31 on the screen 4a, and it is possible to efficiently grasp the state of both the image data 22 and the three-dimensional point group data 31. .

また、本発明の実施の形態1に係る3次元点群表示装置1によれば、演算範囲設定部6は、ユーザ入力により設定された演算範囲に対応する演算範囲領域44aを画面4bに表示するので、ユーザにとって、どの領域が演算範囲として設定されたかが分かり、設定した演算範囲が不適な場合には、容易に修正を行うことが可能になる。   Further, according to the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the calculation range setting unit 6 displays the calculation range area 44a corresponding to the calculation range set by user input on the screen 4b. Therefore, it is possible for the user to know which area is set as the calculation range, and when the set calculation range is unsuitable, it is possible to easily correct.

本発明の実施の形態1に係る3次元点群表示装置1によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して画像データ22に含まれる属性情報(たとえば、撮影方向121aおよび撮影位置121bに関する情報)により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。   According to the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the data acquisition unit 2 for acquiring the image data 22 obtained by photographing the monitoring target with the camera 21, and the camera among the monitoring targets 21. Display processing unit 3 performing processing for displaying on screen 4 a the three-dimensional point cloud data 31 obtained by measurement including at least a part of the range photographed by 21 and three-dimensional point cloud data displayed on screen 4 b 31 based on the setting of the calculation range setting unit 6 for setting the calculation range based on the attribute information (for example, information on the photographing direction 121a and the photographing position 121b) included in the image data 22 Feature information extraction unit 10 for extracting feature information of each of selection data 31a selected from point cloud data 31 and image data 22 obtained by data acquisition unit 2, and feature information extraction unit Based on the result of the extraction by 0, based on the matching result of the matching unit 11 for matching the feature information of the three-dimensional point group data 31 and the feature information of the image data 22, the three-dimensional points in the screen 4c Since the superposition display processing unit 12 for superimposing and displaying the image data on the group data 31 is provided, compared with the configuration in which the real image is matched with the surrounding three-dimensional map information based on the GPS data, It becomes possible to reliably perform matching between the group data 31 and the image data 22.

また、本発明の実施の形態1に係る3次元点群表示システム40によれば、監視対象を撮影するカメラ21と、カメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。   Further, according to the three-dimensional point cloud display system 40 according to the first embodiment of the present invention, the camera 21 that captures the monitoring target and the data acquisition unit 2 that acquires the image data 22 obtained by capturing with the camera 21 And the display processing unit 3 performing processing for displaying on the screen 4 a the three-dimensional point cloud data 31 obtained by measuring at least a part of the range photographed by the camera 21 among the monitoring targets, and the screen 4 b Selection data selected from the three-dimensional point group data 31 based on the setting of the calculation range setting unit 6 for setting the calculation range by user input to the displayed three-dimensional point group data 31 and the calculation range setting unit 6 31a and a feature information extraction unit 10 for extracting feature information of each of the image data 22 acquired by the data acquisition unit 2, and three-dimensional point cloud data 31 based on the extraction result by the feature information extraction unit 10. Superimposing display processing in which image data is superimposed and displayed on the three-dimensional point cloud data 31 in the screen 4 c based on the matching unit 11 that matches the feature information and the feature information of the image data 22 and the matching result of the matching unit 11 Since the unit 12 is provided, the matching between the three-dimensional point cloud data 31 and the image data 22 can be reliably performed compared to the configuration in which the actual three-dimensional map information and the surrounding three-dimensional map information are matched based on GPS data. It becomes possible.

また、本発明の実施の形態1に係る3次元点群表示システム40によれば、表示処理部3が演算範囲設定部6での設定を行う場合に、画面4a内で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。   Further, according to the three-dimensional point cloud display system 40 according to the first embodiment of the present invention, when the display processing unit 3 performs setting by the calculation range setting unit 6, the image data 22 is displayed in the screen 4a. Since the image data display area 41 is created, the operation of setting the calculation range by the calculation range setting unit 6 can be performed efficiently.

また、本発明の実施の形態1に係る3次元点群表示方法によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得ステップST1と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理ステップST2と、画面4bに表示される3次元点群データに対してユーザ入力により演算範囲の設定を行う重畳表示処理ステップと、演算範囲設定ステップST5での設定に基づき3次元点群データから選択された選択データ31aとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップST6と、特徴情報抽出部による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データの特徴情報同士をマッチングさせる重畳表示処理ステップST7と、マッチング処理ステップST7の結果に基づき、画面4c内で3次元点群データ31の上に画像データ22を重畳表示させる重畳表示処理ステップST8と、を有するので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。   Further, according to the three-dimensional point cloud display method according to the first embodiment of the present invention, data acquisition step ST1 of acquiring the image data 22 obtained by photographing the monitoring target with the camera 21; Display processing step ST2 for displaying on the screen 4a the three-dimensional point cloud data 31 obtained by measurement including at least a part of the range photographed by the camera 21; 3D point cloud displayed on the screen 4b Selection data 31a selected from 3D point cloud data based on the setting in the superposition display processing step of setting the calculation range by user input to the data and the setting in the calculation range setting step ST5 and the image acquired by the data acquisition unit 3D point cloud data 31 based on feature information extraction processing step ST6 for extracting feature information of each piece of data and the result of extraction by the feature information extraction unit. Superimposed display in which the image data 22 is superimposed and displayed on the three-dimensional point cloud data 31 in the screen 4c based on the result of the superimposed display processing step ST7 for matching feature information of feature information and image data and the matching processing step ST7. Since processing step ST8 is provided, the matching between the three-dimensional point group data and the image data can be reliably performed as compared with the configuration in which the actual three-dimensional map information and the surrounding three-dimensional map information are matched based on GPS data. It will be possible.

また、本発明の実施の形態1に係る3次元点群表示方法によれば、表示処理ステップST2は、演算範囲設定ステップST5での設定を行う場合に、画面4bの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定ステップST5での演算範囲の設定を行う作業が効率的に行える効果を奏する。   Further, according to the three-dimensional point cloud display method according to the first embodiment of the present invention, the display processing step ST2 displays the image data 22 inside the screen 4b when performing the setting in the calculation range setting step ST5. Since the image data display area 41 to be generated is created, the operation of setting the calculation range in the calculation range setting step ST5 can be performed efficiently.

また、本発明の実施の形態1に係る3次元点群表示プログラムによれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得ステップST1と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理ステップST2と、画面4bに表示される3次元点群データに対してユーザ入力により演算範囲の設定を行う重畳表示処理ステップと、演算範囲設定ステップST5での設定に基づき3次元点群データから選択された選択データ31aとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップST6と、特徴情報抽出部による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データの特徴情報同士をマッチングさせる重畳表示処理ステップST7と、マッチング処理ステップST7の結果に基づき、画面4c内で3次元点群データ31の上に画像データ22を重畳表示させる重畳表示処理ステップST8と、をコンピュータに実行させるので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。   Further, according to the three-dimensional point cloud display program according to the first embodiment of the present invention, a data acquisition step ST1 for acquiring image data 22 obtained by photographing the monitoring target with the camera 21; Display processing step ST2 for displaying on the screen 4a the three-dimensional point cloud data 31 obtained by measurement including at least a part of the range photographed by the camera 21; 3D point cloud displayed on the screen 4b Selection data 31a selected from 3D point cloud data based on the setting in the superposition display processing step of setting the calculation range by user input to the data and the setting in the calculation range setting step ST5 and the image acquired by the data acquisition unit Three-dimensional point group data based on feature information extraction processing step ST6 for extracting feature information of each data and the result of extraction by the feature information extraction unit The image data 22 is superimposedly displayed on the three-dimensional point cloud data 31 in the screen 4c based on the result of the superposition display processing step ST7 for matching the feature information of the image data and the feature information of 1 and the matching processing step ST7. Since the superimposing display processing step ST8 is executed by the computer, the matching between the three-dimensional point cloud data and the image data is assured compared to the configuration in which the actual three-dimensional map information and the surrounding three-dimensional map information are matched. It will be possible to

また、本発明の実施の形態1に係る3次元点群表示プログラムによれば、表示処理ステップST2は、演算範囲設定ステップST5での設定を行う場合に、画面4bの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定ステップST5での演算範囲の設定を行う作業が効率的に行える効果を奏する。   Further, according to the three-dimensional point cloud display program according to the first embodiment of the present invention, the display processing step ST2 displays the image data 22 inside the screen 4b when setting in the calculation range setting step ST5. Since the image data display area 41 to be generated is created, the operation of setting the calculation range in the calculation range setting step ST5 can be performed efficiently.

また、本発明の実施の形態1に係る記録媒体によれば、プログラムPが記録されているので、プログラムPによる各種機能を実行することができる。   Further, according to the recording medium in the first embodiment of the present invention, since the program P is recorded, various functions by the program P can be executed.

実施の形態2.
本発明の実施の形態2について、図9および図10を用いて説明する。実施の形態1では、演算範囲設定部6による演算範囲の設定はX軸、Y軸、Z軸の各軸の座標をユーザ入力により行っていたが、本実施の形態では入力部7としてのマウスなどによるカーソル移動の利用により、演算範囲を設定することが異なる部分である。
Second Embodiment
Second Embodiment A second embodiment of the present invention will be described with reference to FIG. 9 and FIG. In the first embodiment, setting of the calculation range by the calculation range setting unit 6 is performed by user input of coordinates of each axis of X axis, Y axis and Z axis, but in the present embodiment, the mouse as the input unit 7 is used. Setting the calculation range is a different part by using the cursor movement by the like.

図9は、入力部7としてポインティングデバイスを利用して演算範囲を設定する場合のブロック図である。ポインティングデバイスとしては、たとえば、マウス7aやジョイスティック7b、不図示のトラックボールなどが想定される。これらポインティングデバイスからの入力を入力受付部5が受付けて、データ取得部2a内の演算範囲設定部6aにおいてカーソル29の移動による演算範囲の設定が実行される。   FIG. 9 is a block diagram in the case of setting an operation range using a pointing device as the input unit 7. As a pointing device, for example, a mouse 7a, a joystick 7b, a track ball (not shown), etc. are assumed. The input receiving unit 5 receives the input from these pointing devices, and the setting of the calculation range by the movement of the cursor 29 is executed in the calculation range setting unit 6a in the data acquisition unit 2a.

図10は、ポインティングデバイスを利用しての演算範囲を設定する設定画面である。画面4b内で表示されるスクリーン座標系での表示に対して、ユーザが演算範囲としたい領域を検討する。たとえばマウス7aの操作によりカーソル29を移動操作させて、X軸方向およびZ軸方向における演算範囲を決める。そして、奥行きであるY軸方向の演算範囲を決める際には、視点移動ツール51を使ってY軸方向の視点をずらしつつ、X軸またはZ軸におけるカーソル29の移動操作と同様の操作を行えばよい。   FIG. 10 is a setting screen for setting a calculation range using a pointing device. With respect to the display in the screen coordinate system displayed in the screen 4b, an area which the user wants to set as a calculation range is considered. For example, the cursor 29 is moved by the operation of the mouse 7a to determine the calculation range in the X-axis direction and the Z-axis direction. Then, when determining the calculation range in the Y-axis direction which is the depth, while shifting the viewpoint in the Y-axis direction using the viewpoint moving tool 51, the same operation as the moving operation of the cursor 29 in the X-axis or Z-axis is performed. It is good.

本発明の実施の形態2に係る3次元点群表示装置1は、演算範囲設定部6が、ポインティングデバイス7a,7bを利用して演算範囲を設定するようにしたので、ユーザが視覚的に演算範囲を行うことが可能になる。すなわち、どの範囲を演算範囲として設定するかを座標となる数字を入力する場合と比べて容易に行える。   In the three-dimensional point cloud display device 1 according to the second embodiment of the present invention, the calculation range setting unit 6 sets the calculation range using the pointing devices 7a and 7b, so the user can calculate visually It will be possible to do range. That is, which range is to be set as the calculation range can be easily performed as compared with the case of inputting a numeral serving as coordinates.

実施の形態3.
本発明の実施の形態3について、図11および図12を用いて説明する。実施の形態1では、マッチング作業は、設定された演算範囲内で画像データと3次元点群データの各々の特徴情報が最も一致する画像データの位置とサイズを抽出する作業であったが、マッチングの程度がよくない場合に演算範囲を再設定することを促す機能を有することが異なる部分である。
Third Embodiment
Third Embodiment A third embodiment of the present invention will be described with reference to FIGS. 11 and 12. In the first embodiment, the matching operation is an operation of extracting the position and size of the image data in which the feature information of each of the image data and the three-dimensional point group data most matches within the set operation range. The difference is that it has a function to prompt resetting of the calculation range when the degree of is not good.

図11は、演算部8aの構成を示すブロック図である。演算部8aは視点対応部9、特徴情報抽出部10、マッチング部11のほかに、マッチングの程度を判定するマッチング度判定部11aを含んでいる。マッチング度合判定部11aは、予め定めたマッチング度に対して、マッチング部11でのマッチング作業の結果がどの程度のものかを把握するために機能する。マッチング度を求める方式としては、たとえば、3次元点群データ31において設定された演算範囲の中で、画像データ22が3次元点群データ31に対して一致するピクセル数と一致しないピクセル数をカウントし、全ピクセル数のうちの一致するピクセル数の割合から求めるようにしてもよい。   FIG. 11 is a block diagram showing the configuration of the arithmetic unit 8a. In addition to the viewpoint handling unit 9, the feature information extraction unit 10, and the matching unit 11, the calculation unit 8a includes a matching degree determination unit 11a that determines the degree of matching. The matching degree determination unit 11a functions to grasp how much the result of the matching operation in the matching unit 11 is with respect to the predetermined matching degree. As a method of obtaining the degree of matching, for example, the number of pixels in which the image data 22 does not match the number of pixels matching the three-dimensional point group data 31 is counted in the calculation range set in the three-dimensional point group data 31 Alternatively, it may be obtained from the ratio of the number of matching pixels to the total number of pixels.

図12は、3次元点群表示装置1の動作を示すフローチャート図である。ステップST1からステップST8は実施の形態1と同様の構成であり、ステップST2からステップST4を省略して記載している。マッチング度確認ステップST17と演算範囲の再設定を促す警告表示ステップST18が実施の形態1とは異なるステップである。   FIG. 12 is a flowchart showing the operation of the three-dimensional point cloud display device 1. Steps ST1 to ST8 are the same as in the first embodiment, and steps ST2 to ST4 are omitted. The matching degree confirmation step ST17 and the warning display step ST18 for prompting resetting of the calculation range are steps different from those in the first embodiment.

たとえば、マッチング度確認ステップST17において予め定めたマッチング度に対してマッチング部11でのマッチング作業の結果が到達していない場合、警告表示ステップST18へとフローが分岐し、表示処理部3が「もう一度演算範囲の設定を行って、演算をやり直してください」などと警告144が報知されるように構成される。その後、ユーザは警告144の表示を踏まえて、再度演算範囲設定テップST5へと移行してカーソル29などにより演算範囲の設定を実行する。なお、警告144は文字意外に、音声など、ユーザに伝わるものであれば何でもよい。   For example, when the result of the matching operation in the matching unit 11 does not reach the predetermined matching degree in the matching degree confirmation step ST17, the flow branches to the warning display step ST18, and the display processing unit 3 A warning 144 is notified that the calculation range should be set and the calculation should be performed again. Thereafter, based on the display of the warning 144, the user shifts again to the calculation range setting step ST5 and executes setting of the calculation range by the cursor 29 or the like. The warning 144 may be anything other than characters, as long as it can be transmitted to the user, such as voice.

本発明の実施の形態3に係る3次元点群表示装置1は、マッチング部11によるマッチングの結果を判定するマッチング度判定部11aを有し、判定の結果に応じて、演算範囲の再設定を促す警告144を報知するので、3次元点群データ31に対する画像データ22の重畳表示が精度悪く表示されることを防止する効果を奏する。   The three-dimensional point cloud display device 1 according to Embodiment 3 of the present invention includes a matching degree determination unit 11a that determines the result of matching by the matching unit 11, and resets the calculation range according to the determination result. Since the warning 144 for prompting is notified, it is possible to prevent the superimposed display of the image data 22 on the three-dimensional point cloud data 31 from being displayed with poor accuracy.

変形例3a
変形例3aについて図13を用いて説明する。警告表示ステップST18を受けてユーザが再び演算範囲設定ステップST5での演算範囲の設定を行う際、前回の演算範囲を把握していで新たに演算範囲の設定を行ったとしても、再度のマッチング作業でのマッチング度が向上せず、予め定めたマッチング度の度合いに達しない恐れがある。
Modification 3a
The modification 3a will be described with reference to FIG. When the user again sets the calculation range in the calculation range setting step ST5 after receiving the warning display step ST18, even if the calculation range is set anew, even if the calculation range is newly set, the matching work is performed again. The degree of matching does not improve, and there is a possibility that the degree of matching determined in advance may not be reached.

そこで、前回の演算範囲の領域を前回演算範囲領域51として表示し、それを踏まえて、最新演算範囲領域52として演算範囲を設定することが可能となる。すなわち、前回設定した演算範囲ではマッチング部11でのマッチング作業に不足していた領域を把握でき、より効率的に最新演算範囲領域52を設定することが可能となる。   Therefore, the area of the previous calculation range is displayed as the previous calculation range area 51, and based on that, it becomes possible to set the calculation range as the latest calculation range area 52. That is, in the calculation range set previously, it is possible to grasp the area which is insufficient for the matching operation in the matching unit 11, and it becomes possible to set the latest calculation range area 52 more efficiently.

本発明の実施の形態3の変形例3aに係る3次元点群表示装置1は、警告144が報知され、演算範囲の設定を再度行う場合、警告対象となった前回演算範囲領域51が画面に表示されるので、演算範囲の再設定を行う場合に効率的に再設定を行える効果を奏する。   In the three-dimensional point cloud display device 1 according to the modification 3a of the third embodiment of the present invention, when the warning 144 is notified and the setting of the calculation range is performed again, the previous calculation range region 51 which became the warning target is displayed on the screen. Since it is displayed, there is an effect that efficient resetting can be performed when resetting the calculation range.

実施の形態4.
本発明の実施の形態4について、図14から図16を用いて説明する。実施の形態1では、カメラが視野の変化がない固定カメラであることを主に想定していたが、本実施の形態4では左右や上下などに角度を変えて撮影できる可動カメラであることを想定し、実施の形態1よりも広いエリアを撮影した画像データを利用してのマッチング作業を行うものである。
Fourth Embodiment
Fourth Embodiment A fourth embodiment of the present invention will be described using FIGS. 14 to 16. In the first embodiment, it is mainly assumed that the camera is a fixed camera with no change in the field of view, but in the fourth embodiment, it is a movable camera that can be photographed by changing the angle between left and right or up and down. Assuming that the matching operation is performed using image data obtained by photographing an area larger than that of the first embodiment.

図14は、3次元点群表示システム40aの構成を示すブロック図である。実施の形態1の図1における3次元点群表示システム40と異なる構成について説明する。カメラユニット20aは可動カメラ21aと、3次元点群表示装置1aから送られる可動カメラ21aを制御する可動カメラ制御信号13aを受信するデータ受信部123と、を有している。   FIG. 14 is a block diagram showing the configuration of the three-dimensional point cloud display system 40a. A configuration different from the three-dimensional point cloud display system 40 in FIG. 1 of the first embodiment will be described. The camera unit 20a has a movable camera 21a and a data receiving unit 123 for receiving a movable camera control signal 13a for controlling the movable camera 21a sent from the three-dimensional point cloud display device 1a.

3次元点群表示装置1aは、可動カメラ制御信号13aを送るカメラ制御部13と、可動カメラ21aと、可動カメラ制御信号13aを生成する3次元点群表示プログラムとしてのプログラムPaと、可動カメラ21aにより撮影された複数の画像データ22を合成して合成画像データ22aを作成する画像合成部14と、を含んでいる。また、記憶部30は、複数の画像合成部14が合成する複数の画像データ22をデータ取得部2から受け取って格納する機能を有する。   The three-dimensional point cloud display device 1a includes a camera control unit 13 that sends a movable camera control signal 13a, a movable camera 21a, a program Pa as a three-dimensional point cloud display program that generates the movable camera control signal 13a, and a movable camera 21a. And an image combining unit that combines the plurality of pieces of image data 22 captured by the image processing unit to create combined image data 22a. Further, the storage unit 30 has a function of receiving from the data acquisition unit 2 a plurality of image data 22 synthesized by the plurality of image synthesis units 14 and storing the image data 22.

入力部7からの入力により入力受付部5が可動カメラ21aを制御する指示を受けると、その指示がカメラ制御部13に送信される。カメラ制御部13は指示を受信し、カメラユニット20aにおけるデータ受信部123に対して、可動カメラ制御信号13aを送信する。可動カメラ21aは可動カメラ制御信号13aを受けて、各種動作を行うように構成されている。   When the input reception unit 5 receives an instruction to control the movable camera 21 a by the input from the input unit 7, the instruction is transmitted to the camera control unit 13. The camera control unit 13 receives the instruction, and transmits the movable camera control signal 13a to the data receiving unit 123 in the camera unit 20a. The movable camera 21a is configured to perform various operations in response to the movable camera control signal 13a.

図15は、可動カメラ制御信号13aがカメラ制御部13から送信され、可動カメラ21aが可動カメラ制御信号13aを受信した場合における、3次元点群表示システム40aの動作を示すフローチャート図である。図14と図16も適宜参照しながら3次元点群表示システム40aの動作の説明を行う。   FIG. 15 is a flowchart showing the operation of the three-dimensional point cloud display system 40a when the movable camera control signal 13a is transmitted from the camera control unit 13 and the movable camera 21a receives the movable camera control signal 13a. The operation of the three-dimensional point cloud display system 40a will be described with reference to FIGS. 14 and 16 as appropriate.

まず、可動カメラ21aは初期位置などのある方向で撮影を行う。そして、たとえば、予め定められた複数の角度で、順次、画像データ22同士の境界部分が重複するように水平方向に連続して撮影を行う(複数撮影ステップSTA)。そして撮影された画像データ22は、データ送信部23およびデータ取得部2を介して、順次、記憶部30に格納される(画像記憶ステップSTB)。すなわち、可動カメラ21aは、複数の撮影方向での撮影を行う。   First, the movable camera 21a shoots in a direction such as an initial position. Then, for example, imaging is performed continuously in the horizontal direction such that the boundary portions of the image data 22 overlap one another at a plurality of predetermined angles (a plurality of imaging steps STA). The captured image data 22 is sequentially stored in the storage unit 30 via the data transmission unit 23 and the data acquisition unit 2 (image storage step STB). That is, the movable camera 21a performs shooting in a plurality of shooting directions.

その後、予め定められた複数の角度すべてで可動カメラ21aによる撮影が終了した場合、データ取得部2は記憶部30と通信して、格納した複数の画像データ22を画像合成部14に送る。画像合成部14は受信した複数の画像データ22を合成して合成画像データ22aを作成する(画像データ合成ステップSTC)。合成画像データ22aが作成された後は、実施の形態1と同様に、ステップST1からステップST8が実行される。   Thereafter, when photographing by the movable camera 21a is finished at all of a plurality of predetermined angles, the data acquisition unit 2 communicates with the storage unit 30, and sends the plurality of stored image data 22 to the image combining unit 14. The image combining unit 14 combines the plurality of received image data 22 to create combined image data 22a (image data combining step STC). After the composite image data 22a is created, steps ST1 to ST8 are executed as in the first embodiment.

図16は、3次元点群データ31を表示する表示器4における画面4cの内容を示す図である。合成画像データ22aを画像データ表示領域41aにて表示している。画像データ表示領域41aのうち、第1画像データ表示領域41a1に表示される画像データ22は可動カメラ21aの初期位置としての撮影範囲により撮影されたものであり、第2画像データ表示領域41a2に表示される画像データ22は可動カメラ21aの撮影方向を可変させた場合の撮影範囲により撮影されたものである。   FIG. 16 is a diagram showing the contents of the screen 4 c in the display 4 for displaying the three-dimensional point cloud data 31. The composite image data 22a is displayed in the image data display area 41a. Of the image data display area 41a, the image data 22 displayed in the first image data display area 41a1 is photographed by the imaging range as the initial position of the movable camera 21a, and is displayed in the second image data display area 41a2. The image data 22 to be captured is the one captured in the imaging range when the imaging direction of the movable camera 21a is changed.

なお、ある撮影方向(たとえば初期位置)での撮影範囲と、撮影方向を可変させた場合の別の撮影方向での撮影範囲の境界を、境界線42として表示している。仮に合成画像データ22aの内部に、普段とは違うノイズが映り込むなどの画像に異常が生じた場合、境界線42が表示されることで第1画像データ表示領域41a1または第2画像データ表示領域41a2のどちらに原因があるかを容易に把握することができるため、合成画像データ22aを再生成する際に効率的である。   A boundary between a shooting range in a certain shooting direction (for example, an initial position) and a shooting range in another shooting direction when the shooting direction is changed is displayed as a boundary line 42. If an abnormality occurs in an image such as noise different from usual appearing in the composite image data 22a, the boundary line 42 is displayed to display the first image data display area 41a1 or the second image data display area. Since it can be easily grasped which of 41a2 is the cause, it is efficient in regenerating the composite image data 22a.

なお、撮影方向を可変させて、連続する撮影範囲を取得した画像データ22から合成画像データ22aを作成した上で、特徴抽出部10による特徴情報の抽出やマッチング部11によるマッチングを行うことを説明したが、必ずしも連続する撮影範囲を取得した画像データ22でなくてもよい。すなわち、ある撮影方向で撮影した図示しない第1画像データと、撮影方向を可変させて撮影した図示しない第2画像データとは、各々の画像データが離散していても良く、この場合には、第1画像データと第2画像データとの関係性として、撮影した角度情報など、各画像データの関係性が把握できればよい。   In addition, after making synthetic image data 22a from the image data 22 which varied the imaging | photography direction and acquired the continuous imaging range, extraction of the feature information by the feature extraction part 10 and matching by the matching part 11 are demonstrated. However, the image data 22 does not necessarily have to be a continuous shooting range. That is, the first image data (not shown) photographed in a certain photographing direction and the second image data (not shown) photographed while varying the photographing direction may have their respective image data separated, in this case, As the relationship between the first image data and the second image data, the relationship between the respective image data such as the photographed angle information may be grasped.

このようにして、複数の撮影方向により撮影された複数の画像データ22を利用することで、実施の形態1の場合と比べて、特徴抽出部10による特徴情報の抽出を多くすることができ、マッチング部11によるマッチングの結果がより広範囲なエリアでマッチングさせることができる。その結果、実施の形態1よりも、より正確に、画面4の中で、3次元点群データ31の上に画像データ22を重畳表示させることが可能になる。   In this manner, by using the plurality of image data 22 captured according to the plurality of imaging directions, extraction of feature information by the feature extraction unit 10 can be increased more than in the case of the first embodiment, The matching result by the matching unit 11 can be matched in a wider area. As a result, the image data 22 can be superimposed and displayed on the three-dimensional point cloud data 31 on the screen 4 more accurately than in the first embodiment.

本発明の実施の形態4に係る3次元点群表示装置1は、データ取得部2は、カメラ21が撮影方向を可変な可動カメラ21aである場合、可動カメラ21aにより撮影された複数方向における複数の画像データ22を取得し、特徴情報抽出部10は、複数の画像データ22を利用した特徴情報の抽出を行うので、より正確に、画面4cの中で、3次元点群データ31の上に画像データ22を重畳表示させることが可能になる。   In the three-dimensional point cloud display device 1 according to the fourth embodiment of the present invention, when the camera 21 is the movable camera 21a whose imaging direction is variable, the data acquiring unit 2 is plural in plural directions photographed by the movable camera 21a. The image data 22 is acquired, and the feature information extraction unit 10 extracts feature information using the plurality of image data 22. Therefore, on the screen 4c, more accurately, on the three-dimensional point cloud data 31. It is possible to display the image data 22 in a superimposed manner.

変形例4a
この変形例は、可動カメラにより撮影された画像と3次元点群データとを利用して、1命令ごとの撮影方向の単位移動量が不明な可動カメラの仕様を求め、監視業務に役立てようとするものであり、図17を用いて説明する。
Modification 4a
In this modification, the specification of the movable camera whose unit moving amount in the photographing direction for each command is unknown is obtained by utilizing the image taken by the movable camera and the three-dimensional point cloud data, and it is useful for monitoring work. This will be described with reference to FIG.

図17は本変形例の動作を示すフローチャート図である。ステップSTAからステップST7までは実施の形態4と同様である。ステップST9が本変形で追加された内容である。   FIG. 17 is a flowchart showing the operation of this modification. Steps STA to ST7 are the same as in the fourth embodiment. Step ST9 is the content added in this modification.

ステップSTAでは、図14に記載のカメラ制御部13を介して、ユーザは可動カメラ21に対して、撮影方向を変える命令を送信している。この変形例における可動カメラ21aは単位移動量が判明しておらず、たとえば、ユーザは感覚的に1秒間に亘って可動カメラ21aを左に動かすための図示しない移動命令ステップを持続する、などとしていた。   In step STA, the user transmits an instruction to change the shooting direction to the movable camera 21 via the camera control unit 13 described in FIG. The movable camera 21a in this modification does not know the unit movement amount, and, for example, the user continues the movement instruction step (not shown) for moving the movable camera 21a leftward for 1 second in a sense. It was.

そこで、ステップSTAで撮影方向を変更する際に移動命令ステップに関する情報を記録し、移動命令ステップに関する情報とマッチング処理ステップST7での結果を利用して、単位移動量計算ステップST9では単位移動命令ステップごとの可動カメラ21aの単位移動量(撮影方向の単位移動量)を求めている。   Therefore, when the imaging direction is changed in step STA, the information on the movement instruction step is recorded, and the unit movement amount calculation step ST9 is performed using the information on the movement instruction step and the result in the matching processing step ST7. The unit moving amount (the unit moving amount in the photographing direction) of the movable camera 21a for each unit is obtained.

単位移動量計算ステップST9を有することで、単位移動命令ステップごとに可動カメラ21aの単位移動量が判明するため、監視業務を行う上で、より精密な運用を行うことができる。   By having the unit movement amount calculation step ST9, the unit movement amount of the movable camera 21a is determined for each unit movement instruction step, so that more accurate operation can be performed when performing monitoring work.

1 3次元点群表示装置、2 データ取得部、3 表示処理部、4 表示器、4a,4b,4c 画面、5 入力受付部、6 演算範囲設定部、7 入力部、7a マウス(ポインティングデバイス)、7b ジョイスティック(ポインティングデバイス)、8 演算部、9 視点対応部、10 特徴情報抽出部、11 マッチング部、11a マッチング度判定部、12 重畳表示処理部、20 カメラユニット、21 カメラ、22 画像データ、23 データ送信部、30 記憶部、 31 3次元点群データ、 31 a 選択データ、 40 3次元点群表示システム、41 画像データ表示領域、44a 演算範囲領域(演算範囲)、45a1 第1の点群境界エッジ(エッジ情報、特徴情報)、45a2 第2の点群境界エッジ(エッジ情報、特徴情報)、45b 画像河川エッジ(エッジ情報、特徴情報)、46a 点群倉庫エッジ(エッジ情報、特徴情報)、46b 画像倉庫エッジ(エッジ情報、特徴情報)、47a 点群住宅エッジ(エッジ情報、特徴情報)、47b 画像住宅エッジ(エッジ情報、特徴情報)、51 前回演算範囲領域、101 メモリ(記録媒体)、121a 撮影方向(属性情報)、121b撮影位置(属性情報)、144 警告
P,Pa プログラム(3次元点群表示プログラム)、ST1 データ取得ステップ、ST2 表示処理ステップ、ST5 演算範囲設定ステップ、ST6 特徴情報抽出処理ステップ、ST7 マッチング処理ステップ、ST8 重畳表示処理ステップ、ST9 単位移動量計算ステップ、STA 複数撮影ステップ、STB 画像記憶ステップ、STC 画像データ合成ステップ
Reference Signs List 1 3D point cloud display device 2 data acquisition unit 3 display processing unit 4 display 4 a, 4 b, 4 c screen 5 input reception unit 6 operation range setting unit 7 input unit 7 a mouse (pointing device) , 7b joystick (pointing device), 8 operation unit, 9 viewpoint corresponding unit, 10 feature information extraction unit, 11 matching unit, 11a matching degree determination unit, 12 superposition display processing unit, 20 camera units, 21 cameras, 22 image data, 23 data transmission unit, 30 storage unit, 31 three-dimensional point group data, 31 a selection data, 40 three-dimensional point group display system, 41 image data display area, 44 a calculation range area (calculation range), 45 a 1 first point group Boundary edge (edge information, feature information), 45a2 Second point group boundary edge (edge information, feature information), 45b Image river Edge (edge information, feature information), 46a Point cloud warehouse edge (edge information, feature information), 46b Image warehouse edge (edge information, feature information), 47a Point cloud house edge (edge information, feature information), 47b image Residential edge (edge information, feature information), 51 previous calculation range area, 101 memory (recording medium), 121a shooting direction (attribute information), 121b shooting position (attribute information), 144 warning P, Pa program (3D point group Display program), ST1 data acquisition step, ST2 display processing step, ST5 operation range setting step, ST6 feature information extraction processing step, ST7 matching processing step, ST8 superposition display processing step, ST9 unit movement amount calculation step, STA multiple imaging step, STB image storage step, STC image data synthesis step

Claims (16)

監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示装置。
A data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera;
A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range captured by the camera among the monitoring targets;
A calculation range setting unit configured to set a calculation range by user input to the three-dimensional point group data displayed on the screen;
A feature information extraction unit that extracts feature information of each of the selected data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit;
A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on a result of the extraction by the feature information extraction unit;
A superimposed display processing unit configured to display the image data superimposed on the three-dimensional point group data in the screen based on the matching result of the matching unit;
3D point cloud display equipped with
前記表示処理部は、前記演算範囲設定部での前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項1に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to claim 1, wherein the display processing unit creates an image data display area for displaying the image data inside the screen when the setting by the calculation range setting unit is performed. .
前記画像データ表示領域は、前記画面の角部に配置される
請求項2に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to claim 2, wherein the image data display area is disposed at a corner of the screen.
前記演算範囲設定部は、前記演算範囲に対応する演算範囲領域を前記画面に表示する
請求項1から3のいずれか一項に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to any one of claims 1 to 3, wherein the calculation range setting unit displays a calculation range region corresponding to the calculation range on the screen.
前記演算範囲設定部は、ポインティングデバイスを利用して前記演算範囲を設定する
請求項1から4のいずれか一項に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to any one of claims 1 to 4, wherein the calculation range setting unit sets the calculation range using a pointing device.
前記マッチング部による前記マッチングの結果を判定するマッチング度判定部を有し、
前記判定の結果に応じて、前記演算範囲の再設定を促す警告を報知する
請求項1から5のいずれか一項に記載の3次元点群表示装置。
A matching degree determination unit that determines a result of the matching performed by the matching unit;
The three-dimensional point cloud display device according to any one of claims 1 to 5, wherein a warning to prompt resetting of the calculation range is notified according to the result of the determination.
前記警告が報知され、前記演算範囲の設定を再度行う場合、警告対象となった前回の前記演算範囲の領域である前回演算範囲領域が前記画面に表示される
請求項6に記載の3次元点群表示装置。
The three-dimensional point according to claim 6, wherein, when the warning is notified and the setting of the calculation range is performed again, the previous calculation range area, which is the area of the previous calculation range that became the warning target, is displayed on the screen. Group display device.
前記データ取得部は、前記カメラが撮影方向を可変な可動カメラである場合、前記可動カメラにより撮影された複数方向における複数の前記画像データを取得し、
前記特徴情報抽出部は、複数の前記画像データを利用した特徴情報の抽出を行う
請求項1から7のいずれか一項に記載の3次元点群表示装置。
The data acquisition unit acquires a plurality of the image data in a plurality of directions captured by the movable camera, when the camera is a movable camera whose imaging direction is variable.
The three-dimensional point cloud display device according to any one of claims 1 to 7, wherein the feature information extraction unit extracts feature information using a plurality of the image data.
監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、前記画像データに含まれる属性情報により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示装置。
A data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera;
A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range captured by the camera among the monitoring targets;
A calculation range setting unit configured to set a calculation range based on attribute information included in the image data with respect to the three-dimensional point cloud data displayed on the screen;
A feature information extraction unit that extracts feature information of each of the selected data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit;
A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on a result of the extraction by the feature information extraction unit;
A superimposed display processing unit configured to display the image data superimposed on the three-dimensional point group data in the screen based on the matching result of the matching unit;
3D point cloud display equipped with
監視対象を撮影するカメラと、
前記カメラにより撮影して得られた画像データを取得するデータ取得部と、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示システム。
A camera that shoots the monitoring target,
A data acquisition unit for acquiring image data obtained by photographing with the camera;
A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range captured by the camera among the monitoring targets;
A calculation range setting unit configured to set a calculation range by user input to the three-dimensional point group data displayed on the screen;
A feature information extraction unit that extracts feature information of each of the selected data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit;
A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on a result of the extraction by the feature information extraction unit;
A superimposed display processing unit configured to display the image data superimposed on the three-dimensional point group data in the screen based on the matching result of the matching unit;
3D point cloud display system equipped with.
前記表示処理部は、前記演算範囲設定部での前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項10に記載の3次元点群表示システム。
The three-dimensional point cloud display system according to claim 10, wherein the display processing unit creates an image data display area for displaying the image data inside the screen when the setting by the calculation range setting unit is performed. .
監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、
前記演算範囲設定ステップでの設定に基づき前記3次元点群データから選択された選択データと前記データ取得ステップにより取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、
前記特徴情報抽出処理ステップによる前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、
前記マッチング処理ステップでのマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理ステップと、
を有する3次元点群表示方法。
A data acquisition step of acquiring image data obtained by photographing the monitoring target with a camera;
A display processing step of performing processing of displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range photographed by the camera among the monitoring targets;
A calculation range setting step of setting a calculation range by user input to the three-dimensional point cloud data displayed on the screen;
Feature information extraction processing step of extracting feature information of each of the selected data selected from the three-dimensional point cloud data and the image data acquired by the data acquisition step based on the setting in the calculation range setting step;
A matching processing step of matching feature information of the three-dimensional point group data with feature information of the image data based on a result of the extraction by the feature information extraction processing step;
A superimposed display processing step of causing the image data to be superimposed and displayed on the three-dimensional point group data in the screen based on the matching result in the matching processing step;
A three-dimensional point cloud display method having
前記表示処理ステップは、前記演算範囲設定ステップでの前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項12に記載の3次元点群表示方法。
The three-dimensional point cloud display method according to claim 12, wherein the display processing step creates an image data display area for displaying the image data inside the screen when the setting in the calculation range setting step is performed. .
監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、
前記演算範囲設定ステップでの設定に基づき前記3次元点群データから選択された選択データと前記データ取得ステップにより取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、
前記特徴情報抽出処理ステップによる前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、
前記マッチング処理ステップのマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理ステップと、
をコンピュータに実行させるための3次元点群表示プログラム。
A data acquisition step of acquiring image data obtained by photographing the monitoring target with a camera;
A display processing step of performing processing of displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range photographed by the camera among the monitoring targets;
A calculation range setting step of setting a calculation range by user input to the three-dimensional point cloud data displayed on the screen;
Feature information extraction processing step of extracting feature information of each of the selected data selected from the three-dimensional point cloud data and the image data acquired by the data acquisition step based on the setting in the calculation range setting step;
A matching processing step of matching feature information of the three-dimensional point group data with feature information of the image data based on a result of the extraction by the feature information extraction processing step;
A superimposed display processing step of causing the image data to be superimposed and displayed on the three-dimensional point cloud data in the screen based on the matching result of the matching processing step;
Three-dimensional point cloud display program for making a computer execute.
前記表示処理ステップは、前記演算範囲設定ステップでの前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項14に記載の3次元点群表示プログラム。
The three-dimensional point cloud display program according to claim 14, wherein the display processing step creates an image data display area for displaying the image data in the screen when the setting in the calculation range setting step is performed. .
請求項14または15に記載の3次元点群表示プログラムを記録した記録媒体。   A recording medium recording the three-dimensional point cloud display program according to claim 14 or 15.
JP2017222447A 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium Active JP7003594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017222447A JP7003594B2 (en) 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222447A JP7003594B2 (en) 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium

Publications (2)

Publication Number Publication Date
JP2019095876A true JP2019095876A (en) 2019-06-20
JP7003594B2 JP7003594B2 (en) 2022-01-20

Family

ID=66971622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222447A Active JP7003594B2 (en) 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium

Country Status (1)

Country Link
JP (1) JP7003594B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212225A (en) * 2018-06-08 2019-12-12 朝日航洋株式会社 Terminal device and terminal device control method
US20210287356A1 (en) * 2020-03-10 2021-09-16 Nec Corporation Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program
WO2022074739A1 (en) * 2020-10-06 2022-04-14 日本電気株式会社 Processing device, processing system, processing method, and non-transitory computer-readable medium having program stored thereon
JP7080402B1 (en) * 2020-11-10 2022-06-03 三菱電機株式会社 Information management system and information management method
JP2022541670A (en) * 2019-12-13 2022-09-26 ソニーグループ株式会社 Transspectral Feature Detection for Registration and Colorization of Volumetric Images
WO2022244172A1 (en) * 2021-05-20 2022-11-24 三菱電機株式会社 Information processing device, information processing system, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149035A (en) * 2003-11-14 2005-06-09 Mitsubishi Electric Corp Flood monitoring device
WO2008099915A1 (en) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2009053059A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Object specifying device, object specifying method, and object specifying program
JP2016170060A (en) * 2015-03-13 2016-09-23 三菱電機株式会社 Facility information display system, mobile terminal, server and facility information display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149035A (en) * 2003-11-14 2005-06-09 Mitsubishi Electric Corp Flood monitoring device
WO2008099915A1 (en) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2009053059A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Object specifying device, object specifying method, and object specifying program
JP2016170060A (en) * 2015-03-13 2016-09-23 三菱電機株式会社 Facility information display system, mobile terminal, server and facility information display method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212225A (en) * 2018-06-08 2019-12-12 朝日航洋株式会社 Terminal device and terminal device control method
JP2022541670A (en) * 2019-12-13 2022-09-26 ソニーグループ株式会社 Transspectral Feature Detection for Registration and Colorization of Volumetric Images
US20210287356A1 (en) * 2020-03-10 2021-09-16 Nec Corporation Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program
US11869179B2 (en) * 2020-03-10 2024-01-09 Nec Corporation Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program
WO2022074739A1 (en) * 2020-10-06 2022-04-14 日本電気株式会社 Processing device, processing system, processing method, and non-transitory computer-readable medium having program stored thereon
JP7080402B1 (en) * 2020-11-10 2022-06-03 三菱電機株式会社 Information management system and information management method
WO2022244172A1 (en) * 2021-05-20 2022-11-24 三菱電機株式会社 Information processing device, information processing system, information processing method, and information processing program
JPWO2022244172A1 (en) * 2021-05-20 2022-11-24
JP7330420B2 (en) 2021-05-20 2023-08-21 三菱電機株式会社 Information processing device, information processing system, information processing method, and information processing program

Also Published As

Publication number Publication date
JP7003594B2 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
JP7003594B2 (en) 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium
CN110427917B (en) Method and device for detecting key points
KR100793838B1 (en) Appratus for findinng the motion of camera, system and method for supporting augmented reality in ocean scene using the appratus
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
CN1712891B (en) Method for associating stereo image and three-dimensional data preparation system
JP2020042772A (en) Depth data processing system capable of optimizing depth data by image positioning with respect to depth map
JP2011123008A (en) Measuring method, measuring program, and measuring device
JP2012174116A (en) Object display device, object display method and object display program
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
CN115841487B (en) Hidden danger positioning method and terminal along power transmission line
JPWO2015068470A1 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
KR20220085142A (en) Intelligent construction site management supporting system and method based extended reality
JP6521352B2 (en) Information presentation system and terminal
JP2008176768A (en) Image processor
WO2022025283A1 (en) Measurement processing device, method, and program
JP2022105442A (en) Information processing device, information processing method and program
US20220076399A1 (en) Photographing guide device
CN109034214B (en) Method and apparatus for generating a mark
CN112422848B (en) Video stitching method based on depth map and color map
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
KR102458559B1 (en) Construction management system and method using mobile electric device
CN116266402A (en) Automatic object labeling method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213