JP7003594B2 - 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium - Google Patents

3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium Download PDF

Info

Publication number
JP7003594B2
JP7003594B2 JP2017222447A JP2017222447A JP7003594B2 JP 7003594 B2 JP7003594 B2 JP 7003594B2 JP 2017222447 A JP2017222447 A JP 2017222447A JP 2017222447 A JP2017222447 A JP 2017222447A JP 7003594 B2 JP7003594 B2 JP 7003594B2
Authority
JP
Japan
Prior art keywords
point cloud
dimensional point
image data
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017222447A
Other languages
Japanese (ja)
Other versions
JP2019095876A (en
Inventor
亮輔 赤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017222447A priority Critical patent/JP7003594B2/en
Publication of JP2019095876A publication Critical patent/JP2019095876A/en
Application granted granted Critical
Publication of JP7003594B2 publication Critical patent/JP7003594B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、3次元点群表示装置の表示画面上に、カメラで撮影された画像を半自動でマッチングさせて表示させる、3次元点群表示装置、3次元点群表示システム、3次元点群表示方法、3次元点群表示プログラムおよび記録媒体に関するものである。 The present invention is a 3D point cloud display device, a 3D point cloud display system, and a 3D point cloud display that semi-automatically matches and displays images taken by a camera on the display screen of the 3D point cloud display device. The method relates to a three-dimensional point cloud display program and a recording medium.

河川等の広域インフラ監視を行う場合、レーザスキャンにより得られた地形や構造物の3次元点群データを3次元点群表示装置に表示させることがある。そして、3次元点群表示装置の画面上にカメラで撮像された動画や静止画といった画像データを重畳表示することで、画像によるリアルタイム状態と周囲の環境を合わせて確認でき、河川の氾濫状況などを正確に把握することが可能となる。この機能を実現するためには、3次元点群データと画像データのマッチングを行う必要がある。 When monitoring a wide area infrastructure such as a river, the 3D point cloud data of the terrain or structure obtained by laser scanning may be displayed on the 3D point cloud display device. Then, by superimposing image data such as moving images and still images captured by the camera on the screen of the 3D point cloud display device, it is possible to check the real-time state of the image and the surrounding environment together, such as the flooding situation of the river. Can be accurately grasped. In order to realize this function, it is necessary to match the 3D point cloud data and the image data.

従来、3次元点群データと画像データのマッチングを取るために、周辺の実画像を撮影するカメラ、GPS装置から取得したモバイル端末の概略位置の周辺の3次元座標データをサーバから取得し、この取得した3次元座標データと、上記カメラによって撮影された現在の実画像をオルソ補正したものとについて、それぞれ特徴情報を抽出し、この抽出した特徴情報同士をマッチングさせていた(特許文献1)。 Conventionally, in order to match the 3D point group data with the image data, the 3D coordinate data around the approximate position of the mobile terminal acquired from the camera that captures the actual image of the surroundings and the GPS device is acquired from the server. Feature information was extracted from each of the acquired three-dimensional coordinate data and the ortho-corrected current actual image taken by the camera, and the extracted feature information was matched with each other (Patent Document 1).

特開2016-170060号公報(段落[0007])Japanese Unexamined Patent Publication No. 2016-170060 (paragraph [0007])

特許文献1は、モバイル端末での拡張現実を用いて、現実空間の映像に設備情報を重畳表示することを想定したものであり、モバイル端末のユーザは設備に近くにいることが多い。そのため、GPSから現在の概略位置を取得した後、概略位置を中心に半径20メートルの領域を含む3次元地図情報の要求を、サーバの3次元地図情報送信部に送信するように構成されていた。 Patent Document 1 assumes that equipment information is superimposed and displayed on an image in real space by using augmented reality on a mobile terminal, and the user of the mobile terminal is often close to the equipment. Therefore, after acquiring the current approximate position from GPS, it is configured to transmit a request for 3D map information including an area having a radius of 20 meters around the approximate position to the 3D map information transmission unit of the server. ..

しかしながら、広域インフラ監視を行う場合、カメラの周囲にカメラで撮影している画像の対象が存在するとは限らず、特許文献1のように現在の概略位置のGPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせようとしてもマッチングできない可能性があった。 However, in the case of wide area infrastructure monitoring, the object of the image taken by the camera does not always exist around the camera, and as in Patent Document 1, the surrounding three dimensions based on the GPS data of the current approximate position. Even if you tried to match the map information with the actual image, there was a possibility that they could not be matched.

本発明は上記のような課題を解決するためになされたものであり、3次元点群データと画像データのマッチングを行う上で、3次元点群データと画像データとのマッチングを確実に行わせる3次元点群表示装置を得ることを目的とする。 The present invention has been made to solve the above-mentioned problems, and in matching the three-dimensional point cloud data and the image data, the matching between the three-dimensional point cloud data and the image data is surely performed. The purpose is to obtain a three-dimensional point cloud display device.

本発明に係る3次元点群表示装置は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。 The three-dimensional point group display device according to the present invention includes a data acquisition unit that acquires image data obtained by photographing a monitored object with a camera, and at least a part of a range photographed by the camera among the monitored objects. A display processing unit that performs processing to display the 3D point group data obtained by measuring in step 1 on the screen, and a calculation range setting that sets the calculation range by user input for the 3D point group data displayed on the screen. A feature information extraction unit and a feature information extraction unit that extract feature information of each of the selection data selected from the three-dimensional point group data based on the settings of the unit, the calculation range setting unit, and the image data acquired by the data acquisition unit. Based on the result of extraction by, the matching unit that matches the feature information of the 3D point group data and the feature information of the image data, and the matching result of the matching section, the image is displayed on the 3D point group data in the screen. It is equipped with a superimposition display processing unit for superimposing and displaying data.

本発明に係る3次元点群表示装置は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、画像データに含まれる属性情報により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。 The three-dimensional point group display device according to the present invention includes a data acquisition unit that acquires image data obtained by photographing a monitored object with a camera, and at least a part of a range photographed by the camera among the monitored objects. The display processing unit that performs the processing to display the 3D point group data obtained by measuring in step 1 and the 3D point group data displayed on the screen are set in the calculation range by the attribute information included in the image data. A feature information extraction unit that extracts the feature information of the selection data selected from the three-dimensional point group data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit. , Based on the result of extraction by the feature information extraction unit, the matching section that matches the feature information of the 3D point group data and the feature information of the image data, and the 3D point group on the screen based on the matching result of the matching section. It is provided with a superimposition display processing unit that superimposes and displays image data on the data.

また、本発明に係る3次元点群表示システムは、監視対象を撮影するカメラと、カメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。 Further, in the three-dimensional point group display system according to the present invention, a camera that captures a monitored object, a data acquisition unit that acquires image data acquired by the camera, and a monitored object, which is captured by the camera. A display processing unit that performs processing to display the 3D point group data obtained by measuring including at least a part of the range on the screen, and a calculation range for the 3D point group data displayed on the screen by user input. Feature information extraction that extracts the feature information of the selection data selected from the 3D point group data and the image data acquired by the data acquisition section based on the settings of the calculation range setting section and the calculation range setting section. Based on the result of extraction by the section and the feature information extraction section, the matching section that matches the feature information of the three-dimensional point group data and the feature information of the image data, and the matching section, based on the matching result of the matching section, are three-dimensional in the screen. It is provided with a superimposition display processing unit that superimposes and displays image data on the point group data.

また本発明に係る3次元点群表示方法は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、演算範囲設定ステップでの設定に基づき3次元点群データから選択された選択データとデータ取得ステップにより取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、特徴情報抽出処理ステップによる抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、マッチング処理ステップでのマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理スを有している。 Further, the three-dimensional point group display method according to the present invention includes a data acquisition step of acquiring image data obtained by photographing a monitored object with a camera, and at least a part of a range photographed by the camera among the monitored objects. A display processing step that performs processing to display the 3D point group data obtained by including and measuring on the screen, and a calculation range that sets the calculation range by user input for the 3D point group data displayed on the screen. A feature information extraction processing step that extracts the feature information of each of the selection data selected from the three-dimensional point group data based on the setting in the setting step and the calculation range setting step and the image data acquired by the data acquisition step, and the feature. Based on the result of extraction by the information extraction processing step, the matching processing step that matches the feature information of the three-dimensional point group data and the feature information of the image data with each other, and the matching result in the matching processing step, three dimensions are displayed on the screen. It has a superimposition display process that superimposes and displays image data on point group data.

また、本発明に係る3次元点群表示プログラムは、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、演算範囲設定ステップでの設定に基づき3次元点群データから選択された選択データとデータ取得ステップにより取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、特徴情報抽出処理ステップによる抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、マッチング処理ステップのマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理ステップと、をコンピュータに実行させる。 Further, the three-dimensional point group display program according to the present invention includes a data acquisition step of acquiring image data obtained by photographing a monitored object with a camera, and at least a part of a range photographed by the camera among the monitored objects. A display processing step that performs processing to display the 3D point group data obtained by measuring including the above, and a calculation that sets the calculation range by user input for the 3D point group data displayed on the screen. A feature information extraction processing step that extracts feature information of each of the selection data selected from the three-dimensional point group data based on the settings in the range setting step and the calculation range setting step and the image data acquired by the data acquisition step. Based on the result of extraction by the feature information extraction processing step, the matching processing step that matches the feature information of the three-dimensional point group data and the feature information of the image data, and the matching result of the matching processing step, are three-dimensional in the screen. A computer is made to execute a superimposed display processing step of superimposing and displaying image data on the point group data.

また、本発明に係る記録媒体は、上記3次元点群表示プログラムが記録されている。 Further, the recording medium according to the present invention records the above-mentioned three-dimensional point cloud display program.

また、本発明に係る3次元点群表示装置によれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point cloud display device according to the present invention, it is possible to reliably perform matching between the three-dimensional point cloud data and the image data.

また、本発明に係る3次元点群表示システムによれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point cloud display system according to the present invention, it is possible to reliably perform matching between the three-dimensional point cloud data and the image data.

また、本発明に係る3次元点群表示方法によれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point cloud display method according to the present invention, it is possible to reliably perform matching between the three-dimensional point cloud data and the image data.

また、本発明に係る3次元点群表示プログラムによれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point cloud display program according to the present invention, it is possible to reliably perform matching between the three-dimensional point cloud data and the image data.

また、本発明に係る記録媒体によれば、上記プログラムを記録しており、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the recording medium according to the present invention, the above program is recorded, and it becomes possible to surely perform matching between the three-dimensional point cloud data and the image data.

実施の形態1に係る3次元点群表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the 3D point cloud display system which concerns on Embodiment 1. FIG. 実施の形態1に係る3次元点群表示装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the 3D point cloud display device which concerns on Embodiment 1. FIG. 実施の形態1に係る監視対象として河川を想定した場合のカメラとレーザスキャナの配置の例を示す図である。It is a figure which shows the example of the arrangement of the camera and the laser scanner when the river is assumed as the monitoring target which concerns on Embodiment 1. FIG. 実施の形態1に係る3次元点群表示装置の動作を示すフローチャート図である。It is a flowchart which shows the operation of the 3D point cloud display device which concerns on Embodiment 1. FIG. 実施の形態1に係る画像データと、3次元点群データを表示する表示器における画面の内容を示す図である。It is a figure which shows the content of the screen in the display | display which displays the image data which concerns on Embodiment 1 and 3D point cloud data. 実施の形態1に係る演算範囲設定部として機能するメッセージ入力画面の構成を示す図である。It is a figure which shows the structure of the message input screen which functions as the calculation range setting part which concerns on Embodiment 1. FIG. 実施の形態1に係る特徴情報抽出作業と、マッチング作業の内容を説明するための図である。It is a figure for demonstrating the contents of the feature information extraction work and the matching work which concerns on Embodiment 1. FIG. 実施の形態1に係る重畳表示処理部が表示器において画像データを3次元点群データに重畳表示させることを示す図である。It is a figure which shows that the superimposition display processing unit which concerns on Embodiment 1 superimposes and displays image data on 3D point cloud data in a display. 実施の形態2に係る入力部としてポインティングデバイスを利用して演算範囲を設定する場合のブロック図であるIt is a block diagram in the case of setting a calculation range by using a pointing device as an input unit which concerns on Embodiment 2. FIG. 実施の形態2に係るポインティングデバイスを利用しての演算範囲を設定する設定画面である。This is a setting screen for setting a calculation range using the pointing device according to the second embodiment. 実施の形態3に係る演算部の構成を示すブロック図である。It is a block diagram which shows the structure of the arithmetic part which concerns on Embodiment 3. 実施の形態3に係る3次元点群表示装置の動作を示すフローチャート図である。It is a flowchart which shows the operation of the 3D point cloud display device which concerns on Embodiment 3. FIG. 実施の形態3に係る変形例を示す図である。It is a figure which shows the modification which concerns on Embodiment 3. 実施の形態4に係る、3次元点群表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the 3D point cloud display system which concerns on Embodiment 4. 実施の形態4に係る3次元点群表示装置の動作を示すフローチャート図である。It is a flowchart which shows the operation of the 3D point cloud display device which concerns on Embodiment 4. FIG. 実施の形態4に係る3次元点群データを表示する表示器における画面の内容を示す図である。It is a figure which shows the content of the screen in the display | display which displays the 3D point cloud data which concerns on Embodiment 4. FIG. 実施の形態4に係る変形例の動作を示すフローチャート図である。It is a flowchart which shows the operation of the modification which concerns on Embodiment 4. FIG.

以下に、本発明の実施の形態に係る3次元点群表示装置、3次元点群表示システム装置、3次元点群表示方法について図面に基づいて詳細に説明する。なお、各実施の形態により本発明が限定されるものではなく、各実施の形態を組み合わせたり適宜変更したりすることができる。また、各実施の形態で同等の構成については、同一の符号を付してその説明を省略などする。 Hereinafter, the three-dimensional point cloud display device and the three-dimensional point cloud display system device and the three-dimensional point cloud display method according to the embodiment of the present invention will be described in detail with reference to the drawings. The present invention is not limited to each embodiment, and each embodiment can be combined or appropriately modified. Further, the same reference numerals are given to the equivalent configurations in each embodiment, and the description thereof will be omitted.

実施の形態1.
本発明の実施の形態1について、図1から図8を用いて説明する。実施の形態1の概要は、画面に表示される3次元点群データに対してマッチング作業を行う演算範囲の設定を受け付ける演算範囲設定部を設けたことである。
Embodiment 1.
Embodiment 1 of the present invention will be described with reference to FIGS. 1 to 8. The outline of the first embodiment is to provide a calculation range setting unit that accepts the setting of the calculation range for performing matching work on the three-dimensional point cloud data displayed on the screen.

図1は実施の形態1に係る3次元点群表示システム40の構成を示すブロック図である。3次元点群表示システム40は、3次元点群表示装置1と、カメラユニット20と、記憶部30とを含んでいる。記憶部は3次元点群表示装置1とは別の構成として開示しているが、3次元点群表示装置1自体に十分な記録保存領域があれば、3次元点群表示装置1の中に記憶部30を設けてもよい。 FIG. 1 is a block diagram showing a configuration of a three-dimensional point cloud display system 40 according to the first embodiment. The three-dimensional point cloud display system 40 includes a three-dimensional point cloud display device 1, a camera unit 20, and a storage unit 30. The storage unit is disclosed as a configuration different from that of the 3D point cloud display device 1, but if the 3D point cloud display device 1 itself has a sufficient recording / storage area, the 3D point cloud display device 1 may contain the storage unit. A storage unit 30 may be provided.

3次元点群表示装置1は、3次元点群表示装置1の各種機能を実現する3次元点群表示プログラムとしてのプログラムP(後に詳述する)と、カメラユニット20から不図示のネットワーク等を介して送信される画像データ22および記憶部30から呼び出される3次元点群データ31を取得するデータ取得部2と、データ取得部2が取得した画像データ22、3次元点群データ31および後述の演算範囲設定部6による演算範囲の設定に関するデータをデータ取得部2から取り込んでディスプレイなどの表示器4に表示する処理を行う表示処理部3と、マウス、トラックボール、キーボードなどの外部の接続機器である入力部7からの入力を受け付ける入力受付部5と、を含んでいる。 The 3D point cloud display device 1 includes a program P (described in detail later) as a 3D point cloud display program that realizes various functions of the 3D point cloud display device 1, and a network (not shown) from the camera unit 20. The data acquisition unit 2 that acquires the three-dimensional point cloud data 31 called from the image data 22 and the storage unit 30 transmitted via the data acquisition unit 2, the image data 22, the three-dimensional point cloud data 31 acquired by the data acquisition unit 2, and described later. A display processing unit 3 that takes in data related to the setting of the calculation range by the calculation range setting unit 6 from the data acquisition unit 2 and displays it on a display 4 such as a display, and an external connection device such as a mouse, a track ball, or a keyboard. It includes an input receiving unit 5 that accepts input from the input unit 7 and the like.

また、3次元点群表示装置1は、各種演算を行う演算部8を備えている。演算部8は、データ取得部2で取得した画像データ22のカメラ21からの視点と3次元点群データ31の視点を対応させる視点対応部9と、画像データ22および3次元点群データ31を取り込んでエッジ情報などに関する各々の特徴情報を抽出する特徴情報抽出部10と、抽出した各々の特徴情報に基づき画像データ22および3次元点群データ31に関するマッチングを行うマッチング部11と、を含んでいる。 Further, the three-dimensional point cloud display device 1 includes a calculation unit 8 that performs various calculations. The calculation unit 8 has a viewpoint correspondence unit 9 for associating the viewpoint of the image data 22 acquired by the data acquisition unit 2 with the viewpoint of the camera 21 and the viewpoint of the three-dimensional point cloud data 31, and the image data 22 and the three-dimensional point cloud data 31. It includes a feature information extraction unit 10 that captures and extracts each feature information related to edge information and the like, and a matching unit 11 that performs matching regarding image data 22 and three-dimensional point cloud data 31 based on each extracted feature information. There is.

データ取得部2は、表示器4に表示された不図示のデータ範囲取得画面での入力部7による設定に関する入力を入力受付部5から受信した場合、記憶部30と通信を行い、表示器4に表示させる3次元点群データ31のデータ範囲を絞ってデータ取得を行うように構成される。例えば、図3において説明を行う監視対象についての選択をしたり、3次元点群データ31の取得時期を選択したり、といったことが想定される。また、データ取得部2は、演算部8における演算範囲を設定する演算範囲設定部6を含んでいる。 When the data acquisition unit 2 receives from the input reception unit 5 the input related to the setting by the input unit 7 on the data range acquisition screen (not shown) displayed on the display unit 4, the data acquisition unit 2 communicates with the storage unit 30 and the display unit 4 It is configured to narrow down the data range of the three-dimensional point cloud data 31 to be displayed in the data acquisition. For example, it is assumed that the monitoring target to be described in FIG. 3 is selected, or the acquisition time of the three-dimensional point cloud data 31 is selected. Further, the data acquisition unit 2 includes a calculation range setting unit 6 for setting a calculation range in the calculation unit 8.

また、表示処理部3は、マッチング部11によるマッチングの結果に基づき、3次元点群データ31の上に画像データ22を位置合わせして重畳表示する重畳表示処理部12を有している。 Further, the display processing unit 3 has a superimposed display processing unit 12 that aligns and displays the image data 22 on the three-dimensional point cloud data 31 based on the matching result by the matching unit 11.

特徴抽出部10と、マッチング部11および重畳表示処理部12の各々の処理をするタイミングについて説明する。ある時点での画像データ22を利用して行う特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業は、少なくとも3次元点群表示システ40を構築する際に、初期設定として行うだけで十分である。3次元点群表示システム40を運用する段階では初期設定として行ったマッチング部11のマッチングの結果を利用して、重畳表示処理部12が、データ取得部2から都度取得される画像データ22を3次元点群表示データ31の各点と対応する位置に重畳表示すればよい。 The timing of each processing of the feature extraction unit 10, the matching unit 11, and the superimposed display processing unit 12 will be described. At least the three-dimensional point cloud display system 40 is used for the feature extraction work performed by the feature extraction unit 10 using the image data 22 at a certain point in time and the matching work performed by the matching unit 11 using the extracted feature information. When building, it is enough to do it as an initial setting. At the stage of operating the three-dimensional point cloud display system 40, the superimposed display processing unit 12 uses the matching result of the matching unit 11 performed as the initial setting to obtain 3 image data 22 acquired from the data acquisition unit 2 each time. It may be superimposed and displayed at the position corresponding to each point of the dimension point cloud display data 31.

カメラユニット20は、河川などの環境や工場などの設備といった監視対象を撮影するカメラ21と、カメラ21により撮影された画像データ22を3次元点群表示装置1のデータ取得部2へ送信するデータ送信部23とを含んでいる。 The camera unit 20 transmits data to the data acquisition unit 2 of the three-dimensional point cloud display device 1 for the camera 21 that captures a monitored object such as an environment such as a river or equipment such as a factory, and the image data 22 captured by the camera 21. The transmission unit 23 and the like are included.

なお、カメラ21により撮影される画像データ22は静止画であっても動画であってもよい。ただし特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業は、画像データ22が動画の場合には、予め定められた期間に撮影された画像データ22としての動画データの平均値を利用したり、予め定められた期間における任意の時点での1つの画像を利用したりすることが好ましい。すなわち、リアルタイムに変化する動画に基づいてマッチングを行おうとすると、特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業を行おうとすると、計算量が膨大になる可能性があるためである。 The image data 22 captured by the camera 21 may be a still image or a moving image. However, when the image data 22 is a moving image, the feature extraction work by the feature extraction unit 10 and the matching work by the matching unit 11 using the extracted feature information are images taken in a predetermined period. It is preferable to use the average value of the moving image data as the data 22, or to use one image at an arbitrary time point in a predetermined period. That is, when trying to perform matching based on a moving image that changes in real time, when attempting to perform feature extraction work on the feature extraction unit 10 and matching work by the matching unit 11 using the extracted feature information, the amount of calculation is calculated. This is because can be enormous.

記憶部30は、レーザスキャナ24(図3を参照)などにより予め監視対象やその周囲をスキャンして取得した複数の点を3次元点群データ31として格納している。3次元点群データ31は、たとえば、X軸、Y軸、Z軸により構成されるワールド座標系の空間における点である。なお、3次元点群データ31は、不図示のGPSデータなども利用して、各点が、絶対座標を保有してもよい。 The storage unit 30 stores a plurality of points acquired by scanning the monitoring target and its surroundings in advance with a laser scanner 24 (see FIG. 3) or the like as three-dimensional point cloud data 31. The three-dimensional point cloud data 31 is, for example, a point in the space of the world coordinate system composed of the X axis, the Y axis, and the Z axis. In the three-dimensional point cloud data 31, each point may have absolute coordinates by using GPS data (not shown) or the like.

図2は、3次元点群表示装置1のハードウェア構成例を示す図である。図2に示すように、3次元点群表示装置1は、プロセッサ100と、メモリ101と、インタフェース回路102とを備えている。プロセッサ100、メモリ101、インタフェース回路102は、システムバス103によりそれぞれ通信可能に接続されている。 FIG. 2 is a diagram showing a hardware configuration example of the three-dimensional point cloud display device 1. As shown in FIG. 2, the three-dimensional point cloud display device 1 includes a processor 100, a memory 101, and an interface circuit 102. The processor 100, the memory 101, and the interface circuit 102 are connected to each other so as to be able to communicate with each other by the system bus 103.

プロセッサ100は、記録媒体としてのメモリ101に格納されたプログラムPを呼び出すことで、コンピュータとしての3次元点群表示装置1aにおける表示処理部3の機能を実現したり、重畳表示処理部12の機能を実現したり、演算部8における特徴情報抽出部10の機能を実現したり、マッチング部11の機能を実現したり、その他のデータ処理の機能を実現したりする。 By calling the program P stored in the memory 101 as a recording medium, the processor 100 realizes the function of the display processing unit 3 in the three-dimensional point cloud display device 1a as a computer, or the function of the superimposed display processing unit 12. , The function of the feature information extraction unit 10 in the calculation unit 8, the function of the matching unit 11, and other data processing functions are realized.

さらにプロセッサ100は、インタフェース回路102を介して接続される入力部7においてユーザが入力を行った場合、メモリ101における入力受付部5が入力を受け付けることで、記憶部30の3次元点群データ31のデータをデータ処理(抽出、加工、変換等)することが可能である。 Further, when the user inputs an input in the input unit 7 connected via the interface circuit 102, the processor 100 receives the input in the input receiving unit 5 in the memory 101, so that the three-dimensional point group data 31 of the storage unit 30 is received. Data can be processed (extracted, processed, converted, etc.).

なお、プロセッサ100は、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち1以上を含む。メモリ101は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Enable Program Read Only Memory)をはじめとした不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち1以上を含んでいる。また、本ハードウェアの構成は、実施の形態1について説明したが、本発明の各実施の形態も同様のハードウェア構成を採用することが可能である。 The processor 100 is an example of a processing circuit, and includes one or more of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration). The memory 101 includes a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, and an EPROM (Enable Program Read Only Memory), a magnetic disk, a flexible memory, an optical disk, and the like. Includes one or more of compact discs and DVDs (Digital Versailles Disc). Further, although the configuration of the present hardware has been described with respect to the first embodiment, the same hardware configuration can be adopted for each embodiment of the present invention.

図3は、監視対象として河川25を想定した場合のカメラ21とレーザスキャナ24の配置の例を示す図である。カメラ21とレーザスキャナ24は河川25見渡せる高台26に設置されている。高台26は川岸125に対して河川25よりも離れた位置に位置する。 FIG. 3 is a diagram showing an example of the arrangement of the camera 21 and the laser scanner 24 when the river 25 is assumed as the monitoring target. The camera 21 and the laser scanner 24 are installed on a hill 26 overlooking the river 25. The hill 26 is located at a position farther from the river 25 than the river bank 125.

カメラ21により河川25を撮影することにより、水位の変化や河川氾濫の可能性などをリアルタイムに監視することが可能となる。カメラ21は、監視対象である河川25以外に、周囲の環境や構造物を合わせて撮影することがある。例えば、カメラ21の撮影方向を撮影方向121aとし、河川25の近辺に存在する構造物としての倉庫27や住宅28を撮影対象として収める撮影フレーム29とすることで、河川25の状況を分かりやすく把握できる。 By photographing the river 25 with the camera 21, it is possible to monitor changes in the water level and the possibility of river flooding in real time. The camera 21 may take a picture of the surrounding environment and structures in addition to the river 25 to be monitored. For example, by setting the shooting direction of the camera 21 to the shooting direction 121a and setting the shooting frame 29 to accommodate the warehouse 27 and the house 28 as structures existing in the vicinity of the river 25, the situation of the river 25 can be grasped in an easy-to-understand manner. can.

一方、レーザスキャナ24は、スキャン部が可動式となっており、通常、カメラ21よりも広いエリアをスキャンして、3次元点群データ31として記憶部30に格納される。しかしながらこのような構成に限られず、レーザスキャナ24は、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して3次元点群データ31を得るように設けられればよい。すなわち、監視対象に対して、画像データ22と3次元点群データ31とのデータの範囲が重なる部分を有していればよい。 On the other hand, the laser scanner 24 has a movable scanning unit, and normally scans an area wider than the camera 21 and stores it in the storage unit 30 as three-dimensional point cloud data 31. However, the present invention is not limited to such a configuration, and the laser scanner 24 may be provided so as to obtain the three-dimensional point cloud data 31 by measuring including at least a part of the range captured by the camera 21 among the monitoring targets. .. That is, it is sufficient that the monitoring target has a portion where the data ranges of the image data 22 and the three-dimensional point cloud data 31 overlap.

なお、撮影方向121aとは、例えば、撮影フレーム29の中心とカメラ21とを結ぶ方向のことを示す。カメラ21の撮影方向121aは不図示の方位センサ等により取得され、カメラ21の撮影位置121bは不図示のGPSデータ等により取得される。撮影方向121aと撮影位置121bに関する情報は、たとえば画像データ22に埋め込まれて記録されている。 The shooting direction 121a indicates, for example, a direction connecting the center of the shooting frame 29 and the camera 21. The shooting direction 121a of the camera 21 is acquired by an orientation sensor or the like (not shown), and the shooting position 121b of the camera 21 is acquired by GPS data or the like (not shown). Information about the shooting direction 121a and the shooting position 121b is embedded in, for example, the image data 22 and recorded.

なお、マッチング部11によるマッチングを行うに当たって、カメラ21による撮影時期と、レーザスキャナ24によるスキャンの時期は同じ時期か近い時期の方が、画像データ22と3次元点群データとの相違が少ないために演算部8による各種の演算に好適である。しかしながら、両者のデータの時期が離れていても演算部8による各種の演算を行うことは可能である。 When matching is performed by the matching unit 11, the difference between the image data 22 and the three-dimensional point cloud data is smaller when the shooting time by the camera 21 and the scanning time by the laser scanner 24 are the same or close to each other. It is suitable for various calculations by the calculation unit 8. However, it is possible for the calculation unit 8 to perform various calculations even if the timings of the two data are different.

図4は、3次元点群表示装置1の動作を示すフローチャート図である。図1、図5から図8も適宜参照して説明を行う。まず、図1に示すように、データ取得部2は、画像データ22と3次元点群データ31とを取得する(図4のデータ取得ステップST1)。なお、以下の各ステップの説明において、説明を簡略化するために、単にステップST1、ステップST2などとステップの名称を省略した形で記載することがあることを述べておく。 FIG. 4 is a flowchart showing the operation of the three-dimensional point cloud display device 1. A description will be given with reference to FIGS. 1 and 5 to 8 as appropriate. First, as shown in FIG. 1, the data acquisition unit 2 acquires the image data 22 and the three-dimensional point cloud data 31 (data acquisition step ST1 in FIG. 4). It should be noted that in the following description of each step, in order to simplify the description, the steps ST1, step ST2, etc. may be simply described with the step names omitted.

図5に示すように、表示処理部3は、データ取得部2から受け取った画像データ22と3次元点群データ31とを処理して、画像データ22と3次元点群データ31を表示器4に表示する(表示処理ステップST2)。ワールド座標系である3次元点群データ31は、スクリーン座標系として視点を切り替え可能に表示器4に表示される。次に、ユーザが入力部7を用いて入力を行い、入力受付部5を介して視点対応部9によりカメラ21の座標(位置)を表示器4の画面4a(図5)のように設定する(視点対応処理ステップST3)。 As shown in FIG. 5, the display processing unit 3 processes the image data 22 and the three-dimensional point cloud data 31 received from the data acquisition unit 2, and displays the image data 22 and the three-dimensional point cloud data 31 in the display unit 4. (Display processing step ST2). The three-dimensional point cloud data 31, which is a world coordinate system, is displayed on the display 4 so that the viewpoint can be switched as a screen coordinate system. Next, the user inputs using the input unit 7, and the coordinate (position) of the camera 21 is set by the viewpoint corresponding unit 9 via the input receiving unit 5 as shown in the screen 4a (FIG. 5) of the display unit 4. (Viewpoint correspondence processing step ST3).

その後、カメラ21の視点と3次元点群データ31の視点が一致した画面4b(図6)を表示される(視点対応画面表示処理ステップST4)。視点対応処理ステップST3および視点対応画面表示処理ステップST4の内容を図5および図6を用いて詳細に説明する。 After that, the screen 4b (FIG. 6) in which the viewpoint of the camera 21 and the viewpoint of the three-dimensional point cloud data 31 match is displayed (viewpoint corresponding screen display processing step ST4). The contents of the viewpoint correspondence processing step ST3 and the viewpoint correspondence screen display processing step ST4 will be described in detail with reference to FIGS. 5 and 6.

図5は、画像データ22と、3次元点群データ31を表示する表示器4における画面4aの内容を示す図である。監視対象となった河川25やその周囲の構造物と、3次元点群データ31との関係性を説明する。画面4aでは、河川25は点群河川25a、川岸125は点群川岸125a、河川25と川岸125の境界を第1の点群境界25a1、第2の点群境界25a2、倉庫27は点群倉庫27a、住宅28は点群住宅28a、カメラ21は点群カメラ21aとして3次元点群データ31により表示されている。 FIG. 5 is a diagram showing the contents of the screen 4a on the display 4 for displaying the image data 22 and the three-dimensional point cloud data 31. The relationship between the river 25 to be monitored and the structures around it and the three-dimensional point cloud data 31 will be described. On the screen 4a, the river 25 is a point cloud river 25a, the riverbank 125 is a point cloud riverbank 125a, the boundary between the river 25 and the riverbank 125 is the first point cloud boundary 25a1, the second point cloud boundary 25a2, and the warehouse 27 is the point cloud warehouse. 27a, the house 28 is displayed as a point cloud house 28a, and the camera 21 is displayed as a point cloud camera 21a by the three-dimensional point cloud data 31.

監視対象となった河川25やその周囲の構造物と、画像データ22との関係性を説明する。表示器4は、画面4aにおいて、角部の表示領域に画像データ22の内容が画像データ表示領域41(画像フレーム)を作成し、3次元点群データ31と画像データ22とを両方合わせて確認できる。後に詳述する演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。なお、画像データ表示領域41に表示される画像データ22は、リアルタイムに映し出されるものであってもよいし、ある時点で撮影されたものであってもよい。 The relationship between the river 25 to be monitored and the structures around it and the image data 22 will be described. On the screen 4a, the display 4 creates an image data display area 41 (image frame) in which the content of the image data 22 is displayed in the corner display area, and confirms both the three-dimensional point cloud data 31 and the image data 22 together. can. This has the effect of efficiently performing the work of setting the calculation range by the calculation range setting unit 6, which will be described in detail later. The image data 22 displayed in the image data display area 41 may be projected in real time or may be captured at a certain point in time.

画像データ表示領域41では、河川25は画像河川25b、河川25の水の色合い起伏などが画像河川水25b1、倉庫27は画像倉庫27b、住宅28は画像住宅28bとして画像データ22により表示されている。 In the image data display area 41, the river 25 is displayed as an image river 25b, the color undulations of the water of the river 25 are displayed as image river water 25b1, the warehouse 27 is displayed as an image warehouse 27b, and the house 28 is displayed as an image house 28b by the image data 22. ..

なお、画像データ表示領域41は画面4aの角部(たとえば画面4aの対角の端部領域)に配置されることで、画面4aにおける3次元点群データ31の表示領域での視認性の低下を抑制でき、画像データ22と3次元点群データ31との両者の状態を効率よく把握することが可能である。ただし、画像データ表示領域41を設けないで、画面4aには3次元点群データ31だけを表示し、画像データ22は不図示の別の画面に表示するようにしてもよい。 By arranging the image data display area 41 at the corner of the screen 4a (for example, the diagonal end area of the screen 4a), the visibility of the three-dimensional point cloud data 31 on the screen 4a is reduced in the display area. It is possible to efficiently grasp the states of both the image data 22 and the three-dimensional point cloud data 31. However, the image data display area 41 may not be provided, and only the three-dimensional point cloud data 31 may be displayed on the screen 4a, and the image data 22 may be displayed on another screen (not shown).

ところで、3次元点群データ31と画像データ22とのマッチング部11によるマッチング作業を行う上では、互いの視点が一致した状態で特徴情報抽出部10による特徴情報の抽出が好ましい。すなわち、互いの視点がずれていると、特徴情報抽出部10により抽出された3次元点群データ31の特徴情報と画像データ22の特徴情報とが、アスペクト比が異なった状態で抽出されてしまい、マッチング部11によるマッチング作業が精度よく実行されない恐れがあるためである。ただし、必ずしも視点の一致を行わなくても、ある程度マッチング作業を行うことは可能である。 By the way, in performing the matching work by the matching unit 11 of the three-dimensional point cloud data 31 and the image data 22, it is preferable to extract the feature information by the feature information extraction unit 10 in a state where the viewpoints of each other match. That is, if the viewpoints are deviated from each other, the feature information of the three-dimensional point cloud data 31 and the feature information of the image data 22 extracted by the feature information extraction unit 10 are extracted in a state where the aspect ratios are different. This is because the matching work by the matching unit 11 may not be executed accurately. However, it is possible to perform matching work to some extent without necessarily matching the viewpoints.

そこで、3次元点群データ31と画像データ22との視点を合わせるために、例えば、画面4aにおいて、入力部7としてのマウスによるカーソル29を点群カメラ21aの位置に合わせると、点群カメラ21aの座標が表示される(視点対応処理ステップST3)。そして、カメラの視点にビューワの視点を合わせるかどうかのメッセージ42が表示される。そして、Yesのチェックボックスでの「Yes」の選択を行う(視点対応処理ステップST3)。その後、図6に示すように3次元点群データ31と画像データ22との視点が一致するように表示器4は画面4bを表示する(図4の視点対応画面表示処理ステップST4)。 Therefore, in order to align the viewpoints of the three-dimensional point cloud data 31 and the image data 22, for example, when the cursor 29 by the mouse as the input unit 7 is aligned with the position of the point cloud camera 21a on the screen 4a, the point cloud camera 21a The coordinates of are displayed (viewpoint correspondence processing step ST3). Then, a message 42 asking whether or not to match the viewpoint of the viewer with the viewpoint of the camera is displayed. Then, "Yes" is selected in the Yes check box (viewpoint correspondence processing step ST3). After that, as shown in FIG. 6, the display 4 displays the screen 4b so that the viewpoints of the three-dimensional point cloud data 31 and the image data 22 match (viewpoint corresponding screen display processing step ST4 in FIG. 4).

なお、画面4aに、点群カメラ21aが存在しない場合がある。その場合には、たとえば、カメラ21を設置した際にカメラの設置位置の絶対座標を記録して管理している不図示の設備管理データベースを参照する。そして、参照した絶対座標のデータを入力部7で入力し、点群データ31の絶対座標と対応させるなどすることで視点対応処理ステップST3を実行してもよい。 The point cloud camera 21a may not exist on the screen 4a. In that case, for example, a facility management database (not shown) that records and manages the absolute coordinates of the camera installation position when the camera 21 is installed is referred to. Then, the viewpoint correspondence processing step ST3 may be executed by inputting the referenced absolute coordinate data in the input unit 7 and making it correspond to the absolute coordinates of the point cloud data 31.

図6は、演算範囲設定部6として機能するメッセージ入力画面44の構成を示す図である。演算範囲設定部6により、3次元点群データ31における演算を行う演算範囲の設定を行う(図4の演算範囲設定テップST5)。すなわち、演算範囲設定部6による演算範囲の設定基づき3次元点群データ31から選択された選択データ31aに対して、演算部8は演算を行う。 FIG. 6 is a diagram showing a configuration of a message input screen 44 that functions as a calculation range setting unit 6. The calculation range setting unit 6 sets the calculation range for performing the calculation in the three-dimensional point cloud data 31 (calculation range setting step ST5 in FIG. 4). That is, the calculation unit 8 performs a calculation on the selection data 31a selected from the three-dimensional point cloud data 31 based on the setting of the calculation range by the calculation range setting unit 6.

なお、演算範囲設定部6の設定によりマッチング部11によるマッチング作業の範囲のみを設定し特徴情報抽出部10による特徴情報の抽出は3次元点群データ31の全領域で行ってもよいし、特徴情報抽出部10による特徴情報の抽出およびマッチング部11によるマッチング作業の両者の範囲を設定するようにしてもよい。すなわち、少なくとも、3次元点群データ31におけるマッチング部11のマッチング作業の範囲が設定されていればよい。 In addition, only the range of the matching work by the matching unit 11 may be set by the setting of the calculation range setting unit 6, and the feature information may be extracted by the feature information extraction unit 10 in the entire area of the three-dimensional point group data 31. The range of both the feature information extraction by the information extraction unit 10 and the matching work by the matching unit 11 may be set. That is, at least the range of the matching work of the matching unit 11 in the three-dimensional point cloud data 31 may be set.

メッセージ入力画面44に対する具体的な入力方法について説明する。画像データ22と3次元点群データ31とをマッチングさせるためには、画像データ22全体が包含される3次元点群データ31の領域を設定することが好ましい。しかしながら3次元点群データ31において広い領域を演算範囲として設定すると演算部8による演算量が多くなってしまう。そこで、画面フレーム41と画面4bに共通して表示される構造物などを目印に、その周囲の範囲を演算の対象とする演算範囲として設定することが好ましい。 A specific input method for the message input screen 44 will be described. In order to match the image data 22 with the three-dimensional point cloud data 31, it is preferable to set an area of the three-dimensional point cloud data 31 including the entire image data 22. However, if a wide area is set as the calculation range in the three-dimensional point cloud data 31, the amount of calculation by the calculation unit 8 will increase. Therefore, it is preferable to set the range around the structure as a mark, which is commonly displayed on the screen frame 41 and the screen 4b, as the calculation range to be calculated.

例えば、倉庫27(点群倉庫27a、画像倉庫27b)が共通して存在する目印とした場合、点群倉庫27aにカーソル29を合わせて点群倉庫27aの座標(X1,Y1,Z1)を表示させ、その座標の情報を基に、メッセージ入力画面44に演算範囲(X1-α1≦X1≦X1+α2、Y1-β1≦X1≦X1+β2、Z1-γ1≦X1≦X1+γ2)を設定する。このように3次元点群データ31と画像データ22に共通して表示される構造物の座標を目印に演算範囲を設定することで、演算量を抑えつつ、マッチング作業を確実に実行させることが可能となる。 For example, when the warehouse 27 (point cloud warehouse 27a, image warehouse 27b) is used as a common marker, the coordinates (X1, Y1, Z1) of the point cloud warehouse 27a are displayed by moving the cursor 29 to the point cloud warehouse 27a. Then, the calculation range (X1-α1 ≦ X1 ≦ X1 + α2, Y1-β1 ≦ X1 ≦ X1 + β2, Z1-γ1 ≦ X1 ≦ X1 + γ2) is set on the message input screen 44 based on the coordinate information. By setting the calculation range using the coordinates of the structure commonly displayed in the three-dimensional point cloud data 31 and the image data 22 as a mark in this way, it is possible to reliably execute the matching work while suppressing the calculation amount. It will be possible.

なお、演算範囲設定テップST5では、メッセージ入力画面44で入力した演算範囲に基づき、演算範囲となる演算範囲領域44aを画面4bに表示するようにしてもよい。このようにすれば、ユーザにとって、どの領域が演算範囲として設定されたかが分かり、設定した演算範囲が不適な場合には、容易に修正を行うことが可能になる。 In the calculation range setting step ST5, the calculation range area 44a, which is the calculation range, may be displayed on the screen 4b based on the calculation range input on the message input screen 44. By doing so, the user can know which area is set as the calculation range, and if the set calculation range is inappropriate, it is possible to easily correct it.

なお、演算範囲設定部6の例としてメッセージ入力画面44におけるユーザ入力による演算範囲の設定方法について説明したが、これに限られるものではない。たとえば、画像データ22に含まれる属性情報を利用して演算範囲を設定してもよい。属性情報としては、たとえば、カメラ21に関する撮影方向121aおよび撮影位置121bに関する情報と、必要に応じてカメラ21に関するレンズなどの情報が想定される。 As an example of the calculation range setting unit 6, a method of setting a calculation range by user input on the message input screen 44 has been described, but the present invention is not limited to this. For example, the calculation range may be set by using the attribute information included in the image data 22. As the attribute information, for example, information regarding the shooting direction 121a and the shooting position 121b regarding the camera 21 and information such as a lens regarding the camera 21 are assumed.

具体的には、撮影方向121a、撮影位置121b、カメラ21のレンズの焦点距離などから、画像データ22が撮影する概略範囲が分かるため、その概略範囲に予め定められたマージンを持たせるような範囲を演算範囲とするようにしてもよい。あるいは、自動的に演算範囲の仮設定を行い、仮設定を踏まえてユーザが調整して正式な演算範囲の設定とするようにしてもよい。 Specifically, since the approximate range of shooting by the image data 22 can be known from the shooting direction 121a, the shooting position 121b, the focal length of the lens of the camera 21, and the like, a range in which the approximate range has a predetermined margin. May be set as the calculation range. Alternatively, the calculation range may be temporarily set automatically, and the user may adjust the calculation range based on the temporary setting to set the formal calculation range.

図7は、特徴情報抽出部10により、データ取得部2を介して取得した画像データ22および3次元点群データ31から各々の特徴情報を抽出する特徴情報抽出作業(図4の特徴情報抽出処理ステップST6)と、マッチング部11により、設定された演算範囲内での各々の特徴情報が最も一致する画像データ22の位置とサイズを抽出するマッチング作業(図4のマッチング処理ステップST7)の内容を説明するための図である。例えば、特徴情報としてエッジ情報が想定される。 FIG. 7 shows a feature information extraction operation (feature information extraction process of FIG. 4) in which each feature information is extracted from the image data 22 and the three-dimensional point group data 31 acquired by the feature information extraction unit 10 via the data acquisition unit 2. Step ST6) and the matching operation (matching process step ST7 in FIG. 4) for extracting the position and size of the image data 22 in which the feature information of each within the set calculation range best matches by the matching unit 11. It is a figure for demonstrating. For example, edge information is assumed as feature information.

エッジ情報とは、画像データ22および3次元点群データ31の特徴情報の抽出により得られた、境界線の情報である。例えば、画像データ22であれば、監視対象が河川の場合、水面と陸部で大きく色合いが異なることから、境界線が抽出できる。また監視対象が道路の場合、舗装された道路と、路肩の色が異なることから、境界線が抽出できる。 The edge information is boundary line information obtained by extracting the feature information of the image data 22 and the three-dimensional point cloud data 31. For example, in the case of the image data 22, when the monitoring target is a river, the boundary line can be extracted because the colors differ greatly between the water surface and the land area. When the monitoring target is a road, the boundary line can be extracted because the color of the road shoulder is different from that of the paved road.

一方、3次元点群データ31であれば、点群はx座標、y座標、z座標のデータの集合であり、たとえば監視対象が河川の場合、水面は、ほぼxy平面に平行なのに対し、水面付近の陸部は傾いているため、水面と陸部との境界線を取ることができる。 On the other hand, in the case of the three-dimensional point cloud data 31, the point cloud is a set of x-coordinate, y-coordinate, and z-coordinate data. For example, when the monitoring target is a river, the water surface is almost parallel to the xy plane, whereas the water surface. Since the land area in the vicinity is inclined, the boundary line between the water surface and the land area can be taken.

図7の(A)と(B)は、3次元点群データ31に関するエッジ情報の抽出を説明するための図である。図7(A)が初期状態で、図7(B)がエッジ情報の抽出結果である。説明を分かりやすくするために、画面4bにおいては画像データ表示領域41の表示は省略して記載している。 FIGS. 7A and 7B are diagrams for explaining the extraction of edge information regarding the three-dimensional point cloud data 31. FIG. 7A is an initial state, and FIG. 7B is an extraction result of edge information. In order to make the explanation easy to understand, the display of the image data display area 41 is omitted on the screen 4b.

一方、図7の(C)と(D)は画像データ22に関するエッジ情報の抽出を説明するための図である。図7(C)が初期状態で、図7(D)がエッジ情報の抽出結果である。図7の(A)と(B)と比較しやすいように、図7の(C)と(D)の画像データ表示領域41を拡大して記載している。図7(E)は、図7の(B)と(D)との抽出結果を基にしたマッチング作業の結果を示す図である。 On the other hand, FIGS. 7 (C) and 7 (D) are diagrams for explaining the extraction of edge information regarding the image data 22. FIG. 7C is an initial state, and FIG. 7D is an extraction result of edge information. The image data display areas 41 of FIGS. 7 (C) and 7 are shown in an enlarged manner so that the images (A) and (B) of FIG. 7 can be easily compared. FIG. 7E is a diagram showing the results of matching work based on the extraction results of FIGS. 7B and 7D.

以下、詳細に特徴情報抽出作業およびマッチング作業について説明する。図7(B)では、第1の点群境界25a1が第1の点群境界エッジ45a1としてエッジ情報が抽出され、第2の点群境界25a2が第2の点群境界エッジ45a2としてエッジ情報が抽出され、点群倉庫27aは点群倉庫エッジ46aとしてエッジ情報が抽出され、点群住宅28aは点群住宅エッジ47aとしてエッジ情報が抽出されていることが表示されている。 Hereinafter, the feature information extraction work and the matching work will be described in detail. In FIG. 7B, the edge information is extracted with the first point group boundary 25a1 as the first point group boundary edge 45a1 and the edge information with the second point group boundary 25a2 as the second point group boundary edge 45a2. It is displayed that the point cloud warehouse 27a is extracted as the point cloud warehouse edge 46a and the edge information is extracted as the point cloud housing 28a as the point cloud housing edge 47a.

一方、図7(D)では、画像河川25bが画像河川エッジ45bとしてエッジ情報が抽出され、画像倉庫27bが画像倉庫エッジ46bとしてエッジ情報が抽出され、画像住宅28bは画像住宅エッジ47bとしてエッジ情報が抽出される。図7(C)では画像河川水25b1が表示されていたがエッジ情報としては抽出されないため、図7(D)には対応するものが存在していない。 On the other hand, in FIG. 7D, the image river 25b has edge information extracted as an image river edge 45b, the image warehouse 27b has edge information extracted as an image warehouse edge 46b, and the image house 28b has edge information as an image house edge 47b. Is extracted. Although the image river water 25b1 was displayed in FIG. 7 (C), it is not extracted as edge information, so that there is no corresponding one in FIG. 7 (D).

なお、図7の(B)または(D)において、エッジ処理の状態を把握しながら、エッジ処理をより適切な状態にすべく、たとえばバーの移動によるエッジ抽出に関するパラメータ調整が可能なようにしてもよい。このようにすれば図7(E)でのマッチング作業の精度向上が期待できる。 In addition, in FIG. 7B or D, in order to make the edge processing more appropriate while grasping the state of the edge processing, it is possible to adjust the parameters related to the edge extraction by moving the bar, for example. May be good. By doing so, the accuracy of the matching work in FIG. 7 (E) can be expected to be improved.

図7(E)は、表示器4が画面4cを表示したものである。画面4cでは、特徴情報抽出処理ステップST6で取得したエッジ情報を利用して、マッチング処理ステップST7でのマッチング作業では3次元点群データ31のエッジ情報と画像データ22のエッジ情報の重ね合わせを行った結果を表示している。 In FIG. 7 (E), the display 4 displays the screen 4c. On the screen 4c, the edge information acquired in the feature information extraction processing step ST6 is used, and in the matching work in the matching processing step ST7, the edge information of the three-dimensional point cloud data 31 and the edge information of the image data 22 are superimposed. The result is displayed.

具体的には、画面4cは画像データ22のエッジ情報が3次元点群データ31のエッジ情報に対してもっとも重なる3次元点群データ上の位置および画像データ22のサイズを抽出して、抽出結果に基づく位置及びサイズを調整しての表示となる。今回のマッチング作業の結果では、点群倉庫エッジ46aには画像倉庫エッジ46bがおおよそ重なり、点群住宅47aには画像住宅47bがおおよそ重なり、第1の点群境界エッジ45a1には画像河川エッジ45bがおおよそ重なっていることが読み取れる。 Specifically, the screen 4c extracts the position on the 3D point cloud data and the size of the image data 22 where the edge information of the image data 22 overlaps with the edge information of the 3D point cloud data 31 most, and the extraction result. The display will be adjusted based on the position and size. In the result of this matching work, the image warehouse edge 46b roughly overlaps with the point cloud warehouse edge 46a, the image housing 47b roughly overlaps with the point cloud housing 47a, and the image river edge 45b overlaps with the first point cloud boundary edge 45a1. It can be read that are roughly overlapping.

図8は、マッチング結果に基づき、重畳表示処理部12が表示器4において画像データ22を3次元点群データ31に重畳表示させることを示す図である(図4の重畳表示処理ステップST8)。たとえば、図7(E)における画面4cの表示の後、たとえば数秒など予め定められた時間が経過した後か画面4cをカーソル29でクリックするなどすると、図8のように表示される。 FIG. 8 is a diagram showing that the superimposed display processing unit 12 superimposes and displays the image data 22 on the three-dimensional point cloud data 31 on the display 4 based on the matching result (superimposed display processing step ST8 in FIG. 4). For example, after the display of the screen 4c in FIG. 7 (E), after a predetermined time such as several seconds has elapsed, or when the screen 4c is clicked with the cursor 29, the display is as shown in FIG.

具体的には、画像データ22は、マッチング結果と、撮影方向121aおよび撮影位置121bに関する情報を利用して、点群データ31が存在する空間上に3次元座標で出力される。そして、画像データ22は、アスペクト比(縦横比)を変更せず、マッチング結果に基づき拡大または縮小が行われ、表示処理部3は、3次元点群データ31に画像データ22を重畳表示する処理を行う。すなわち、点群河川25aには画像河川25bが重畳表示され、点群倉庫27aには画像倉庫27bが重畳表示され、点群住宅28aには画像住宅28bが重畳表示される。 Specifically, the image data 22 is output in three-dimensional coordinates in the space where the point cloud data 31 exists, using the matching result and the information regarding the shooting direction 121a and the shooting position 121b. Then, the image data 22 is enlarged or reduced based on the matching result without changing the aspect ratio (aspect ratio), and the display processing unit 3 superimposes and displays the image data 22 on the three-dimensional point cloud data 31. I do. That is, the image river 25b is superimposed and displayed on the point cloud river 25a, the image warehouse 27b is superimposed and displayed on the point cloud warehouse 27a, and the image housing 28b is superimposed and displayed on the point cloud housing 28a.

マッチング部11で利用した画像データ22がある時点での画像データである場合には、マッチング結果を利用して、重畳表示処理部12は、今後、カメラ21により取得される画像データ22を3次元点群データ31に対する適切な位置に重畳表示するようにすればよい。 When the image data 22 used by the matching unit 11 is image data at a certain point in time, the superimposed display processing unit 12 uses the matching result to three-dimensionally display the image data 22 acquired by the camera 21 in the future. It may be superimposed and displayed at an appropriate position with respect to the point cloud data 31.

このようにして、ユーザは画面4cにおいて、監視対象のリアルタイムな情報を画像データ22が表示される画像データ表示領域41aに表示される内容で知覚し、画像データ表示領域41aの周囲の状況を3次元点群データ31の内容により把握でき、総合的な監視対象への監視を行うことが可能となる。 In this way, on the screen 4c, the user perceives the real-time information to be monitored by the content displayed in the image data display area 41a on which the image data 22 is displayed, and the situation around the image data display area 41a is 3 It can be grasped from the contents of the dimension point cloud data 31, and it is possible to monitor the comprehensive monitoring target.

なお、図1では、3次元点群表示装置1が演算部8を含んでいることを説明したが、たとえば、計算能力が3次元点群表示装置1よりも高い不図示のサーバやワークステーションに演算部8を格納するようにしてもよい。そうすることで、より短時間で特徴情報抽出作業やマッチング作業を行うことが可能になる。合わせて記憶部30も不図示のサーバに格納してもよい。 Although it has been explained that the three-dimensional point cloud display device 1 includes the arithmetic unit 8 in FIG. 1, for example, in a server or workstation (not shown) having a higher computing power than the three-dimensional point cloud display device 1. The arithmetic unit 8 may be stored. By doing so, it becomes possible to perform feature information extraction work and matching work in a shorter time. In addition, the storage unit 30 may also be stored in a server (not shown).

また、図7では特徴情報抽出作業とマッチング作業を画面4bや画面4cに表示することを説明したが、画面4bや画面4cに表示をせずに、内部処理として実行するようにしてもよい。表示処理部3の負荷が減ることで3次元点群表示装置1の処理能力に余裕が生まれ、特徴情報抽出作業とマッチング作業の処理速度を内部処理にしない場合と比べて向上させることができる。 Further, although it has been described that the feature information extraction work and the matching work are displayed on the screen 4b or the screen 4c in FIG. 7, the feature information extraction work and the matching work may be executed as internal processing without being displayed on the screen 4b or the screen 4c. By reducing the load of the display processing unit 3, the processing capacity of the three-dimensional point cloud display device 1 is increased, and the processing speeds of the feature information extraction work and the matching work can be improved as compared with the case where the internal processing is not performed.

本発明の実施の形態1に係る3次元点群表示装置1によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。 According to the three-dimensional point group display device 1 according to the first embodiment of the present invention, the data acquisition unit 2 that acquires the image data 22 obtained by photographing the monitored object with the camera 21 and the camera among the monitored objects. The display processing unit 3 that performs processing to display the three-dimensional point group data 31 obtained by measuring including at least a part of the range photographed by 21 on the screen 4a, and the three-dimensional point group data displayed on the screen 4b. Acquired by the calculation range setting unit 6 that sets the calculation range by user input with respect to 31, and the selection data 31a and the data acquisition unit 2 selected from the three-dimensional point group data 31 based on the settings of the calculation range setting unit 6. Based on the result of extraction by the feature information extraction unit 10 that extracts each feature information of the image data 22 and the feature information extraction unit 10, the feature information of the three-dimensional point group data 31 and the feature information of the image data 22 are exchanged with each other. Since the matching unit 11 for matching and the superimposed display processing unit 12 for superimposing and displaying the image data on the three-dimensional point group data 31 in the screen 4c based on the matching result of the matching unit 11, GPS data is provided. Compared with the configuration in which the surrounding three-dimensional map information and the actual image are matched with reference to the above, it is possible to reliably perform matching between the three-dimensional point group data 31 and the image data 22.

また、本発明の実施の形態1に係る3次元点群表示装置1は、表示処理部3は、演算範囲設定部6での設定を行う場合に、画面4aの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。 Further, in the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, when the display processing unit 3 makes settings in the calculation range setting unit 6, the image data 22 is displayed inside the screen 4a. Since the image data display area 41 is created, the work of setting the calculation range by the calculation range setting unit 6 can be efficiently performed.

また、本発明の実施の形態1に係る3次元点群表示装置1によれば、演算範囲設定部6での設定を行う場合に、画像データ表示領域41は、画面4aの角部に配置されるので、画面4aにおける3次元点群データ31の表示領域での視認性の低下を抑制でき、画像データ22と3次元点群データ31との両者の状態を効率よく把握することが可能である。 Further, according to the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the image data display area 41 is arranged at the corner of the screen 4a when the setting is performed by the calculation range setting unit 6. Therefore, it is possible to suppress a decrease in visibility in the display area of the three-dimensional point cloud data 31 on the screen 4a, and it is possible to efficiently grasp the states of both the image data 22 and the three-dimensional point cloud data 31. ..

また、本発明の実施の形態1に係る3次元点群表示装置1によれば、演算範囲設定部6は、ユーザ入力により設定された演算範囲に対応する演算範囲領域44aを画面4bに表示するので、ユーザにとって、どの領域が演算範囲として設定されたかが分かり、設定した演算範囲が不適な場合には、容易に修正を行うことが可能になる。 Further, according to the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the calculation range setting unit 6 displays the calculation range area 44a corresponding to the calculation range set by the user input on the screen 4b. Therefore, the user can know which area is set as the calculation range, and if the set calculation range is inappropriate, it can be easily corrected.

本発明の実施の形態1に係る3次元点群表示装置1によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して画像データ22に含まれる属性情報(たとえば、撮影方向121aおよび撮影位置121bに関する情報)により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。 According to the three-dimensional point cloud display device 1 according to the first embodiment of the present invention, the data acquisition unit 2 that acquires the image data 22 obtained by photographing the monitored object with the camera 21 and the camera among the monitored objects. The display processing unit 3 that performs processing to display the three-dimensional point cloud data 31 obtained by measuring including at least a part of the range photographed by 21 on the screen 4a, and the three-dimensional point cloud data displayed on the screen 4b. Three-dimensional based on the settings of the calculation range setting unit 6 for setting the calculation range based on the attribute information (for example, information on the shooting direction 121a and the shooting position 121b) included in the image data 22 for 31 and the calculation range setting unit 6. Based on the feature information extraction unit 10 that extracts the feature information of each of the selection data 31a selected from the point cloud data 31 and the image data 22 acquired by the data acquisition unit 2, and the extraction result by the feature information extraction unit 10. Image data on the 3D point cloud data 31 in the screen 4c based on the matching result of the matching unit 11 that matches the feature information of the 3D point cloud data 31 and the feature information of the image data 22 with each other. Since the superimposed display processing unit 12 for superimposing and displaying the above is provided, the three-dimensional point cloud data 31 and the image data 22 are compared with the configuration for matching the surrounding three-dimensional map information with the actual image based on the GPS data. It is possible to make sure that the matching is performed.

また、本発明の実施の形態1に係る3次元点群表示システム40によれば、監視対象を撮影するカメラ21と、カメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point group display system 40 according to the first embodiment of the present invention, the camera 21 that captures the monitored object and the data acquisition unit 2 that acquires the image data 22 captured by the camera 21. The display processing unit 3 that performs processing to display the three-dimensional point group data 31 obtained by measuring including at least a part of the range photographed by the camera 21 among the monitoring targets on the screen 4a, and the screen 4b. Selection data selected from the 3D point group data 31 based on the settings of the calculation range setting unit 6 that sets the calculation range by user input for the displayed 3D point group data 31 and the calculation range setting unit 6. The feature information extraction unit 10 that extracts the feature information of each of the image data 22 acquired by the 31a and the data acquisition unit 2, and the feature information of the three-dimensional point group data 31 based on the extraction result by the feature information extraction unit 10. A matching unit 11 that matches the feature information of the image data 22 with each other, and a superimposed display processing unit 12 that superimposes and displays the image data on the three-dimensional point group data 31 in the screen 4c based on the matching result of the matching unit 11. , It is possible to reliably match the 3D point group data 31 and the image data 22 as compared with the configuration of matching the surrounding 3D map information with the actual image based on the GPS data. become.

また、本発明の実施の形態1に係る3次元点群表示システム40によれば、表示処理部3が演算範囲設定部6での設定を行う場合に、画面4a内で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。 Further, according to the three-dimensional point cloud display system 40 according to the first embodiment of the present invention, when the display processing unit 3 makes settings in the calculation range setting unit 6, the image data 22 is displayed on the screen 4a. Since the image data display area 41 is created, the work of setting the calculation range by the calculation range setting unit 6 can be efficiently performed.

また、本発明の実施の形態1に係る3次元点群表示方法によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得ステップST1と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理ステップST2と、画面4bに表示される3次元点群データに対してユーザ入力により演算範囲の設定を行う重畳表示処理ステップと、演算範囲設定ステップST5での設定に基づき3次元点群データから選択された選択データ31aとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップST6と、特徴情報抽出部による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データの特徴情報同士をマッチングさせる重畳表示処理ステップST7と、マッチング処理ステップST7の結果に基づき、画面4c内で3次元点群データ31の上に画像データ22を重畳表示させる重畳表示処理ステップST8と、を有するので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point group display method according to the first embodiment of the present invention, the data acquisition step ST1 for acquiring the image data 22 obtained by photographing the monitored object with the camera 21 and the monitored object among the monitored objects. Display processing step ST2 that performs processing to display the three-dimensional point group data 31 obtained by measuring including at least a part of the range captured by the camera 21 on the screen 4a, and the three-dimensional point group displayed on the screen 4b. The superimposed display processing step that sets the calculation range for the data by user input, the selection data 31a selected from the three-dimensional point group data based on the setting in the calculation range setting step ST5, and the image acquired by the data acquisition unit. Based on the feature information extraction process step ST6 that extracts each feature information of the data and the result of extraction by the feature information extraction unit, the superimposed display process that matches the feature information of the three-dimensional point group data 31 with the feature information of the image data. Since it has step ST7 and superimposed display processing step ST8 for superimposing and displaying the image data 22 on the three-dimensional point group data 31 in the screen 4c based on the result of the matching processing step ST7, the GPS data is used as a reference. Compared with the configuration in which the surrounding 3D map information and the actual image are matched, it becomes possible to reliably perform the matching between the 3D point group data and the image data.

また、本発明の実施の形態1に係る3次元点群表示方法によれば、表示処理ステップST2は、演算範囲設定ステップST5での設定を行う場合に、画面4bの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定ステップST5での演算範囲の設定を行う作業が効率的に行える効果を奏する。 Further, according to the three-dimensional point cloud display method according to the first embodiment of the present invention, the display processing step ST2 displays the image data 22 inside the screen 4b when the setting is performed in the calculation range setting step ST5. Since the image data display area 41 to be generated is created, the work of setting the calculation range in the calculation range setting step ST5 can be efficiently performed.

また、本発明の実施の形態1に係る3次元点群表示プログラムによれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得ステップST1と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理ステップST2と、画面4bに表示される3次元点群データに対してユーザ入力により演算範囲の設定を行う重畳表示処理ステップと、演算範囲設定ステップST5での設定に基づき3次元点群データから選択された選択データ31aとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップST6と、特徴情報抽出部による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データの特徴情報同士をマッチングさせる重畳表示処理ステップST7と、マッチング処理ステップST7の結果に基づき、画面4c内で3次元点群データ31の上に画像データ22を重畳表示させる重畳表示処理ステップST8と、をコンピュータに実行させるので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point group display program according to the first embodiment of the present invention, the data acquisition step ST1 for acquiring the image data 22 obtained by photographing the monitored object with the camera 21 and the monitored object among the monitored objects. Display processing step ST2 that performs processing to display the three-dimensional point group data 31 obtained by measuring including at least a part of the range captured by the camera 21 on the screen 4a, and the three-dimensional point group displayed on the screen 4b. The superimposed display processing step that sets the calculation range for the data by user input, the selection data 31a selected from the three-dimensional point group data based on the setting in the calculation range setting step ST5, and the image acquired by the data acquisition unit. Based on the feature information extraction process step ST6 that extracts each feature information of the data and the result of extraction by the feature information extraction unit, the superimposed display process that matches the feature information of the three-dimensional point group data 31 with the feature information of the image data. Based on the results of step ST7 and matching processing step ST7, the computer is made to execute the superimposed display processing step ST8 for superimposing and displaying the image data 22 on the three-dimensional point group data 31 in the screen 4c, so that the GPS data can be stored. Compared with the configuration in which the surrounding 3D map information and the actual image are matched as a reference, it is possible to reliably perform matching between the 3D point group data and the image data.

また、本発明の実施の形態1に係る3次元点群表示プログラムによれば、表示処理ステップST2は、演算範囲設定ステップST5での設定を行う場合に、画面4bの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定ステップST5での演算範囲の設定を行う作業が効率的に行える効果を奏する。 Further, according to the three-dimensional point cloud display program according to the first embodiment of the present invention, the display processing step ST2 displays the image data 22 inside the screen 4b when the setting is performed in the calculation range setting step ST5. Since the image data display area 41 to be generated is created, the work of setting the calculation range in the calculation range setting step ST5 can be efficiently performed.

また、本発明の実施の形態1に係る記録媒体によれば、プログラムPが記録されているので、プログラムPによる各種機能を実行することができる。 Further, according to the recording medium according to the first embodiment of the present invention, since the program P is recorded, various functions by the program P can be executed.

実施の形態2.
本発明の実施の形態2について、図9および図10を用いて説明する。実施の形態1では、演算範囲設定部6による演算範囲の設定はX軸、Y軸、Z軸の各軸の座標をユーザ入力により行っていたが、本実施の形態では入力部7としてのマウスなどによるカーソル移動の利用により、演算範囲を設定することが異なる部分である。
Embodiment 2.
Embodiment 2 of the present invention will be described with reference to FIGS. 9 and 10. In the first embodiment, the calculation range is set by the calculation range setting unit 6 by inputting the coordinates of each axis of the X-axis, the Y-axis, and the Z-axis by the user input, but in the present embodiment, the mouse as the input unit 7 is used. It is a different part to set the calculation range by using the cursor movement by such as.

図9は、入力部7としてポインティングデバイスを利用して演算範囲を設定する場合のブロック図である。ポインティングデバイスとしては、たとえば、マウス7aやジョイスティック7b、不図示のトラックボールなどが想定される。これらポインティングデバイスからの入力を入力受付部5が受付けて、データ取得部2a内の演算範囲設定部6aにおいてカーソル29の移動による演算範囲の設定が実行される。 FIG. 9 is a block diagram when the calculation range is set by using the pointing device as the input unit 7. As the pointing device, for example, a mouse 7a, a joystick 7b, a trackball (not shown), or the like is assumed. The input receiving unit 5 receives the input from these pointing devices, and the calculation range setting unit 6a in the data acquisition unit 2a executes the setting of the calculation range by moving the cursor 29.

図10は、ポインティングデバイスを利用しての演算範囲を設定する設定画面である。画面4b内で表示されるスクリーン座標系での表示に対して、ユーザが演算範囲としたい領域を検討する。たとえばマウス7aの操作によりカーソル29を移動操作させて、X軸方向およびZ軸方向における演算範囲を決める。そして、奥行きであるY軸方向の演算範囲を決める際には、視点移動ツール51を使ってY軸方向の視点をずらしつつ、X軸またはZ軸におけるカーソル29の移動操作と同様の操作を行えばよい。 FIG. 10 is a setting screen for setting a calculation range using a pointing device. Consider the area that the user wants to be the calculation range for the display in the screen coordinate system displayed in the screen 4b. For example, the cursor 29 is moved by the operation of the mouse 7a to determine the calculation range in the X-axis direction and the Z-axis direction. Then, when determining the calculation range in the Y-axis direction, which is the depth, the viewpoint movement tool 51 is used to shift the viewpoint in the Y-axis direction, and the same operation as the movement operation of the cursor 29 on the X-axis or the Z-axis is performed. Just do it.

本発明の実施の形態2に係る3次元点群表示装置1は、演算範囲設定部6が、ポインティングデバイス7a,7bを利用して演算範囲を設定するようにしたので、ユーザが視覚的に演算範囲を行うことが可能になる。すなわち、どの範囲を演算範囲として設定するかを座標となる数字を入力する場合と比べて容易に行える。 In the three-dimensional point cloud display device 1 according to the second embodiment of the present invention, the calculation range setting unit 6 sets the calculation range by using the pointing devices 7a and 7b, so that the user can visually calculate the calculation range. It becomes possible to do a range. That is, it is easier to set which range is set as the calculation range as compared with the case of inputting a numerical value as a coordinate.

実施の形態3.
本発明の実施の形態3について、図11および図12を用いて説明する。実施の形態1では、マッチング作業は、設定された演算範囲内で画像データと3次元点群データの各々の特徴情報が最も一致する画像データの位置とサイズを抽出する作業であったが、マッチングの程度がよくない場合に演算範囲を再設定することを促す機能を有することが異なる部分である。
Embodiment 3.
Embodiment 3 of the present invention will be described with reference to FIGS. 11 and 12. In the first embodiment, the matching work is a work of extracting the position and size of the image data in which the feature information of each of the image data and the three-dimensional point cloud data best matches within the set calculation range. The difference is that it has a function to prompt the resetting of the calculation range when the degree of is not good.

図11は、演算部8aの構成を示すブロック図である。演算部8aは視点対応部9、特徴情報抽出部10、マッチング部11のほかに、マッチングの程度を判定するマッチング度判定部11aを含んでいる。マッチング度合判定部11aは、予め定めたマッチング度に対して、マッチング部11でのマッチング作業の結果がどの程度のものかを把握するために機能する。マッチング度を求める方式としては、たとえば、3次元点群データ31において設定された演算範囲の中で、画像データ22が3次元点群データ31に対して一致するピクセル数と一致しないピクセル数をカウントし、全ピクセル数のうちの一致するピクセル数の割合から求めるようにしてもよい。 FIG. 11 is a block diagram showing the configuration of the calculation unit 8a. The calculation unit 8a includes a viewpoint correspondence unit 9, a feature information extraction unit 10, a matching unit 11, and a matching degree determination unit 11a for determining the degree of matching. The matching degree determination unit 11a functions to grasp how much the result of the matching work in the matching unit 11 is with respect to the predetermined matching degree. As a method for obtaining the degree of matching, for example, in the calculation range set in the 3D point group data 31, the number of pixels that the image data 22 matches with the 3D point group data 31 and the number of pixels that do not match are counted. However, it may be obtained from the ratio of the number of matching pixels to the total number of pixels.

図12は、3次元点群表示装置1の動作を示すフローチャート図である。ステップST1からステップST8は実施の形態1と同様の構成であり、ステップST2からステップST4を省略して記載している。マッチング度確認ステップST17と演算範囲の再設定を促す警告表示ステップST18が実施の形態1とは異なるステップである。 FIG. 12 is a flowchart showing the operation of the three-dimensional point cloud display device 1. Steps ST1 to ST8 have the same configuration as that of the first embodiment, and steps ST2 to ST4 are omitted. The matching degree confirmation step ST17 and the warning display step ST18 for prompting the resetting of the calculation range are different steps from the first embodiment.

たとえば、マッチング度確認ステップST17において予め定めたマッチング度に対してマッチング部11でのマッチング作業の結果が到達していない場合、警告表示ステップST18へとフローが分岐し、表示処理部3が「もう一度演算範囲の設定を行って、演算をやり直してください」などと警告144が報知されるように構成される。その後、ユーザは警告144の表示を踏まえて、再度演算範囲設定テップST5へと移行してカーソル29などにより演算範囲の設定を実行する。なお、警告144は文字意外に、音声など、ユーザに伝わるものであれば何でもよい。 For example, if the result of the matching work in the matching unit 11 has not reached the matching degree predetermined in the matching degree confirmation step ST17, the flow branches to the warning display step ST18, and the display processing unit 3 “again”. Please set the calculation range and try the calculation again. " After that, the user shifts to the calculation range setting step ST5 again based on the display of the warning 144, and sets the calculation range with the cursor 29 or the like. It should be noted that the warning 144 may be anything that can be transmitted to the user, such as voice, other than characters.

本発明の実施の形態3に係る3次元点群表示装置1は、マッチング部11によるマッチングの結果を判定するマッチング度判定部11aを有し、判定の結果に応じて、演算範囲の再設定を促す警告144を報知するので、3次元点群データ31に対する画像データ22の重畳表示が精度悪く表示されることを防止する効果を奏する。 The three-dimensional point cloud display device 1 according to the third embodiment of the present invention has a matching degree determination unit 11a for determining a matching result by the matching unit 11, and resets the calculation range according to the determination result. Since the urging warning 144 is notified, it is effective in preventing the superimposed display of the image data 22 on the three-dimensional point cloud data 31 from being displayed with poor accuracy.

変形例3a
変形例3aについて図13を用いて説明する。警告表示ステップST18を受けてユーザが再び演算範囲設定ステップST5での演算範囲の設定を行う際、前回の演算範囲を把握していで新たに演算範囲の設定を行ったとしても、再度のマッチング作業でのマッチング度が向上せず、予め定めたマッチング度の度合いに達しない恐れがある。
Modification 3a
Modification 3a will be described with reference to FIG. When the user receives the warning display step ST18 and sets the calculation range again in the calculation range setting step ST5, even if the user knows the previous calculation range and newly sets the calculation range, the matching work is performed again. There is a risk that the degree of matching will not be improved and the degree of matching will not reach a predetermined level.

そこで、前回の演算範囲の領域を前回演算範囲領域51として表示し、それを踏まえて、最新演算範囲領域52として演算範囲を設定することが可能となる。すなわち、前回設定した演算範囲ではマッチング部11でのマッチング作業に不足していた領域を把握でき、より効率的に最新演算範囲領域52を設定することが可能となる。 Therefore, it is possible to display the area of the previous calculation range as the previous calculation range area 51 and set the calculation range as the latest calculation range area 52 based on the display. That is, it is possible to grasp the area lacking in the matching work in the matching unit 11 in the previously set calculation range, and to set the latest calculation range area 52 more efficiently.

本発明の実施の形態3の変形例3aに係る3次元点群表示装置1は、警告144が報知され、演算範囲の設定を再度行う場合、警告対象となった前回演算範囲領域51が画面に表示されるので、演算範囲の再設定を行う場合に効率的に再設定を行える効果を奏する。 In the three-dimensional point cloud display device 1 according to the modified example 3a of the third embodiment of the present invention, when the warning 144 is notified and the calculation range is set again, the previous calculation range area 51, which is the warning target, is displayed on the screen. Since it is displayed, it has the effect of being able to efficiently reset the calculation range.

実施の形態4.
本発明の実施の形態4について、図14から図16を用いて説明する。実施の形態1では、カメラが視野の変化がない固定カメラであることを主に想定していたが、本実施の形態4では左右や上下などに角度を変えて撮影できる可動カメラであることを想定し、実施の形態1よりも広いエリアを撮影した画像データを利用してのマッチング作業を行うものである。
Embodiment 4.
Embodiment 4 of the present invention will be described with reference to FIGS. 14 to 16. In the first embodiment, it was mainly assumed that the camera is a fixed camera in which the field of view does not change, but in the fourth embodiment, it is assumed that the camera is a movable camera capable of shooting by changing the angle to the left or right or up and down. Assuming, the matching work is performed using the image data obtained by photographing a wider area than that of the first embodiment.

図14は、3次元点群表示システム40aの構成を示すブロック図である。実施の形態1の図1における3次元点群表示システム40と異なる構成について説明する。カメラユニット20aは可動カメラ21aと、3次元点群表示装置1aから送られる可動カメラ21aを制御する可動カメラ制御信号13aを受信するデータ受信部123と、を有している。 FIG. 14 is a block diagram showing the configuration of the three-dimensional point cloud display system 40a. A configuration different from the three-dimensional point cloud display system 40 in FIG. 1 of the first embodiment will be described. The camera unit 20a includes a movable camera 21a and a data receiving unit 123 that receives a movable camera control signal 13a that controls the movable camera 21a sent from the three-dimensional point cloud display device 1a.

3次元点群表示装置1aは、可動カメラ制御信号13aを送るカメラ制御部13と、可動カメラ21aと、可動カメラ制御信号13aを生成する3次元点群表示プログラムとしてのプログラムPaと、可動カメラ21aにより撮影された複数の画像データ22を合成して合成画像データ22aを作成する画像合成部14と、を含んでいる。また、記憶部30は、複数の画像合成部14が合成する複数の画像データ22をデータ取得部2から受け取って格納する機能を有する。 The three-dimensional point group display device 1a includes a camera control unit 13 that sends a movable camera control signal 13a, a movable camera 21a, a program Pa as a three-dimensional point group display program that generates a movable camera control signal 13a, and a movable camera 21a. It includes an image synthesizing unit 14 for synthesizing a plurality of image data 22 captured by the camera to create a composite image data 22a. Further, the storage unit 30 has a function of receiving and storing a plurality of image data 22 synthesized by the plurality of image synthesizing units 14 from the data acquisition unit 2.

入力部7からの入力により入力受付部5が可動カメラ21aを制御する指示を受けると、その指示がカメラ制御部13に送信される。カメラ制御部13は指示を受信し、カメラユニット20aにおけるデータ受信部123に対して、可動カメラ制御信号13aを送信する。可動カメラ21aは可動カメラ制御信号13aを受けて、各種動作を行うように構成されている。 When the input receiving unit 5 receives an instruction to control the movable camera 21a by the input from the input unit 7, the instruction is transmitted to the camera control unit 13. The camera control unit 13 receives an instruction and transmits a movable camera control signal 13a to the data reception unit 123 in the camera unit 20a. The movable camera 21a is configured to receive the movable camera control signal 13a and perform various operations.

図15は、可動カメラ制御信号13aがカメラ制御部13から送信され、可動カメラ21aが可動カメラ制御信号13aを受信した場合における、3次元点群表示システム40aの動作を示すフローチャート図である。図14と図16も適宜参照しながら3次元点群表示システム40aの動作の説明を行う。 FIG. 15 is a flowchart showing the operation of the three-dimensional point cloud display system 40a when the movable camera control signal 13a is transmitted from the camera control unit 13 and the movable camera 21a receives the movable camera control signal 13a. The operation of the three-dimensional point cloud display system 40a will be described with reference to FIGS. 14 and 16 as appropriate.

まず、可動カメラ21aは初期位置などのある方向で撮影を行う。そして、たとえば、予め定められた複数の角度で、順次、画像データ22同士の境界部分が重複するように水平方向に連続して撮影を行う(複数撮影ステップSTA)。そして撮影された画像データ22は、データ送信部23およびデータ取得部2を介して、順次、記憶部30に格納される(画像記憶ステップSTB)。すなわち、可動カメラ21aは、複数の撮影方向での撮影を行う。 First, the movable camera 21a shoots in a certain direction such as an initial position. Then, for example, continuous shooting is performed in the horizontal direction so that the boundary portions of the image data 22 overlap each other at a plurality of predetermined angles (multiple shooting step STA). Then, the captured image data 22 is sequentially stored in the storage unit 30 via the data transmission unit 23 and the data acquisition unit 2 (image storage step STB). That is, the movable camera 21a shoots in a plurality of shooting directions.

その後、予め定められた複数の角度すべてで可動カメラ21aによる撮影が終了した場合、データ取得部2は記憶部30と通信して、格納した複数の画像データ22を画像合成部14に送る。画像合成部14は受信した複数の画像データ22を合成して合成画像データ22aを作成する(画像データ合成ステップSTC)。合成画像データ22aが作成された後は、実施の形態1と同様に、ステップST1からステップST8が実行される。 After that, when the shooting by the movable camera 21a is completed at all the plurality of predetermined angles, the data acquisition unit 2 communicates with the storage unit 30 and sends the stored image data 22 to the image synthesis unit 14. The image synthesizing unit 14 synthesizes a plurality of received image data 22 to create a composite image data 22a (image data synthesizing step STC). After the composite image data 22a is created, steps ST1 to ST8 are executed as in the first embodiment.

図16は、3次元点群データ31を表示する表示器4における画面4cの内容を示す図である。合成画像データ22aを画像データ表示領域41aにて表示している。画像データ表示領域41aのうち、第1画像データ表示領域41a1に表示される画像データ22は可動カメラ21aの初期位置としての撮影範囲により撮影されたものであり、第2画像データ表示領域41a2に表示される画像データ22は可動カメラ21aの撮影方向を可変させた場合の撮影範囲により撮影されたものである。 FIG. 16 is a diagram showing the contents of the screen 4c on the display 4 for displaying the three-dimensional point cloud data 31. The composite image data 22a is displayed in the image data display area 41a. Of the image data display areas 41a, the image data 22 displayed in the first image data display area 41a1 is taken by the shooting range as the initial position of the movable camera 21a, and is displayed in the second image data display area 41a2. The image data 22 to be imaged is taken according to the shooting range when the shooting direction of the movable camera 21a is changed.

なお、ある撮影方向(たとえば初期位置)での撮影範囲と、撮影方向を可変させた場合の別の撮影方向での撮影範囲の境界を、境界線42として表示している。仮に合成画像データ22aの内部に、普段とは違うノイズが映り込むなどの画像に異常が生じた場合、境界線42が表示されることで第1画像データ表示領域41a1または第2画像データ表示領域41a2のどちらに原因があるかを容易に把握することができるため、合成画像データ22aを再生成する際に効率的である。 The boundary between the shooting range in a certain shooting direction (for example, the initial position) and the shooting range in another shooting direction when the shooting direction is changed is displayed as the boundary line 42. If an abnormality occurs in the image such as an unusual noise reflected inside the composite image data 22a, the boundary line 42 is displayed to display the first image data display area 41a1 or the second image data display area. Since it is possible to easily grasp which of 41a2 is the cause, it is efficient when the composite image data 22a is regenerated.

なお、撮影方向を可変させて、連続する撮影範囲を取得した画像データ22から合成画像データ22aを作成した上で、特徴抽出部10による特徴情報の抽出やマッチング部11によるマッチングを行うことを説明したが、必ずしも連続する撮影範囲を取得した画像データ22でなくてもよい。すなわち、ある撮影方向で撮影した図示しない第1画像データと、撮影方向を可変させて撮影した図示しない第2画像データとは、各々の画像データが離散していても良く、この場合には、第1画像データと第2画像データとの関係性として、撮影した角度情報など、各画像データの関係性が把握できればよい。 It is described that the composite image data 22a is created from the image data 22 obtained by changing the shooting direction and the continuous shooting range is acquired, and then the feature information is extracted by the feature extraction unit 10 and the matching is performed by the matching unit 11. However, it does not necessarily have to be the image data 22 obtained by acquiring a continuous shooting range. That is, the image data of the first image data (not shown) taken in a certain shooting direction and the second image data (not shown) taken in a variable shooting direction may be discrete, and in this case, the image data may be discrete. As the relationship between the first image data and the second image data, it suffices if the relationship between the image data such as the captured angle information can be grasped.

このようにして、複数の撮影方向により撮影された複数の画像データ22を利用することで、実施の形態1の場合と比べて、特徴抽出部10による特徴情報の抽出を多くすることができ、マッチング部11によるマッチングの結果がより広範囲なエリアでマッチングさせることができる。その結果、実施の形態1よりも、より正確に、画面4の中で、3次元点群データ31の上に画像データ22を重畳表示させることが可能になる。 In this way, by using the plurality of image data 22 shot in the plurality of shooting directions, it is possible to increase the extraction of the feature information by the feature extraction unit 10 as compared with the case of the first embodiment. The matching result by the matching unit 11 can be matched in a wider area. As a result, the image data 22 can be superimposed and displayed on the three-dimensional point cloud data 31 on the screen 4 more accurately than in the first embodiment.

本発明の実施の形態4に係る3次元点群表示装置1は、データ取得部2は、カメラ21が撮影方向を可変な可動カメラ21aである場合、可動カメラ21aにより撮影された複数方向における複数の画像データ22を取得し、特徴情報抽出部10は、複数の画像データ22を利用した特徴情報の抽出を行うので、より正確に、画面4cの中で、3次元点群データ31の上に画像データ22を重畳表示させることが可能になる。 In the three-dimensional point cloud display device 1 according to the fourth embodiment of the present invention, the data acquisition unit 2 has a plurality of images taken by the movable camera 21a in a plurality of directions when the camera 21 is a movable camera 21a whose shooting direction is variable. The image data 22 of the above is acquired, and the feature information extraction unit 10 extracts the feature information using the plurality of image data 22. Therefore, more accurately, on the three-dimensional point cloud data 31 in the screen 4c. The image data 22 can be superimposed and displayed.

変形例4a
この変形例は、可動カメラにより撮影された画像と3次元点群データとを利用して、1命令ごとの撮影方向の単位移動量が不明な可動カメラの仕様を求め、監視業務に役立てようとするものであり、図17を用いて説明する。
Modification 4a
This modification uses the image taken by the movable camera and the 3D point cloud data to obtain the specifications of the movable camera whose unit movement amount in the shooting direction for each command is unknown, and is useful for monitoring work. This will be described with reference to FIG.

図17は本変形例の動作を示すフローチャート図である。ステップSTAからステップST7までは実施の形態4と同様である。ステップST9が本変形で追加された内容である。 FIG. 17 is a flowchart showing the operation of this modification. Step STA to step ST7 are the same as those in the fourth embodiment. Step ST9 is the content added in this modification.

ステップSTAでは、図14に記載のカメラ制御部13を介して、ユーザは可動カメラ21に対して、撮影方向を変える命令を送信している。この変形例における可動カメラ21aは単位移動量が判明しておらず、たとえば、ユーザは感覚的に1秒間に亘って可動カメラ21aを左に動かすための図示しない移動命令ステップを持続する、などとしていた。 In step STA, the user transmits a command to change the shooting direction to the movable camera 21 via the camera control unit 13 shown in FIG. The unit movement amount of the movable camera 21a in this modification is unknown, for example, the user sensuously sustains a movement command step (not shown) for moving the movable camera 21a to the left for 1 second. board.

そこで、ステップSTAで撮影方向を変更する際に移動命令ステップに関する情報を記録し、移動命令ステップに関する情報とマッチング処理ステップST7での結果を利用して、単位移動量計算ステップST9では単位移動命令ステップごとの可動カメラ21aの単位移動量(撮影方向の単位移動量)を求めている。 Therefore, when the shooting direction is changed in step STA, the information about the movement command step is recorded, and the information about the movement command step and the result in the matching processing step ST7 are used to use the unit movement instruction step in the unit movement amount calculation step ST9. The unit movement amount (unit movement amount in the shooting direction) of the movable camera 21a for each is obtained.

単位移動量計算ステップST9を有することで、単位移動命令ステップごとに可動カメラ21aの単位移動量が判明するため、監視業務を行う上で、より精密な運用を行うことができる。 By having the unit movement amount calculation step ST9, the unit movement amount of the movable camera 21a is known for each unit movement command step, so that more precise operation can be performed in the monitoring work.

1 3次元点群表示装置、2 データ取得部、3 表示処理部、4 表示器、4a,4b,4c 画面、5 入力受付部、6 演算範囲設定部、7 入力部、7a マウス(ポインティングデバイス)、7b ジョイスティック(ポインティングデバイス)、8 演算部、9 視点対応部、10 特徴情報抽出部、11 マッチング部、11a マッチング度判定部、12 重畳表示処理部、20 カメラユニット、21 カメラ、22 画像データ、23 データ送信部、30 記憶部、 31 3次元点群データ、 31 a 選択データ、 40 3次元点群表示システム、41 画像データ表示領域、44a 演算範囲領域(演算範囲)、45a1 第1の点群境界エッジ(エッジ情報、特徴情報)、45a2 第2の点群境界エッジ(エッジ情報、特徴情報)、45b 画像河川エッジ(エッジ情報、特徴情報)、46a 点群倉庫エッジ(エッジ情報、特徴情報)、46b 画像倉庫エッジ(エッジ情報、特徴情報)、47a 点群住宅エッジ(エッジ情報、特徴情報)、47b 画像住宅エッジ(エッジ情報、特徴情報)、51 前回演算範囲領域、101 メモリ(記録媒体)、121a 撮影方向(属性情報)、121b撮影位置(属性情報)、144 警告
P,Pa プログラム(3次元点群表示プログラム)、ST1 データ取得ステップ、ST2 表示処理ステップ、ST5 演算範囲設定ステップ、ST6 特徴情報抽出処理ステップ、ST7 マッチング処理ステップ、ST8 重畳表示処理ステップ、ST9 単位移動量計算ステップ、STA 複数撮影ステップ、STB 画像記憶ステップ、STC 画像データ合成ステップ
1 3D point group display device, 2 data acquisition unit, 3 display processing unit, 4 display unit, 4a, 4b, 4c screen, 5 input reception unit, 6 calculation range setting unit, 7 input unit, 7a mouse (pointing device) , 7b Joystick (pointing device), 8 calculation unit, 9 viewpoint correspondence unit, 10 feature information extraction unit, 11 matching unit, 11a matching degree determination unit, 12 superimposition display processing unit, 20 camera unit, 21 camera, 22 image data, 23 Data transmission unit, 30 Storage unit, 31 3D point group data, 31a Selection data, 40 3D point group display system, 41 Image data display area, 44a Calculation range area (calculation range), 45a1 First point group Boundary edge (edge information, feature information), 45a2 Second point group boundary edge (edge information, feature information), 45b Image river edge (edge information, feature information), 46a Point group warehouse edge (edge information, feature information) , 46b Image warehouse edge (edge information, feature information), 47a Point group housing edge (edge information, feature information), 47b Image housing edge (edge information, feature information), 51 Previous calculation range area, 101 Memory (recording medium) , 121a Shooting direction (attribute information), 121b Shooting position (attribute information), 144 Warning P, Pa program (3D point group display program), ST1 data acquisition step, ST2 display processing step, ST5 calculation range setting step, ST6 features Information extraction processing step, ST7 matching processing step, ST8 superimposed display processing step, ST9 unit movement amount calculation step, STA multiple shooting step, STB image storage step, STC image data synthesis step

Claims (16)

監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示装置。
A data acquisition unit that acquires image data obtained by shooting a monitored object with a camera,
A display processing unit that performs a process of displaying the three-dimensional point cloud data obtained by measuring including at least a part of the range photographed by the camera among the monitored objects on the screen.
A calculation range setting unit that sets a calculation range by user input for the three-dimensional point cloud data displayed on the screen, and a calculation range setting unit.
A feature information extraction unit that extracts feature information of each of the selection data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit.
A matching unit that matches the feature information of the three-dimensional point cloud data with the feature information of the image data based on the result of the extraction by the feature information extraction unit.
A superimposed display processing unit that superimposes and displays the image data on the three-dimensional point cloud data in the screen based on the matching result of the matching unit.
A three-dimensional point cloud display device equipped with.
前記表示処理部は、前記演算範囲設定部での前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項1に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to claim 1, wherein the display processing unit creates an image data display area for displaying the image data inside the screen when the setting is performed in the calculation range setting unit. ..
前記画像データ表示領域は、前記画面の角部に配置される
請求項2に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to claim 2, wherein the image data display area is arranged at a corner of the screen.
前記演算範囲設定部は、前記演算範囲に対応する演算範囲領域を前記画面に表示する
請求項1から3のいずれか一項に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to any one of claims 1 to 3, wherein the calculation range setting unit displays a calculation range area corresponding to the calculation range on the screen.
前記演算範囲設定部は、ポインティングデバイスを利用して前記演算範囲を設定する
請求項1から4のいずれか一項に記載の3次元点群表示装置。
The three-dimensional point cloud display device according to any one of claims 1 to 4, wherein the calculation range setting unit sets the calculation range by using a pointing device.
前記マッチング部による前記マッチングの結果を判定するマッチング度判定部を有し、
前記判定の結果に応じて、前記演算範囲の再設定を促す警告を報知する
請求項1から5のいずれか一項に記載の3次元点群表示装置。
It has a matching degree determination unit that determines the result of the matching by the matching unit.
The three-dimensional point cloud display device according to any one of claims 1 to 5, which notifies a warning prompting the resetting of the calculation range according to the result of the determination.
前記警告が報知され、前記演算範囲の設定を再度行う場合、警告対象となった前回の前記演算範囲の領域である前回演算範囲領域が前記画面に表示される
請求項6に記載の3次元点群表示装置。
The three-dimensional point according to claim 6, wherein when the warning is notified and the calculation range is set again, the previous calculation range area, which is the area of the previous calculation range that was the target of the warning, is displayed on the screen. Group display device.
前記データ取得部は、前記カメラが撮影方向を可変な可動カメラである場合、前記可動カメラにより撮影された複数方向における複数の前記画像データを取得し、
前記特徴情報抽出部は、複数の前記画像データを利用した特徴情報の抽出を行う
請求項1から7のいずれか一項に記載の3次元点群表示装置。
When the camera is a movable camera whose shooting direction is variable, the data acquisition unit acquires a plurality of the image data in a plurality of directions shot by the movable camera.
The three-dimensional point cloud display device according to any one of claims 1 to 7, wherein the feature information extraction unit extracts feature information using a plurality of the image data.
監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、前記画像データに含まれる属性情報により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示装置。
A data acquisition unit that acquires image data obtained by shooting a monitored object with a camera,
A display processing unit that performs a process of displaying the three-dimensional point cloud data obtained by measuring including at least a part of the range photographed by the camera among the monitored objects on the screen.
A calculation range setting unit that sets a calculation range based on the attribute information included in the image data for the three-dimensional point cloud data displayed on the screen.
A feature information extraction unit that extracts feature information of each of the selection data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit.
A matching unit that matches the feature information of the three-dimensional point cloud data with the feature information of the image data based on the result of the extraction by the feature information extraction unit.
A superimposed display processing unit that superimposes and displays the image data on the three-dimensional point cloud data in the screen based on the matching result of the matching unit.
A three-dimensional point cloud display device equipped with.
監視対象を撮影するカメラと、
前記カメラにより撮影して得られた画像データを取得するデータ取得部と、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示システム。
A camera that shoots the object to be monitored, and
A data acquisition unit that acquires image data obtained by shooting with the camera, and
A display processing unit that performs a process of displaying the three-dimensional point cloud data obtained by measuring including at least a part of the range photographed by the camera among the monitored objects on the screen.
A calculation range setting unit that sets a calculation range by user input for the three-dimensional point cloud data displayed on the screen, and a calculation range setting unit.
A feature information extraction unit that extracts feature information of each of the selection data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit.
A matching unit that matches the feature information of the three-dimensional point cloud data with the feature information of the image data based on the result of the extraction by the feature information extraction unit.
A superimposed display processing unit that superimposes and displays the image data on the three-dimensional point cloud data in the screen based on the matching result of the matching unit.
3D point cloud display system equipped with.
前記表示処理部は、前記演算範囲設定部での前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項10に記載の3次元点群表示システム。
The three-dimensional point cloud display system according to claim 10, wherein the display processing unit creates an image data display area for displaying the image data inside the screen when the setting is performed in the calculation range setting unit. ..
監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、
前記演算範囲設定ステップでの設定に基づき前記3次元点群データから選択された選択データと前記データ取得ステップにより取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、
前記特徴情報抽出処理ステップによる前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、
前記マッチング処理ステップでのマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理ステップと、
を有する3次元点群表示方法。
A data acquisition step to acquire the image data obtained by shooting the monitored object with a camera, and
A display processing step for displaying on the screen the three-dimensional point cloud data obtained by measuring including at least a part of the range photographed by the camera among the monitoring targets.
A calculation range setting step for setting a calculation range by user input for the three-dimensional point cloud data displayed on the screen, and a calculation range setting step.
A feature information extraction processing step for extracting feature information of each of the selection data selected from the three-dimensional point cloud data based on the setting in the calculation range setting step and the image data acquired by the data acquisition step.
A matching processing step for matching the feature information of the three-dimensional point cloud data with the feature information of the image data based on the result of the extraction by the feature information extraction processing step.
Based on the matching result in the matching processing step, the superimposed display processing step of superimposing and displaying the image data on the three-dimensional point cloud data in the screen, and
A three-dimensional point cloud display method having.
前記表示処理ステップは、前記演算範囲設定ステップでの前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項12に記載の3次元点群表示方法。
The three-dimensional point cloud display method according to claim 12, wherein the display processing step creates an image data display area for displaying the image data inside the screen when the setting is performed in the calculation range setting step. ..
監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、
前記演算範囲設定ステップでの設定に基づき前記3次元点群データから選択された選択データと前記データ取得ステップにより取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、
前記特徴情報抽出処理ステップによる前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、
前記マッチング処理ステップのマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理ステップと、
をコンピュータに実行させるための3次元点群表示プログラム。
A data acquisition step to acquire the image data obtained by shooting the monitored object with a camera, and
A display processing step for displaying on the screen the three-dimensional point cloud data obtained by measuring including at least a part of the range photographed by the camera among the monitoring targets.
A calculation range setting step for setting a calculation range by user input for the three-dimensional point cloud data displayed on the screen, and a calculation range setting step.
A feature information extraction processing step for extracting feature information of each of the selection data selected from the three-dimensional point cloud data based on the setting in the calculation range setting step and the image data acquired by the data acquisition step.
A matching processing step for matching the feature information of the three-dimensional point cloud data with the feature information of the image data based on the result of the extraction by the feature information extraction processing step.
Based on the matching result of the matching processing step, the superimposed display processing step of superimposing and displaying the image data on the three-dimensional point cloud data in the screen,
A 3D point cloud display program for making a computer execute.
前記表示処理ステップは、前記演算範囲設定ステップでの前記設定を行う場合に、前記画面の内部で前記画像データを表示させる画像データ表示領域を作成する
請求項14に記載の3次元点群表示プログラム。
The three-dimensional point cloud display program according to claim 14, wherein the display processing step creates an image data display area for displaying the image data inside the screen when the setting is performed in the calculation range setting step. ..
請求項14または15に記載の3次元点群表示プログラムを記録した記録媒体。 A recording medium on which the three-dimensional point cloud display program according to claim 14 or 15 is recorded.
JP2017222447A 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium Active JP7003594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017222447A JP7003594B2 (en) 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222447A JP7003594B2 (en) 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium

Publications (2)

Publication Number Publication Date
JP2019095876A JP2019095876A (en) 2019-06-20
JP7003594B2 true JP7003594B2 (en) 2022-01-20

Family

ID=66971622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222447A Active JP7003594B2 (en) 2017-11-20 2017-11-20 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium

Country Status (1)

Country Link
JP (1) JP7003594B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6849634B2 (en) * 2018-06-08 2021-03-24 朝日航洋株式会社 Terminal device and control method of terminal device
US20210185214A1 (en) * 2019-12-13 2021-06-17 Sony Corporation Trans-spectral feature detection for volumetric image alignment and colorization
JP7468002B2 (en) * 2020-03-10 2024-04-16 日本電気株式会社 Anomaly display device, anomaly display system, anomaly display method, and anomaly display program
WO2022074739A1 (en) * 2020-10-06 2022-04-14 日本電気株式会社 Processing device, processing system, processing method, and non-transitory computer-readable medium having program stored thereon
WO2022101972A1 (en) * 2020-11-10 2022-05-19 三菱電機株式会社 Information management system and information management method
WO2022244172A1 (en) * 2021-05-20 2022-11-24 三菱電機株式会社 Information processing device, information processing system, information processing method, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149035A (en) 2003-11-14 2005-06-09 Mitsubishi Electric Corp Flood monitoring device
WO2008099915A1 (en) 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2016170060A (en) 2015-03-13 2016-09-23 三菱電機株式会社 Facility information display system, mobile terminal, server and facility information display method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4232167B1 (en) * 2007-08-27 2009-03-04 三菱電機株式会社 Object identification device, object identification method, and object identification program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149035A (en) 2003-11-14 2005-06-09 Mitsubishi Electric Corp Flood monitoring device
WO2008099915A1 (en) 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2016170060A (en) 2015-03-13 2016-09-23 三菱電機株式会社 Facility information display system, mobile terminal, server and facility information display method

Also Published As

Publication number Publication date
JP2019095876A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP7003594B2 (en) 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium
EP3550513B1 (en) Method of generating panorama views on a mobile mapping system
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
US8077906B2 (en) Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same
JP4115117B2 (en) Information processing apparatus and method
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
JP6883608B2 (en) Depth data processing system that can optimize depth data by aligning images with respect to depth maps
Kahn et al. Towards precise real-time 3D difference detection for industrial applications
JP5229733B2 (en) Stereo matching processing device, stereo matching processing method and program
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
WO2011118476A1 (en) Three dimensional distance measuring device and method
JP2015228215A (en) Positional information processing method
JPWO2005010817A1 (en) Image processing device
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
CN115601496A (en) AR-assisted three-dimensional map scale recovery method and system
JP5669438B2 (en) Object management image generation apparatus and object management image generation program
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
US20220026849A1 (en) Holographic imagery for on set eyeline reference
CN115004683A (en) Imaging apparatus, imaging method, and program
CN114170326B (en) Method and device for acquiring origin of camera coordinate system
CN116687564B (en) Surgical robot self-sensing navigation method system and device based on virtual reality
CN112033379B (en) Object detection method and device and computer readable storage medium
CN114283447B (en) Motion capturing system and method
Etzold et al. MIPos: towards mobile image positioning in mixed reality web applications based on mobile sensors
JP4999010B2 (en) Free viewpoint video generation method and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213