JP7183058B2 - Three-dimensional measuring device and three-dimensional measuring program - Google Patents

Three-dimensional measuring device and three-dimensional measuring program Download PDF

Info

Publication number
JP7183058B2
JP7183058B2 JP2019014141A JP2019014141A JP7183058B2 JP 7183058 B2 JP7183058 B2 JP 7183058B2 JP 2019014141 A JP2019014141 A JP 2019014141A JP 2019014141 A JP2019014141 A JP 2019014141A JP 7183058 B2 JP7183058 B2 JP 7183058B2
Authority
JP
Japan
Prior art keywords
dimensional
image
camera
measurement
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019014141A
Other languages
Japanese (ja)
Other versions
JP2020122697A (en
Inventor
亮一 志水
純一 瀧口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019014141A priority Critical patent/JP7183058B2/en
Publication of JP2020122697A publication Critical patent/JP2020122697A/en
Application granted granted Critical
Publication of JP7183058B2 publication Critical patent/JP7183058B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、三次元計測に関するものである。 The present invention relates to three-dimensional measurement.

地物の三次元データは、車両の位置を高精度に推定するために用いられる。
特許文献1には、地物の三次元データを用いて車両の位置を高精度に推定する方法が開示されている。
Three-dimensional data of features are used to estimate the position of the vehicle with high accuracy.
Patent Literature 1 discloses a method of estimating the position of a vehicle with high accuracy using three-dimensional data of features.

特許文献2から特許文献7については実施の形態において言及する。 Patent Documents 2 to 7 will be mentioned in the embodiment.

特開2018-116014号公報JP 2018-116014 A 特許第5582691号公報Japanese Patent No. 5582691 特許第4344869号公報Japanese Patent No. 4344869 特許第4132068号公報Japanese Patent No. 4132068 特許第4619962号公報Japanese Patent No. 4619962 特許第4568845号公報Japanese Patent No. 4568845 特許第3966419号公報Japanese Patent No. 3966419

本発明は、地物の三次元位置を計測できるようにすることを目的とする。 An object of the present invention is to enable measurement of the three-dimensional position of a feature.

本発明の三次元計測装置は、カメラと計測センサとディスプレイとを備える。
第1地点で前記カメラを用いて行われる第1撮影によって、計測対象が映った第1画像を得て、第2地点で前記カメラを用いて行われる第2撮影によって、前記計測対象が映った第2画像を得る撮影部と、
前記第1撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測部と、
前記第1画像を前記ディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付部と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定部と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出部とを備える。
A three-dimensional measuring device of the present invention includes a camera, a measurement sensor, and a display.
A first image of the object to be measured is obtained by first photographing at a first location using the camera, and a second image of the object to be measured is obtained by second photographing at a second location using the camera. an imaging unit for obtaining a second image;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. a position and orientation measurement unit that
a measurement location reception unit that displays the first image on the display and receives a measurement location that is a location where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image a corresponding portion identification unit that identifies a corresponding portion that is a corresponding portion;
a target position calculation unit that calculates a three-dimensional position of the measurement target based on the measurement position in the first image and the corresponding position in the second image.

本発明によれば、地物の三次元位置を計測することができる。 According to the present invention, the three-dimensional position of a feature can be measured.

実施の形態1における三次元計測システム100の構成図。1 is a configuration diagram of a three-dimensional measurement system 100 according to Embodiment 1. FIG. 実施の形態1における三次元計測装置200の構成図。1 is a configuration diagram of a three-dimensional measuring device 200 according to Embodiment 1. FIG. 実施の形態1における情報管理装置300の構成図。FIG. 2 is a configuration diagram of an information management device 300 according to Embodiment 1; FIG. 実施の形態1における三次元計測方法のフローチャート。4 is a flowchart of a three-dimensional measurement method according to Embodiment 1; 実施の形態1における第1地点処理(S110)のフローチャート。4 is a flowchart of first point processing (S110) according to Embodiment 1; 実施の形態1における計測箇所受付処理(S120)のフローチャート。4 is a flow chart of measurement point reception processing (S120) according to the first embodiment; 実施の形態1における第2地点処理(S130)のフローチャート。4 is a flowchart of second point processing (S130) according to Embodiment 1; 実施の形態1における対応箇所特定処理(S140)のフローチャート。FIG. 10 is a flowchart of corresponding part identification processing (S140) according to the first embodiment; FIG. 実施の形態1における対象位置算出処理(S150)のフローチャート。4 is a flowchart of target position calculation processing (S150) according to the first embodiment; 実施の形態1における三次元計測方法の第1具体例を示す図。4 is a diagram showing a first specific example of a three-dimensional measurement method according to Embodiment 1; FIG. 実施の形態1における三次元計測方法の第2具体例を示す図。FIG. 7 shows a second specific example of the three-dimensional measurement method according to Embodiment 1; 実施の形態1における対応箇所特定処理(S140)の別例のフローチャート。FIG. 11 is a flowchart of another example of the corresponding location identification process (S140) in the first embodiment; FIG. 実施の形態1における対象位置算出処理(S150)の別例のフローチャート。4 is a flowchart of another example of the target position calculation process (S150) according to Embodiment 1;

実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。 The same or corresponding elements are denoted by the same reference numerals in the embodiments and drawings. Descriptions of elements having the same reference numerals as those described will be omitted or simplified as appropriate. Arrows in the figure mainly indicate the flow of data or the flow of processing.

実施の形態1.
三次元計測システム100について、図1から図13に基づいて説明する。
Embodiment 1.
A three-dimensional measurement system 100 will be described with reference to FIGS. 1 to 13. FIG.

***構成の説明***
図1に基づいて、三次元計測システム100の構成を説明する。
三次元計測システム100は、物体の三次元位置を計測するためのシステムである。
*** Configuration description ***
The configuration of the three-dimensional measurement system 100 will be described based on FIG.
A three-dimensional measurement system 100 is a system for measuring the three-dimensional position of an object.

三次元計測システム100は、情報管理センサ101と三次元計測装置200とを備える。情報管理センサ101は、情報管理装置300を備える。
三次元計測装置200と情報管理装置300とは、ネットワーク102を介して互いに通信する。
A three-dimensional measurement system 100 includes an information management sensor 101 and a three-dimensional measurement device 200 . The information management sensor 101 includes an information management device 300 .
The three-dimensional measuring device 200 and the information management device 300 communicate with each other via the network 102 .

図2に基づいて、三次元計測装置200の構成を説明する。
三次元計測装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204とタッチパネル205とカメラ206と計測センサ207といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
三次元計測装置200を実現するコンピュータの具体例は、スマートフォンまたはタブレットPCである。PCはパーソナルコンピュータの略称である。但し、その他の種類のコンピュータが三次元計測装置200として使用されてもよい。
The configuration of the three-dimensional measuring device 200 will be described based on FIG.
The three-dimensional measuring device 200 is a computer having hardware such as a processor 201 , a memory 202 , an auxiliary storage device 203 , a communication device 204 , a touch panel 205 , a camera 206 and a measurement sensor 207 . These pieces of hardware are connected to each other via signal lines.
A specific example of a computer that implements the three-dimensional measuring device 200 is a smart phone or a tablet PC. PC is an abbreviation for personal computer. However, other types of computers may be used as the three-dimensional measuring device 200 .

プロセッサ201は、演算処理を行うIC(Integrated Circuit)であり、他のハードウェアを制御する。例えば、プロセッサ201は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、またはGPU(Graphics Processing Unit)である。
メモリ202は揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAM(Random Access Memory)である。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM(Read Only Memory)、HDD(Hard Disk Drive)、またはフラッシュメモリである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
通信装置204は、レシーバおよびトランスミッタである。例えば、通信装置204は、通信チップまたはNICである。NICはNetwork Interface Cardの略称である。
タッチパネル205は、ディスプレイを有する入出力装置である。三次元計測装置200は、タッチパネル205とは別の種類の入出力装置を備えてもよい。例えば、三次元計測装置200は、タッチパネル205の代わりに、ディスプレイおよびテンキーなどを備えてもよい。
カメラ206は、デジタルカメラである。
計測センサ207は、三次元計測装置200の位置および姿勢を計測するための1つ以上のセンサである。例えば、計測センサ207は、GPSセンサ、ジャイロセンサおよび加速度センサなどである。GPSセンサはGPS受信機またはGPSモジュールとも呼ばれる。GPSはGlobal Positioning Systemの略称である。
A processor 201 is an IC (Integrated Circuit) that performs arithmetic processing and controls other hardware. For example, the processor 201 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
Memory 202 is a volatile storage device. Memory 202 is also referred to as main storage or main memory. For example, the memory 202 is RAM (Random Access Memory). The data stored in memory 202 is saved in auxiliary storage device 203 as needed.
Auxiliary storage device 203 is a non-volatile storage device. For example, the auxiliary storage device 203 is a ROM (Read Only Memory), HDD (Hard Disk Drive), or flash memory. Data stored in the auxiliary storage device 203 is loaded into the memory 202 as needed.
Communication device 204 is a receiver and transmitter. For example, communication device 204 is a communication chip or NIC. NIC is an abbreviation for Network Interface Card.
A touch panel 205 is an input/output device having a display. The three-dimensional measuring device 200 may include an input/output device of a different type than the touch panel 205 . For example, the three-dimensional measuring device 200 may have a display and numeric keys instead of the touch panel 205 .
Camera 206 is a digital camera.
The measurement sensor 207 is one or more sensors for measuring the position and orientation of the three-dimensional measurement device 200 . For example, the measurement sensor 207 is a GPS sensor, a gyro sensor, an acceleration sensor, and the like. GPS sensors are also called GPS receivers or GPS modules. GPS is an abbreviation for Global Positioning System.

三次元計測装置200は、撮影部211と位置姿勢計測部212と点群取得部213と位置姿勢補正部222と点群投影部221と計測箇所受付部231と対応箇所特定部232と対象位置算出部233といった要素を備える。これらの要素はソフトウェアで実現される。 The three-dimensional measurement apparatus 200 includes an imaging unit 211, a position/orientation measurement unit 212, a point cloud acquisition unit 213, a position/orientation correction unit 222, a point cloud projection unit 221, a measurement location reception unit 231, a corresponding location identification unit 232, and a target location calculation unit. It comprises an element such as part 233 . These elements are implemented in software.

補助記憶装置203には、撮影部211と位置姿勢計測部212と点群取得部213と位置姿勢補正部222と点群投影部221と計測箇所受付部231と対応箇所特定部232と対象位置算出部233としてコンピュータを機能させるための三次元計測プログラムが記憶されている。三次元計測プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
さらに、補助記憶装置203にはOS(Operating System)が記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
つまり、プロセッサ201は、OSを実行しながら、三次元計測プログラムを実行する。
三次元計測プログラムを実行して得られるデータは、メモリ202、補助記憶装置203、プロセッサ201内のレジスタ、または、プロセッサ201内のキャッシュメモリといった記憶装置に記憶される。
The auxiliary storage device 203 includes an imaging unit 211, a position/orientation measurement unit 212, a point cloud acquisition unit 213, a position/orientation correction unit 222, a point cloud projection unit 221, a measurement location reception unit 231, a corresponding location identification unit 232, and a target location calculation unit. A three-dimensional measurement program for functioning a computer is stored as part 233 . A three-dimensional measurement program is loaded into the memory 202 and executed by the processor 201 .
Furthermore, the auxiliary storage device 203 stores an OS (Operating System). At least part of the OS is loaded into memory 202 and executed by processor 201 .
That is, the processor 201 executes the three-dimensional measurement program while executing the OS.
Data obtained by executing the three-dimensional measurement program is stored in a storage device such as memory 202 , auxiliary storage device 203 , registers within processor 201 , or cache memory within processor 201 .

メモリ202は記憶部290として機能する。但し、他の記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。 Memory 202 functions as storage unit 290 . However, another storage device may function as storage unit 290 instead of memory 202 or together with memory 202 .

三次元計測装置200は、プロセッサ201を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、プロセッサ201の役割を分担する。 The three-dimensional measuring device 200 may include multiple processors that substitute for the processor 201 . A plurality of processors share the role of processor 201 .

三次元計測プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The three-dimensional measurement program can be computer-readable (stored) in a non-volatile recording medium such as an optical disc or flash memory.

図3に基づいて、情報管理装置300の構成を説明する。
情報管理装置300は、プロセッサ301とメモリ302と補助記憶装置303と通信装置304と入出力インタフェース305といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
情報管理装置300を実現するコンピュータの具体例は、データベースサーバである。但し、その他の種類のコンピュータが情報管理装置300として使用されてもよい。
The configuration of the information management device 300 will be described based on FIG.
The information management device 300 is a computer having hardware such as a processor 301 , a memory 302 , an auxiliary storage device 303 , a communication device 304 and an input/output interface 305 . These pieces of hardware are connected to each other via signal lines.
A specific example of a computer that implements the information management device 300 is a database server. However, other types of computers may be used as the information management device 300 .

プロセッサ301は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ301はCPU、DSPまたはGPUである。
メモリ302は揮発性の記憶装置である。メモリ302は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ302はRAMである。メモリ302に記憶されたデータは必要に応じて補助記憶装置303に保存される。
補助記憶装置303は不揮発性の記憶装置である。例えば、補助記憶装置303は、ROM、HDDまたはフラッシュメモリである。補助記憶装置303に記憶されたデータは必要に応じてメモリ302にロードされる。
通信装置304は、レシーバおよびトランスミッタである。例えば、通信装置304は通信チップまたはNICである。
入出力インタフェース305は入出力装置が接続されるポートである。例えば、入出力インタフェース305はUSB端子であり、入力装置はキーボードおよびマウスであり、出力装置はディスプレイである。USBはUniversal Serial Busの略称である。
A processor 301 is an IC that performs arithmetic processing and controls other hardware. For example, processor 301 is a CPU, DSP or GPU.
Memory 302 is a volatile storage device. Memory 302 is also referred to as main storage or main memory. For example, memory 302 is RAM. The data stored in the memory 302 is saved in the auxiliary storage device 303 as required.
Auxiliary storage device 303 is a non-volatile storage device. For example, the auxiliary storage device 303 is ROM, HDD or flash memory. Data stored in the auxiliary storage device 303 is loaded into the memory 302 as required.
Communication device 304 is a receiver and transmitter. For example, communication device 304 is a communication chip or NIC.
The input/output interface 305 is a port to which an input/output device is connected. For example, the input/output interface 305 is a USB terminal, the input device is a keyboard and mouse, and the output device is a display. USB is an abbreviation for Universal Serial Bus.

情報管理装置300は、要求受付部311と点群抽出部312と点群応答部313といった要素を備える。これらの要素はソフトウェアで実現される。 The information management device 300 includes elements such as a request reception unit 311 , a point cloud extraction unit 312 and a point cloud response unit 313 . These elements are implemented in software.

補助記憶装置303には、要求受付部311と点群抽出部312と点群応答部313としてコンピュータを機能させるための情報管理プログラムが記憶されている。情報管理プログラムは、メモリ302にロードされて、プロセッサ301によって実行される。
さらに、補助記憶装置303にはOSが記憶されている。OSの少なくとも一部は、メモリ302にロードされて、プロセッサ301によって実行される。
つまり、プロセッサ301は、OSを実行しながら、情報管理プログラムを実行する。
情報管理プログラムを実行して得られるデータは、メモリ302、補助記憶装置303、プロセッサ301内のレジスタ、または、プロセッサ301内のキャッシュメモリといった記憶装置に記憶される。
The auxiliary storage device 303 stores an information management program for causing the computer to function as a request reception unit 311 , a point cloud extraction unit 312 and a point cloud response unit 313 . The information management program is loaded into memory 302 and executed by processor 301 .
Furthermore, an OS is stored in the auxiliary storage device 303 . At least part of the OS is loaded into memory 302 and executed by processor 301 .
That is, the processor 301 executes the information management program while executing the OS.
Data obtained by executing the information management program is stored in a storage device such as memory 302 , auxiliary storage device 303 , registers within processor 301 , or cache memory within processor 301 .

メモリ302および補助記憶装置303は点群データベース390として機能する。
点群データベース390は、三次元点群データを管理するためのデータベースである。
三次元点群データは、三次元点群を表す。三次元点群データの形式は、例えば、LASファイルである。LASファイルとは、航空機または車両で計測されたLIDARデータを格納するための業界標準のバイナリ形式を指す。LIDARは、Light Detection and Ranging、または、Laser Imaging Detection and Rangingの略称である。
三次元点群は、1つ以上の三次元点である。
1つの三次元点は、1つの地点に対応する。各三次元点は三次元座標値を有する。
Memory 302 and auxiliary storage device 303 function as point cloud database 390 .
The point cloud database 390 is a database for managing three-dimensional point cloud data.
The 3D point cloud data represents a 3D point cloud. The format of the 3D point cloud data is, for example, a LAS file. A LAS file refers to an industry standard binary format for storing LIDAR data measured by aircraft or vehicles. LIDAR is an abbreviation for Light Detection and Ranging or Laser Imaging Detection and Ranging.
A 3D point cloud is one or more 3D points.
One 3D point corresponds to one point. Each 3D point has a 3D coordinate value.

情報管理装置300は、プロセッサ301を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、プロセッサ301の役割を分担する。 The information management device 300 may include multiple processors that substitute for the processor 301 . A plurality of processors share the role of processor 301 .

情報管理プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The information management program can be recorded (stored) in a non-volatile recording medium such as an optical disc or flash memory in a computer-readable manner.

***動作の説明***
三次元計測システム100の動作は三次元計測方法に相当する。また、三次元計測方法の手順は三次元計測プログラムの手順に相当する。
***Description of operation***
The operation of the three-dimensional measurement system 100 corresponds to a three-dimensional measurement method. Also, the procedure of the three-dimensional measurement method corresponds to the procedure of the three-dimensional measurement program.

図4に基づいて、三次元計測方法を説明する。
ステップS110において、撮影部211は、第1地点でカメラ206を用いて行われる第1撮影によって、第1画像を得る。
第1撮影は、第1地点でカメラ206を用いて行われる撮影である。
第1画像は、計測対象が映った画像であり、第1撮影によって得られる。
A three-dimensional measurement method will be described based on FIG.
In step S110, the photographing unit 211 obtains a first image by first photographing using the camera 206 at a first point.
The first photography is photography performed using the camera 206 at the first location.
The first image is an image of the object to be measured, and is obtained by the first imaging.

また、位置姿勢計測部212は、第1撮影時に計測センサ207を用いて、カメラ206の三次元位置と三次元姿勢とを計測する。
三次元位置は、三次元座標値で表される。
三次元姿勢は、ロール角とピッチ角とヨー角とで表される。
Also, the position and orientation measurement unit 212 measures the three-dimensional position and three-dimensional orientation of the camera 206 using the measurement sensor 207 during the first image capturing.
A three-dimensional position is represented by three-dimensional coordinate values.
A three-dimensional posture is represented by a roll angle, a pitch angle, and a yaw angle.

図5に基づいて、第1地点処理(S110)の手順を説明する。
図5の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 5, the procedure of the first point processing (S110) will be described.
In the description of FIG. 5, the three-dimensional measuring device 200 is called a "smartphone".

ステップS111において、利用者は、スマートフォンを持って第1地点に移動し、スマートフォンのカメラ206を計測対象に向け、撮影操作を行う。
そして、撮影部211は、カメラ206を動作させることによって、第1撮影を行う。これにより、第1画像が得られる。
In step S111, the user carries the smartphone and moves to a first point, points the camera 206 of the smartphone toward the measurement target, and performs a photographing operation.
Then, the imaging unit 211 performs the first imaging by operating the camera 206 . Thereby, the first image is obtained.

ステップS112において、位置姿勢計測部212は、計測センサ207を動作させる。これにより、第1撮影時における三次元計測装置200の三次元位置と、第1撮影時における三次元計測装置200の三次元姿勢とが計測される。
そして、位置姿勢計測部212は、第1撮影時における三次元計測装置200の三次元位置にカメラ206の位置オフセットを加算する。これにより、第1撮影時におけるカメラ206の三次元位置が算出される。カメラ206の位置オフセットは、記憶部290に予め登録されている。
さらに、位置姿勢計測部212は、第1撮影時における三次元計測装置200の三次元姿勢にカメラ206の姿勢オフセットを加算する。これにより、第1撮影時におけるカメラ206の三次元姿勢が算出される。カメラ206の姿勢オフセットは、記憶部290に予め登録されている。
In step S112, the position and orientation measurement unit 212 causes the measurement sensor 207 to operate. As a result, the three-dimensional position of the three-dimensional measuring device 200 during the first imaging and the three-dimensional orientation of the three-dimensional measuring device 200 during the first imaging are measured.
Then, the position/orientation measuring unit 212 adds the position offset of the camera 206 to the three-dimensional position of the three-dimensional measuring device 200 at the time of the first imaging. Thereby, the three-dimensional position of the camera 206 at the time of the first imaging is calculated. The position offset of camera 206 is registered in advance in storage unit 290 .
Furthermore, the position and orientation measurement unit 212 adds the orientation offset of the camera 206 to the three-dimensional orientation of the three-dimensional measuring device 200 at the time of the first imaging. Thereby, the three-dimensional posture of the camera 206 at the time of the first photographing is calculated. The attitude offset of camera 206 is registered in advance in storage unit 290 .

ステップS113において、点群取得部213は、第1撮影時におけるカメラ206の三次元位置と第1撮影時におけるカメラ206の三次元姿勢とに基づいて、第1点群データを取得する。
第1点群データは、第1点群を表す。
第1点群は、第1画像に映っている範囲の三次元点群である。
In step S113, the point cloud acquisition unit 213 acquires first point cloud data based on the three-dimensional position of the camera 206 during the first imaging and the three-dimensional posture of the camera 206 during the first imaging.
The first point cloud data represents the first point cloud.
The first point group is a three-dimensional point group within the range shown in the first image.

点群取得部213は、第1点群データを次のように取得する。
まず、点群取得部213は、通信装置204を用いて、第1点群要求データを情報管理装置300へ送信する。第1点群要求データは、第1撮影時におけるカメラ206の三次元位置と、第1撮影時におけるカメラ206の三次元姿勢と、第1撮影時におけるカメラパラメータと、を含む。例えば、カメラパラメータは、焦点距離、画像サイズまたは画素サイズである。
次に、要求受付部311は、通信装置304を用いて、第1点群要求データを受信する。
次に、点群抽出部312は、要求受付部311からの第1点群要求データに基づいて、点群データベース390から第1点群データを抽出する。
次に、点群応答部313は、通信装置304を用いて、点群抽出部312からの第1点群データを三次元計測装置200へ送信する。なお、カメラの位置からの奥行き方向に制限をかけることで、三次元点群データのデータ量を抑えることができる。制限の一例は、カメラ中心から奥行き10メートル以内である。
そして、点群取得部213は、通信装置204を用いて、第1点群データを受信する。
The point cloud acquisition unit 213 acquires the first point cloud data as follows.
First, the point cloud acquisition unit 213 uses the communication device 204 to transmit the first point cloud request data to the information management device 300 . The first point cloud request data includes the 3D position of the camera 206 at the time of the first shooting, the 3D attitude of the camera 206 at the time of the first shooting, and the camera parameters at the time of the first shooting. For example, camera parameters are focal length, image size or pixel size.
Next, the request receiving unit 311 uses the communication device 304 to receive the first point cloud request data.
Next, the point cloud extraction unit 312 extracts first point cloud data from the point cloud database 390 based on the first point cloud request data from the request reception unit 311 .
Next, the point cloud response unit 313 uses the communication device 304 to transmit the first point cloud data from the point cloud extraction unit 312 to the three-dimensional measuring device 200 . By restricting the depth direction from the position of the camera, the amount of 3D point cloud data can be suppressed. An example limit is within 10 meters depth from the camera center.
Then, the point cloud acquisition unit 213 uses the communication device 204 to receive the first point cloud data.

第1点群データの抽出について説明する。
点群抽出部312は、第1画像平面に投影される三次元点群の点群データを点群データベース390から抽出する。抽出される点群データが第1点群データである。
第1画像平面への三次元点群の投影についてステップS114で説明する。
Extraction of the first point cloud data will be described.
The point cloud extraction unit 312 extracts from the point cloud database 390 the point cloud data of the three-dimensional point cloud projected onto the first image plane. The extracted point cloud data is the first point cloud data.
The projection of the 3D point cloud onto the first image plane is described in step S114.

第1点群データの取得時に第1撮影が行われてもよい。具体例を以下に説明する。
利用者がスマートフォンのタッチパネル205を操作してアプリケーションを起動すると、カメラ画像を定期的に取得できるようになる。その状態から、定期的に(例えば、数秒に1回)、カメラ206の概略位置およびカメラ206の概略姿勢が送付されるタイミングで第1点群要求データが出る。第1撮影要求データが送付され、第1点群がタッチパネル205のディスプレイに表示される。位置姿勢の微調整が終わった後、メッセージ“ターゲット選択”がディスプレイに表示され、ターゲット選択用ゲートがディスプレイに現れる。利用者は、ゲート内にターゲットを収め、ディスプレイに表示されるメッセージ“第1撮影OK?”をクリックする。これにより、カメラ206によって第1撮影が行われて第1画像が得られ、第1撮影時が確定する。第1撮影時刻と第1画像はメモリ202に一時記憶される。その後、後述する第2撮影が行われる。
利用者がタッチパネル205の点群取得ボタンを押してもよい。点群取得ボタンが押されると、スマートフォンのカメラ206が起動し、撮影が開始される。その状態で、利用者は、タッチパネル205の撮影ボタンを通じて撮影指示を入力する。すると、カメラ206によって第1撮影が行われて第1画像が得られ、第1撮影時が確定する。第1撮影時刻と第1画像はメモリ202に一時記憶される。そして、第1点群要求データが発生する。
The first imaging may be performed when acquiring the first point cloud data. Specific examples are described below.
When the user operates the touch panel 205 of the smartphone to start the application, camera images can be obtained periodically. From this state, the first point cloud request data is issued periodically (for example, once every few seconds) at the timing when the approximate position and the approximate orientation of the camera 206 are sent. The first imaging request data is sent, and the first point cloud is displayed on the display of the touch panel 205 . After fine-tuning the pose, the message "target selection" appears on the display, and a target selection gate appears on the display. The user puts the target in the gate and clicks the message "First photography OK?" displayed on the display. As a result, the camera 206 performs the first photographing, obtains the first image, and determines the time of the first photographing. The first photographing time and the first image are temporarily stored in the memory 202 . After that, a second photographing operation, which will be described later, is performed.
The user may press the point cloud acquisition button on the touch panel 205 . When the point cloud acquisition button is pressed, the camera 206 of the smart phone is activated and shooting is started. In that state, the user inputs a photographing instruction through the photographing button on the touch panel 205 . Then, the camera 206 performs the first photographing, obtains the first image, and determines the time of the first photographing. The first photographing time and the first image are temporarily stored in the memory 202 . Then, the first point cloud request data is generated.

ステップS114において、点群投影部221は、通信装置204から取得された第1点群データと、第1撮影時におけるカメラ206の三次元位置と、第1撮影時におけるカメラ206の三次元姿勢とに基づいて、第1点群を第1画像に投影する。 In step S114, the point cloud projection unit 221 projects the first point cloud data acquired from the communication device 204, the three-dimensional position of the camera 206 at the time of the first imaging, and the three-dimensional posture of the camera 206 at the time of the first imaging. Project the first point cloud onto the first image based on .

第1画像への第1点群の投影について説明する。
第1画像への第1点群の投影は、第1画像平面への第1点群の投影に相当する。
第1画像平面は、第1画像に対応する画像平面である。
画像平面は、画像に対応する三次元平面である。画像平面は、カメラの位置からカメラの視線方向に焦点距離離れた地点を含み、カメラの視線方向と直交する。画像平面の大きさは、カメラのパラメータによって決まる。
各三次元点は、カメラから三次元点への視線ベクトルと画像平面との交点に投影される。視線ベクトルはLOSベクトルともいう。LOSはLine Of Sightの略称である。
The projection of the first point cloud onto the first image will be described.
Projecting the first point cloud onto the first image corresponds to projecting the first point cloud onto the first image plane.
The first image plane is the image plane corresponding to the first image.
An image plane is a three-dimensional plane corresponding to an image. The image plane includes a point at a focal distance in the direction of the camera's line of sight from the position of the camera and is orthogonal to the direction of the camera's line of sight. The size of the image plane is determined by the parameters of the camera.
Each 3D point is projected to the intersection of the line-of-sight vector from the camera to the 3D point and the image plane. A line-of-sight vector is also called an LOS vector. LOS is an abbreviation for Line Of Sight.

ステップS114では、特許文献4または特許文献5に開示されている技術を利用することができる。
特許文献4には、デジタル画像面における対象点の投影点について開示されている(図3参照)。
特許文献5には、三次元点群データをカメラの画像平面に対して投影する投影変換処理が開示されている。
In step S114, the technology disclosed in Patent Document 4 or Patent Document 5 can be used.
Patent Document 4 discloses a projection point of an object point on a digital image plane (see FIG. 3).
Japanese Patent Laid-Open No. 2002-200000 discloses a projection conversion process for projecting three-dimensional point cloud data onto an image plane of a camera.

ステップS115において、位置姿勢補正部222は、第1点群から第1画像の中の第1特徴部分に対応する第1特徴点群を検出する。
第1特徴部分は、第1画像に含まれる特徴部分である。例えば、特徴部分はエッジ部分である。特徴部分の具体例は、路肩のエッジである。
第1特徴点群は、第1点群データにおける第1特徴部分を表す三次元点群である。
In step S115, the position/posture correction unit 222 detects a first feature point group corresponding to the first feature portion in the first image from the first point group.
The first characteristic portion is a characteristic portion included in the first image. For example, the feature portion is an edge portion. A specific example of a feature is the edge of a road shoulder.
The first feature point group is a three-dimensional point group representing the first feature portion in the first point group data.

ステップS115では、特許文献2および特許文献3に開示されている技術を利用することができる。
特許文献2には、点群が表すエッジ部分を特定すること、および、各エッジが路肩、歩道、壁面またはポールであることが開示されている(図21参照)。特許文献3にも同様の開示がされている。
In step S115, techniques disclosed in Patent Documents 2 and 3 can be used.
Patent Literature 2 discloses identifying edge portions represented by a point cloud, and that each edge is a road shoulder, sidewalk, wall surface, or pole (see FIG. 21). A similar disclosure is also made in Patent Document 3.

ステップS116において、位置姿勢補正部222は、検出された第1特徴点群が第1特徴部分に投影されているか判定する。
例えば、位置姿勢補正部222は、第1画像の中の第1特徴部分と第1画像に投影されている第1特徴点群との位置のずれ量を算出し、算出されたずれ量を誤差閾値と比較する。ずれ量が誤差閾値以下である場合、位置姿勢補正部222は、第1特徴点群が第1特徴部分に投影されていると判定する。
第1特徴点群が第1特徴部分に投影されている場合、第1地点処理(S110)は終了する。
第1特徴点群が第1特徴部分に投影されていない場合、処理はステップS117に進む。
In step S116, the position/posture correction unit 222 determines whether the detected first feature point group is projected onto the first feature portion.
For example, the position/posture correction unit 222 calculates the amount of positional deviation between the first characteristic portion in the first image and the first feature point group projected on the first image, and calculates the calculated amount of deviation as an error. Compare with threshold. If the deviation amount is equal to or less than the error threshold, the position/orientation correction unit 222 determines that the first feature point group is projected onto the first feature portion.
If the first feature point group is projected onto the first feature portion, the first point processing (S110) ends.
If the first feature point group is not projected onto the first feature portion, the process proceeds to step S117.

ステップS116では、特許文献5に開示されている技術を利用することができる。
特許文献5には、画像に投影された点群が形成する段差と画像に映った段差とのマッチングについて開示されている(図13参照)。
In step S116, the technology disclosed in Patent Document 5 can be used.
Patent Literature 5 discloses matching between a step formed by a point group projected on an image and a step reflected in the image (see FIG. 13).

ステップS117において、位置姿勢補正部222は、第1撮影時におけるカメラ206の三次元位置と第1撮影時におけるカメラ206の三次元姿勢との少なくとも一方を補正する。
具体的には、位置姿勢補正部222は、第1撮影時におけるカメラ206の三次元位置に位置補正量を加算する。また、位置姿勢補正部222は、第1撮影時におけるカメラ206の三次元姿勢に姿勢補正量を加算する。位置補正量と姿勢補正量とのそれぞれは、規定値であってもよいし、第1特徴部分と第1特徴点群との位置のずれ量に基づいて算出される値であってもよい。また、利用者が、第1特徴部分と第1特徴点群との位置のずれ量をディスプレイで見て、カメラ206の位置姿勢を補正しても構わない。
ステップS117の後、処理はステップS114に進む。
In step S117, the position/orientation correction unit 222 corrects at least one of the three-dimensional position of the camera 206 during the first imaging and the three-dimensional orientation of the camera 206 during the first imaging.
Specifically, the position/posture correction unit 222 adds the position correction amount to the three-dimensional position of the camera 206 at the time of the first imaging. Also, the position/posture correction unit 222 adds the posture correction amount to the three-dimensional posture of the camera 206 at the time of the first imaging. Each of the position correction amount and the posture correction amount may be a specified value, or may be a value calculated based on the amount of positional deviation between the first feature portion and the first feature point group. Alternatively, the user may correct the position and orientation of the camera 206 by viewing the amount of positional deviation between the first feature portion and the first feature point group on the display.
After step S117, the process proceeds to step S114.

図4に戻り、ステップS120から説明を続ける。
ステップS120において、計測箇所受付部231は、第1画像をタッチパネル205のディスプレイに表示し、計測箇所を受け付ける。
計測箇所は、第1画像の中で計測対象が映っている箇所であり、利用者によって指定される。
Returning to FIG. 4, the description continues from step S120.
In step S120, the measurement point accepting unit 231 displays the first image on the display of the touch panel 205 and accepts the measurement point.
The measurement location is a location where the measurement target appears in the first image, and is designated by the user.

図6に基づいて、計測箇所受付処理(S120)の手順を説明する。
図6の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 6, the procedure of the measurement point acceptance process (S120) will be described.
In the description of FIG. 6, the three-dimensional measuring device 200 is called a "smartphone".

ステップS121において、計測箇所受付部231は、タッチパネル205のディスプレイに第1画像を表示させる。 In step S<b>121 , the measurement point reception unit 231 causes the display of the touch panel 205 to display the first image.

ステップS122において、計測箇所受付部231は、表示された第1画像に第1点群を重畳させる。
具体的には、点群投影部221が第1点群を第1画像に投影する(図5のステップS114を参照)。そして、計測箇所受付部231は、第1点群の各三次元点を第1画像の中の投影箇所に描画する。
In step S122, the measurement point reception unit 231 superimposes the first point group on the displayed first image.
Specifically, the point cloud projection unit 221 projects the first point cloud onto the first image (see step S114 in FIG. 5). Then, the measurement location reception unit 231 draws each three-dimensional point of the first point group at the projection location in the first image.

計測箇所受付部231は、特許文献5に開示されている技術を利用することができる。 特許文献5には、光学画像に重畳された三次元点群データが開示されている(図13参照)。 The measurement point reception unit 231 can use the technology disclosed in Patent Document 5. Patent Document 5 discloses three-dimensional point cloud data superimposed on an optical image (see FIG. 13).

ステップS123において、利用者は、スマートフォンのタッチパネル205を操作することによって、第1画像の中の計測箇所を指定する。
そして、計測箇所受付部231は、タッチパネル205を介して、計測箇所の指定を受け付ける。
In step S123, the user specifies a measurement point in the first image by operating touch panel 205 of the smartphone.
Then, the measurement point reception unit 231 receives designation of the measurement point via the touch panel 205 .

図4に戻り、ステップS130から説明を続ける。
ステップS130において、撮影部211は、第2地点でカメラ206を用いて行われる第2撮影によって、第2画像を得る。
第2地点は、第1地点とは異なる地点である。例えば、第2地点は、利用者がスマートフォンを構えたまま徒歩で横方向に数メートル移動した地点である。
第2撮影は、第2地点でカメラ206を用いて行われる撮影である。
第2画像は、第1画像の中の計測対象が映った画像であり、第2撮影によって得られる。
Returning to FIG. 4, the description continues from step S130.
In step S130, the imaging unit 211 obtains a second image by second imaging performed using the camera 206 at a second location.
The second point is a point different from the first point. For example, the second point is a point where the user has moved several meters in the lateral direction on foot while holding the smartphone.
The second photography is photography performed using the camera 206 at the second location.
The second image is an image showing the measurement target in the first image, and is obtained by the second imaging.

また、位置姿勢計測部212は、第2撮影時に計測センサ207を用いて、カメラ206の三次元位置と三次元姿勢とを計測する。 Also, the position and orientation measurement unit 212 measures the three-dimensional position and three-dimensional orientation of the camera 206 using the measurement sensor 207 during the second image capturing.

図7に基づいて、第2地点処理(S130)の手順を説明する。
図7の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 7, the procedure of the second point processing (S130) will be described.
In the description of FIG. 7, the three-dimensional measuring device 200 is called a "smartphone".

ステップS131において、利用者は、スマートフォンを持って第2地点に移動し、スマートフォンのカメラ206を計測対象に向け、撮影操作を行う。
そして、撮影部211は、カメラ206を動作させることによって、第2撮影を行う。これにより、第2画像が得られる。
In step S131, the user carries the smartphone and moves to the second location, points the camera 206 of the smartphone toward the measurement target, and performs a photographing operation.
Then, the imaging unit 211 performs the second imaging by operating the camera 206 . A second image is thus obtained.

ステップS132において、位置姿勢計測部212は、計測センサ207を動作させる。これにより、第2撮影時における三次元計測装置200の三次元位置と、第2撮影時における三次元計測装置200の三次元姿勢とが計測される。
そして、位置姿勢計測部212は、第2撮影時における三次元計測装置200の三次元位置にカメラ206の位置オフセットを加算する。これにより、第2撮影時におけるカメラ206の三次元位置が算出される。カメラ206の位置オフセットは、記憶部290に予め登録されている。
さらに、位置姿勢計測部212は、第2撮影時における三次元計測装置200の三次元姿勢にカメラ206の姿勢オフセットを加算する。これにより、第2撮影時におけるカメラ206の三次元姿勢が算出される。カメラ206の姿勢オフセットは、記憶部290に予め登録されている。
In step S132, the position and orientation measurement unit 212 causes the measurement sensor 207 to operate. As a result, the three-dimensional position of the three-dimensional measuring device 200 during the second imaging and the three-dimensional orientation of the three-dimensional measuring device 200 during the second imaging are measured.
Then, the position/orientation measuring unit 212 adds the position offset of the camera 206 to the three-dimensional position of the three-dimensional measuring device 200 at the time of the second imaging. Thereby, the three-dimensional position of the camera 206 at the time of the second photographing is calculated. The position offset of camera 206 is registered in advance in storage unit 290 .
Furthermore, the position and orientation measurement unit 212 adds the orientation offset of the camera 206 to the three-dimensional orientation of the three-dimensional measuring device 200 during the second imaging. Thereby, the three-dimensional posture of the camera 206 at the time of the second photographing is calculated. The attitude offset of camera 206 is registered in advance in storage unit 290 .

ステップS133において、点群取得部213は、第2撮影時におけるカメラ206の三次元位置と第2撮影時におけるカメラ206の三次元姿勢とに基づいて、第2点群データを取得する。
第2点群データは、第2点群を表す。
第2点群は、第2画像に映っている範囲の三次元点群である。
In step S133, the point cloud acquisition unit 213 acquires second point cloud data based on the three-dimensional position of the camera 206 during the second imaging and the three-dimensional posture of the camera 206 during the second imaging.
The second point cloud data represents the second point cloud.
The second point group is a three-dimensional point group within the range shown in the second image.

第2点群データを取得する方法は、第1点群データを取得する方法と同じである(図5のステップS113を参照)。つまり、点群取得部213は、通信装置204を用いて、情報管理装置300から第2点群データを取得する。 The method for acquiring the second point cloud data is the same as the method for acquiring the first point cloud data (see step S113 in FIG. 5). That is, the point cloud acquisition unit 213 acquires the second point cloud data from the information management device 300 using the communication device 204 .

第2点群データの取得時に第2撮影が行われてもよい。具体例を以下に説明する。
移動ステレオ方式のため、利用者は、第2地点に移動してカメラ206の位置姿勢を決める。その後、第1点群要求データと同様に第2点群要求データが出る。そして、第2地点への利用者の移動が完了し、第2点群がタッチパネル205のディスプレイに表示される。位置姿勢の微調整およびターゲット選択が終わった段階で、利用者は、ディスプレイに表示されるメッセージ“第2撮影OK?”をクリックする。これにより、カメラ206によって第2撮影が行われて第2画像が得られ、第2撮影時が確定する。第2撮影時刻と第2画像はがメモリ202に一時記憶される。
利用者がタッチパネル205の点群取得ボタンを押してもよい。点群取得ボタンが押されると、スマートフォンのカメラ206が起動し、撮影が開始される。その状態で、利用者は、タッチパネル205の撮影ボタンを通じて撮影指示を入力する。すると、カメラ206によって第2撮影が行われて第2画像が得られ、第2撮影時が確定する。第2撮影時刻と第2画像はメモリ202に一時記憶される。そして、第2点群要求データが発生する。
A second imaging may be performed when acquiring the second point cloud data. Specific examples are described below.
Due to the mobile stereo system, the user moves to a second location and determines the position and orientation of the camera 206 . After that, the second point cloud request data is output in the same manner as the first point cloud request data. Then, the movement of the user to the second point is completed, and the second point group is displayed on the touch panel 205 display. When the fine adjustment of the position and orientation and the selection of the target are finished, the user clicks the message "2nd shooting OK?" displayed on the display. As a result, the camera 206 performs the second photographing, obtains the second image, and determines the time of the second photographing. The second photographing time and the second image are temporarily stored in the memory 202 .
The user may press the point cloud acquisition button on the touch panel 205 . When the point cloud acquisition button is pressed, the camera 206 of the smart phone is activated and shooting is started. In that state, the user inputs a photographing instruction through the photographing button on the touch panel 205 . Then, the camera 206 performs the second photographing to obtain the second image, and the time of the second photographing is determined. The second photographing time and the second image are temporarily stored in the memory 202 . Then, the second point cloud request data is generated.

ステップS134において、点群投影部221は、取得された第2点群データと、第2撮影時におけるカメラ206の三次元位置と、第2撮影時におけるカメラ206の三次元姿勢とに基づいて、第2点群を第2画像に投影する。 In step S134, the point cloud projection unit 221, based on the obtained second point cloud data, the three-dimensional position of the camera 206 during the second imaging, and the three-dimensional posture of the camera 206 during the second imaging, Project the second point cloud onto a second image.

第2点群を第2画像に投影する方法は、第1点群を第1画像に投影する方法と同じである(図5のステップS114を参照)。 The method of projecting the second point cloud onto the second image is the same as the method of projecting the first point cloud onto the first image (see step S114 in FIG. 5).

ステップS135において、位置姿勢補正部222は、第2点群から第2画像の中の第2特徴部分に対応する第2特徴点群を検出する。
第2特徴部分は、第2画像に含まれる特徴部分である。例えば、特徴部分はエッジ部分である。特徴部分の具体例は、路肩のエッジである。
第2特徴点群は、第2点群データにおける第2特徴部分を表す三次元点群である。
In step S135, the position/posture correction unit 222 detects a second feature point group corresponding to the second feature portion in the second image from the second point group.
The second characteristic portion is a characteristic portion included in the second image. For example, the feature portion is an edge portion. A specific example of a feature is the edge of a road shoulder.
The second feature point group is a three-dimensional point group representing the second feature portion in the second point group data.

第2特徴点群を検出する方法は、第1特徴点群を検出する方法と同じである(図5のステップS115を参照)。つまり、位置姿勢補正部222は、特許文献2および特許文献3に開示されている技術を利用することによって、第2特徴点群を検出することができる。 The method for detecting the second feature point group is the same as the method for detecting the first feature point group (see step S115 in FIG. 5). In other words, the position/orientation correction unit 222 can detect the second feature point group by using the techniques disclosed in Patent Document 2 and Patent Document 3.

ステップS136において、位置姿勢補正部222は、検出された第2特徴点群が第2特徴部分に投影されているか判定する。判定方法は、ステップS116における方法と同じである(図5参照)。
第2特徴点群が第2特徴部分に投影されている場合、第2地点処理(S130)は終了する。
第2特徴点群が第2特徴部分に投影されていない場合、処理はステップS137に進む。
In step S136, the position/posture correction unit 222 determines whether the detected second feature point group is projected onto the second feature portion. The determination method is the same as the method in step S116 (see FIG. 5).
If the second feature point group is projected onto the second feature portion, the second point processing (S130) ends.
If the second feature point group is not projected onto the second feature portion, the process proceeds to step S137.

ステップS137において、位置姿勢補正部222は、第2撮影時におけるカメラ206の三次元位置と第2撮影時におけるカメラ206の三次元姿勢との少なくとも一方を補正する。補正方法は、ステップS117における方法と同じである(図5参照)。
ステップS137の後、処理はステップS134に進む。
In step S137, the position/orientation correction unit 222 corrects at least one of the three-dimensional position of the camera 206 during the second imaging and the three-dimensional orientation of the camera 206 during the second imaging. The correction method is the same as the method in step S117 (see FIG. 5).
After step S137, the process proceeds to step S134.

図4に戻り、ステップS140から説明を続ける。
ステップS140において、対応箇所特定部232は、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元位置と、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元姿勢とに基づいて、第2画像の中の対応箇所を特定する。
対応箇所は、第2画像の中で計測箇所に対応する箇所である。言い換えると、対応箇所は、第2画像の中で第1画像の中の計測箇所に映っている地点と同じ地点が映っている箇所である。つまり、第1画像の中の計測箇所と第2画像の中の対応箇所とのそれぞれには、計測対象が映っている。
Returning to FIG. 4, the description continues from step S140.
In step S140, the corresponding part identification unit 232 determines the three-dimensional position of the camera 206 at the time of the first imaging and the time of the second imaging, and the three-dimensional position of the camera 206 at the time of the first imaging and the time of the second imaging. A corresponding portion in the second image is identified based on the posture.
The corresponding location is a location corresponding to the measurement location in the second image. In other words, the corresponding point is a point in the second image where the same point as the point shown in the measurement point in the first image appears. That is, the measurement target is shown in each of the measurement location in the first image and the corresponding location in the second image.

図8に基づいて、対応箇所特定処理(S140)の手順を説明する。
図8の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 8, the procedure of the corresponding part identification process (S140) will be described.
In the description of FIG. 8, the three-dimensional measuring device 200 is called a "smartphone".

ステップS141において、対応箇所特定部232は、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元位置と、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元姿勢と、第1画像の中の計測箇所とに基づいて、第2画像におけるエピポーラ線を算出する。 In step S141, the corresponding part identifying unit 232 determines the three-dimensional position of the camera 206 at the time of the first imaging and the time of the second imaging, and the three-dimensional position of the camera 206 at the time of the first imaging and the time of the second imaging. An epipolar line in the second image is calculated based on the orientation and the measurement location in the first image.

ステップS141では、特許文献2、特許文献3または特許文献4に開示されている技術を利用することができる。
特許文献2には、カメラ位置姿勢に基づいてエピポーラ線を算出する第1のエピポーラ線算出処理が開示されている(図16参照)。特許文献3にも同様の開示がされている。
特許文献4には、エピポーラ拘束線の算出方法が開示されている(図3参照)。
In step S141, the technology disclosed in Patent Document 2, Patent Document 3, or Patent Document 4 can be used.
Patent Document 2 discloses a first epipolar line calculation process for calculating an epipolar line based on the camera position and orientation (see FIG. 16). A similar disclosure is also made in Patent Document 3.
Patent Document 4 discloses a method of calculating an epipolar constraint line (see FIG. 3).

ステップS142において、対応箇所特定部232は、算出されたエピポーラ線が記された状態で、第2画像をタッチパネル205のディスプレイに表示する。 In step S142, the corresponding portion identification unit 232 displays the second image on the display of the touch panel 205 with the calculated epipolar line marked.

ステップS143において、対応箇所特定部232は、表示された第2画像に第2点群を重畳させる。重畳方法は、ステップS122における方法と同じである(図6参照)。 In step S143, the corresponding part identification unit 232 superimposes the second point group on the displayed second image. The superimposition method is the same as the method in step S122 (see FIG. 6).

ステップS144において、利用者は、スマートフォンのタッチパネル205を操作することによって、表示された第2画像に記されたエピポーラ線上で対応箇所を指定する。
そして、対応箇所特定部232は、タッチパネル205を介して、対応箇所の指定を受け付ける。
In step S<b>144 , the user operates touch panel 205 of the smartphone to specify a corresponding portion on the epipolar line marked on the displayed second image.
Then, the corresponding portion identification unit 232 receives designation of the corresponding portion via the touch panel 205 .

図4に戻り、ステップS150を説明する。
ステップS150において、対象位置算出部233は、第1画像の中の計測箇所と第2画像の中の対応箇所とに基づいて、計測対象の三次元位置を算出する。
Returning to FIG. 4, step S150 will be described.
In step S150, the target position calculation unit 233 calculates the three-dimensional position of the measurement target based on the measurement points in the first image and the corresponding points in the second image.

図9に基づいて、対象位置算出処理(S150)の手順を説明する。
ステップS151において、対象位置算出部233は、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元位置と、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元姿勢とに基づいて、第1画像の中の計測箇所と第2画像の中の対応箇所との視差を算出する。
Based on FIG. 9, the procedure of the target position calculation process (S150) will be described.
In step S151, the target position calculation unit 233 calculates the three-dimensional position of the camera 206 at the time of the first imaging and the time of the second imaging, and the three-dimensional position of the camera 206 at the time of the first imaging and the time of the second imaging. The parallax between the measurement point in the first image and the corresponding point in the second image is calculated based on the posture.

ステップS152において、対象位置算出部233は、算出された視差に基づいて、計測対象の三次元位置を算出する。 In step S152, the target position calculator 233 calculates the three-dimensional position of the measurement target based on the calculated parallax.

対象位置算出処理(S150)では、特許文献4、特許文献6または特許文献7に開示されている技術を利用することができる。
特許文献4には、視差を利用することによって物体の形状を三次元的に復元する三次元復元手段が開示されている(図2参照)。
特許文献6には、視差を利用することによって三次元モデルを作成するGISモデル作成部が開示されている(図1参照)。特許文献7にも同様の開示がされている。
In the target position calculation process (S150), the technology disclosed in Patent Document 4, Patent Document 6, or Patent Document 7 can be used.
Patent Document 4 discloses a three-dimensional restoration means for three-dimensionally restoring the shape of an object by using parallax (see FIG. 2).
Patent Literature 6 discloses a GIS model creation unit that creates a three-dimensional model by using parallax (see FIG. 1). A similar disclosure is also made in Patent Document 7.

図10に基づいて、三次元計測方法の第1具体例を説明する。
図10において、三次元計測装置200を「スマートフォン112」と称する。
利用者は、第1地点113でスマートフォン112を計測対象111に向けて、撮影操作を行う。計測対象111は、電信柱から垂れ下がっている電線である。
撮影部211は、撮影範囲110を撮影することによって、第1画像114を得る。第1画像114には計測対象111が映っている。
計測箇所受付部231は、第1画像114をタッチパネル205に表示する。表示された第1画像114には三次元点群が重畳されている(図示省略)。利用者は、第1画像114に三次元点群が重畳されていることを確認する。
利用者は、タッチパネル205を操作することによって、第1画像114の中の計測箇所に、計測箇所を指定するためのマーカ115を設定する。マーカ115は、ダブルクリック等によって設定される。マーカ115の大きさは可変であり、計測箇所受付部231は、マーカ115の大きさを適切に調整する。
なお、図10に示したマーカ115は十字形状であるが、マーカ115は丸形状であってもよいし、四角形状または矢尻形状などの多角形状であってもよい。
計測箇所受付部231は、第1画像114の中のマーカ115の位置を計測箇所として受け付ける。
ここでのマーカ115の位置は、マーカ115における特定の指定点の位置を意味する。マーカ115における特定の指定点は予め適宜に設定すればよい。例えば、マーカ115が十字形状または丸形状であれば、マーカ115の中心を特定の指定点とすればよい。また、マーカ115が四角形状であれば、マーカ115の中心またはマーカ115の四隅のいずれかを特定の指定点とすればよい。また、マーカ115が矢尻形状であれば、マーカ115の先端を特定の指定点とすればよい。
利用者は、スマートフォン112を持って第2地点116に移動する。
利用者は、第2地点116でスマートフォン112を計測対象111に向けて、撮影操作を行う。
撮影部211は、撮影範囲110を撮影することによって、第2画像117を得る。第2画像117には計測対象111が映っている。
対応箇所特定部232は、第2画像117をタッチパネル205に表示する。表示された第2画像117にはエピポーラ線118が記されている。さらに、表示された第2画像117には三次元点群が重畳されている(図示省略)。
利用者は、タッチパネル205を操作することによって、エピポーラ線118上の対応箇所にマーカ119を設定する。マーカ119は、ダブルクリック等によって設定される。マーカ119の大きさは可変であり、対応箇所特定部232は、マーカ119の大きさを適切に調整する。
対応箇所特定部232は、エピポーラ線118上のマーカ119の位置を対応箇所として受け付ける。
対象位置算出部233は、マーカ115が設定された計測箇所とマーカ119が設定された対応箇所との視差を利用して、計測対象111の三次元位置を算出する。これにより、電信柱から垂れ下がっている電線の最も低い部分の三次元座標値が得られる。
A first specific example of the three-dimensional measurement method will be described with reference to FIG.
In FIG. 10, the three-dimensional measuring device 200 is called "smartphone 112".
The user aims the smartphone 112 at the measurement target 111 at the first point 113 and performs a photographing operation. A measurement target 111 is an electric wire hanging from a utility pole.
The photographing unit 211 obtains the first image 114 by photographing the photographing range 110 . A measurement target 111 is shown in the first image 114 .
Measurement point reception unit 231 displays first image 114 on touch panel 205 . A three-dimensional point group is superimposed on the displayed first image 114 (not shown). The user confirms that the three-dimensional point cloud is superimposed on the first image 114 .
By operating the touch panel 205, the user sets the marker 115 for designating the measurement point in the first image 114 at the measurement point. The marker 115 is set by double-clicking or the like. The size of the marker 115 is variable, and the measurement point reception unit 231 appropriately adjusts the size of the marker 115 .
Although the marker 115 shown in FIG. 10 has a cross shape, the marker 115 may have a circular shape, or may have a polygonal shape such as a rectangular shape or an arrowhead shape.
The measurement point reception unit 231 receives the position of the marker 115 in the first image 114 as the measurement point.
The position of the marker 115 here means the position of a specific designated point on the marker 115 . A specific designated point on the marker 115 may be appropriately set in advance. For example, if the marker 115 has a cross shape or a circular shape, the center of the marker 115 may be set as a specific designated point. Also, if the marker 115 has a rectangular shape, either the center of the marker 115 or the four corners of the marker 115 may be set as the specific designated point. Also, if the marker 115 has an arrowhead shape, the tip of the marker 115 may be set as a specific designated point.
The user carries the smartphone 112 and moves to the second location 116 .
The user aims the smartphone 112 at the measurement target 111 at the second point 116 and performs a photographing operation.
The photographing unit 211 obtains the second image 117 by photographing the photographing range 110 . The measurement target 111 is shown in the second image 117 .
Corresponding part identification unit 232 displays second image 117 on touch panel 205 . An epipolar line 118 is marked on the displayed second image 117 . Furthermore, a three-dimensional point group is superimposed on the displayed second image 117 (not shown).
The user sets the marker 119 at the corresponding location on the epipolar line 118 by operating the touch panel 205 . The marker 119 is set by double-clicking or the like. The size of the marker 119 is variable, and the corresponding portion identification unit 232 appropriately adjusts the size of the marker 119 .
The corresponding portion identification unit 232 receives the position of the marker 119 on the epipolar line 118 as the corresponding portion.
The target position calculation unit 233 calculates the three-dimensional position of the measurement target 111 by using the parallax between the measurement position where the marker 115 is set and the corresponding position where the marker 119 is set. As a result, the three-dimensional coordinate values of the lowest portion of the electric wire hanging from the utility pole are obtained.

図11に基づいて、三次元計測方法の第2具体例を説明する。
図11において、三次元計測装置200を「スマートフォン112」と称する。
利用者は、第1地点113でスマートフォン112を計測対象111に向けて、撮影操作を行う。計測対象111は、道路に新たに標示された路面マーカ(道路標示)である。
撮影部211は、撮影範囲110を撮影することによって、第1画像114を得る。第1画像114には計測対象111が映っている。
計測箇所受付部231は、第1画像114をタッチパネル205に表示する。表示された第1画像114には三次元点群が重畳されている(図示省略)。利用者は、第1画像114に三次元点群が重畳されていることを確認する。
利用者は、タッチパネル205を操作することによって、第1画像114の中の計測箇所にマーカ115を設定する。マーカ115は、ダブルクリック等によって設定される。マーカ115の大きさは可変であり、計測箇所受付部231は、マーカ115の大きさを適切に調整する。
計測箇所受付部231は、第1画像114の中のマーカ115の位置を計測箇所として受け付ける。
利用者は、スマートフォン112を持って第2地点116に移動する。
利用者は、第2地点116でスマートフォン112を計測対象111に向けて、撮影操作を行う。
撮影部211は、撮影範囲110を撮影することによって、第2画像117を得る。第2画像117には計測対象111が映っている。
対応箇所特定部232は、第2画像117をタッチパネル205に表示する。表示された第2画像117にはエピポーラ線118が記されている。さらに、表示された第2画像117には三次元点群が重畳されている(図示省略)。
利用者は、タッチパネル205を操作することによって、エピポーラ線118上の対応箇所にマーカ119を設定する。マーカ119は、ダブルクリック等によって設定される。マーカ119の大きさは可変であり、対応箇所特定部232は、マーカ119の大きさを適切に調整する。
対応箇所特定部232は、エピポーラ線118上のマーカ119の位置を対応箇所として受け付ける。
対象位置算出部233は、マーカ115が設定された計測箇所とマーカ119が設定された対応箇所との視差を利用して、計測対象111の三次元位置を算出する。これにより、道路に新たに標示された路面マーカ(道路標示)の三次元座標値が得られる。
A second specific example of the three-dimensional measurement method will be described with reference to FIG.
In FIG. 11, the three-dimensional measuring device 200 is called "smartphone 112".
The user aims the smartphone 112 at the measurement target 111 at the first point 113 and performs a photographing operation. A measurement target 111 is a road surface marker (road marking) newly marked on the road.
The photographing unit 211 obtains the first image 114 by photographing the photographing range 110 . A measurement target 111 is shown in the first image 114 .
Measurement point reception unit 231 displays first image 114 on touch panel 205 . A three-dimensional point group is superimposed on the displayed first image 114 (not shown). The user confirms that the three-dimensional point cloud is superimposed on the first image 114 .
The user sets the marker 115 at the measurement point in the first image 114 by operating the touch panel 205 . The marker 115 is set by double-clicking or the like. The size of the marker 115 is variable, and the measurement point reception unit 231 appropriately adjusts the size of the marker 115 .
The measurement point reception unit 231 receives the position of the marker 115 in the first image 114 as the measurement point.
The user carries the smartphone 112 and moves to the second location 116 .
The user aims the smartphone 112 at the measurement target 111 at the second point 116 and performs a photographing operation.
The photographing unit 211 obtains the second image 117 by photographing the photographing range 110 . The measurement target 111 is shown in the second image 117 .
Corresponding part identification unit 232 displays second image 117 on touch panel 205 . An epipolar line 118 is marked on the displayed second image 117 . Furthermore, a three-dimensional point group is superimposed on the displayed second image 117 (not shown).
The user sets the marker 119 at the corresponding location on the epipolar line 118 by operating the touch panel 205 . The marker 119 is set by double-clicking or the like. The size of the marker 119 is variable, and the corresponding portion identification unit 232 appropriately adjusts the size of the marker 119 .
The corresponding portion identification unit 232 receives the position of the marker 119 on the epipolar line 118 as the corresponding portion.
The target position calculation unit 233 calculates the three-dimensional position of the measurement target 111 by using the parallax between the measurement position where the marker 115 is set and the corresponding position where the marker 119 is set. As a result, the three-dimensional coordinate values of the road surface marker (road marking) newly marked on the road are obtained.

***実施例の説明***
三次元計測装置200が点群データベース390を備えてもよい。
その場合、点群取得部213が、情報管理装置300の点群抽出部312の代わりに、点群データベース390から、第1点群データと第2点群データとを抽出する。情報管理装置300は不要となる。
***Description of Examples***
The three-dimensional measuring device 200 may have the point cloud database 390 .
In that case, the point cloud acquisition unit 213 extracts the first point cloud data and the second point cloud data from the point cloud database 390 instead of the point cloud extraction unit 312 of the information management device 300 . The information management device 300 becomes unnecessary.

三次元計測装置200は、位置姿勢補正部222を備えなくてもよい。
その場合、対象位置算出部233は、位置姿勢計測部212によって計測されたカメラ206の三次元位置と三次元姿勢とを用いて、計測対象の三次元位置を算出する。
The three-dimensional measuring device 200 does not have to include the position/orientation correction section 222 .
In that case, the target position calculation unit 233 uses the three-dimensional position and three-dimensional orientation of the camera 206 measured by the position and orientation measurement unit 212 to calculate the three-dimensional position of the measurement target.

計測箇所受付部231は、タッチパネル205に表示させる画像に三次元点群を重畳しなくてもよい。 The measurement point reception unit 231 does not have to superimpose the three-dimensional point cloud on the image displayed on the touch panel 205 .

対応箇所特定部232は、利用者の指定を受けずに、対応箇所を自動で特定してもよい。
図12に基づいて、対応箇所を自動で特定するための対応箇所特定処理(S140)の手順を説明する。
ステップS141において、対応箇所特定部232は、第2画像におけるエピポーラ線を算出する。算出方法は、図8に基づいて説明した通りである。
The corresponding part identification unit 232 may automatically identify the corresponding part without being specified by the user.
Based on FIG. 12, the procedure of the corresponding point specifying process (S140) for automatically specifying the corresponding point will be described.
In step S141, the corresponding part identification unit 232 calculates epipolar lines in the second image. The calculation method is as described with reference to FIG.

ステップS142において、対応箇所特定部232は、第2画像におけるエピポーラ線に位置する複数の画素から、第1画像の中の計測箇所に位置する画素と合致する画素を特定する。特定される画素が位置する箇所が対応箇所である。 In step S142, the corresponding portion identifying unit 232 identifies, from a plurality of pixels located on the epipolar line in the second image, pixels that match the pixels located at the measurement locations in the first image. The location where the identified pixel is located is the corresponding location.

対応箇所特定処理(S140)では、特許文献2、特許文献3、特許文献4、特許文献6または特許文献7に開示されている技術を利用することができる。
特許文献2には、エピポーラ線上を探索することによって画像平面Aの特徴点に対応する画像平面Bの対応点を求める第1の対応点探索処理が開示されている(図16参照)。特許文献3にも同様の開示がされている。
特許文献4には、エピポーラ拘束線上の画像を第1地点での第1画像と対比することによって双方の画像で同一となる部分を特定する画像マッチング手段が開示されている(図4参照)。
特許文献6には、二地点の画像上で互いに対応する注視点を特定するGISモデル作成部が開示されている(図1参照)。特許文献7にも同様の開示がされている。
The technology disclosed in Patent Document 2, Patent Document 3, Patent Document 4, Patent Document 6, or Patent Document 7 can be used in the corresponding location identification process (S140).
Patent Literature 2 discloses a first corresponding point search process for finding corresponding points on image plane B corresponding to feature points on image plane A by searching on epipolar lines (see FIG. 16). A similar disclosure is also made in Patent Document 3.
Patent Document 4 discloses image matching means for identifying the same portion in both images by comparing an image on the epipolar constraint line with a first image at a first point (see FIG. 4).
Patent Literature 6 discloses a GIS model creation unit that specifies points of gaze corresponding to each other on images of two points (see FIG. 1). A similar disclosure is also made in Patent Document 7.

対象位置算出部233は、計測対象の三次元位置を視線ベクトルに基づいて算出してもよい。
図13に基づいて、視線ベクトルに基づいて計測対象の三次元位置を算出するための三次元位置算出処理(S150)の手順を説明する。
ステップS151において、対象位置算出部233は、第1撮影時におけるカメラ206の三次元位置と、第1撮影時におけるカメラ206の三次元姿勢と、第1画像の中の計測箇所とに基づいて、第1視線ベクトルを算出する。
第1視線ベクトルは、第1撮影時におけるカメラ206の視線ベクトルであり、第1画像平面における計測箇所を通る。
第1画像平面は、第1画像に対応する三次元平面である。
The target position calculator 233 may calculate the three-dimensional position of the measurement target based on the line-of-sight vector.
Based on FIG. 13, the procedure of the three-dimensional position calculation process (S150) for calculating the three-dimensional position of the measurement target based on the line-of-sight vector will be described.
In step S151, the target position calculation unit 233, based on the three-dimensional position of the camera 206 at the time of the first imaging, the three-dimensional posture of the camera 206 at the time of the first imaging, and the measurement points in the first image, A first line-of-sight vector is calculated.
The first line-of-sight vector is the line-of-sight vector of the camera 206 at the time of the first image capturing, and passes through the measurement point on the first image plane.
The first image plane is a three-dimensional plane corresponding to the first image.

ステップS152において、対象位置算出部233は、第2撮影時におけるカメラ206の三次元位置と、第2撮影時におけるカメラ206の三次元姿勢と、第2画像の中の計測箇所とに基づいて、第2視線ベクトルを算出する。
第2視線ベクトルは、第2撮影時におけるカメラ206の視線ベクトルであり、第2画像平面における対応箇所を通る。
第2画像平面は、第2画像に対応する三次元平面である。
In step S152, the target position calculation unit 233, based on the three-dimensional position of the camera 206 during the second imaging, the three-dimensional orientation of the camera 206 during the second imaging, and the measurement points in the second image, A second line-of-sight vector is calculated.
The second line-of-sight vector is the line-of-sight vector of the camera 206 at the time of the second image capturing, and passes through the corresponding location on the second image plane.
The second image plane is a three-dimensional plane corresponding to the second image.

ステップS153において、対象位置算出部233は、第1視線ベクトルと第2視線ベクトルとの交点の三次元座標値を算出する。
算出される三次元座標値が計測対象の三次元位置である。
In step S153, the target position calculation unit 233 calculates the three-dimensional coordinate values of the intersection of the first line-of-sight vector and the second line-of-sight vector.
The calculated three-dimensional coordinate value is the three-dimensional position of the measurement target.

三次元位置算出処理(S150)では、特許文献2に開示されている技術を利用することができる。
特許文献2には、2つのLOSベクトルの交点が示す三次元座標を計測対象点の三次元座標として算出する画像三次元復元処理が開示されている(図15参照)。
The technique disclosed in Patent Document 2 can be used in the three-dimensional position calculation process (S150).
Patent Literature 2 discloses image three-dimensional restoration processing for calculating the three-dimensional coordinates indicated by the intersection of two LOS vectors as the three-dimensional coordinates of the measurement target point (see FIG. 15).

三次元計測装置200は、以下のような構成であってもよい。
三次元計測装置200は、カメラ206と計測センサ207とディスプレイとプロセッサ201とを備える。例えば、ディスプレイはタッチパネル205である。
計測センサ207は、三次元位置および三次元姿勢を計測する。
カメラ206は、第1撮影時に計測対象が映った第1画像を得るとともに、第1撮影時の位置とは異なる位置で第2撮影時に前記計測対象が映った第2画像を得る。
ディスプレイは、前記第1画像と前記第2画像とのそれぞれに、計測箇所を指定するマーカを表示する。
プロセッサ201は、外部の情報管理装置との通信によって、位置が既知の三次元点群情報を得る。プロセッサ201は、前記計測センサの計測情報に基づいて、前記三次元点群情報を前記第1画像と前記第2画像とに投影する。プロセッサ201は、前記三次元点群情報の位置合わせを行う。プロセッサ201は、前記第1画像の中の前記マーカによる前記計測箇所の指定点と、前記第2画像の中の前記マーカによる前記計測箇所の指定点とに基づいて、前記計測箇所の三次元位置を算出する。
The three-dimensional measuring device 200 may have the following configuration.
A three-dimensional measurement device 200 includes a camera 206 , a measurement sensor 207 , a display, and a processor 201 . For example, the display is the touch panel 205 .
A measurement sensor 207 measures a three-dimensional position and a three-dimensional orientation.
The camera 206 obtains a first image showing the object to be measured during the first photographing, and obtains a second image showing the object to be measured at a position different from the position during the first photographing during the second photographing.
The display displays a marker designating a measurement point on each of the first image and the second image.
The processor 201 obtains 3D point group information whose positions are known by communicating with an external information management device. The processor 201 projects the three-dimensional point group information onto the first image and the second image based on the measurement information of the measurement sensor. A processor 201 aligns the three-dimensional point cloud information. The processor 201 calculates the three-dimensional position of the measurement point based on the designated point of the measurement point by the marker in the first image and the designated point of the measurement point by the marker in the second image. Calculate

***実施の形態1の効果***
既存の三次元点群が存在する屋内外において、概略の位置情報と概略の姿勢情報とカメラ画像とを用いて、既存の三次元点群と同じ精度で物体の三次元位置を計測することができる。
既存の三次元点群は、レーザおよび画像などを使って予め計測された三次元点群である。既存の三次元点群は点群データベース390に相当する。
概略の位置情報は、計測センサ207を用いて計測されたカメラ206の三次元位置に相当する。
概略の姿勢情報は、計測センサ207を用いて計測されたカメラ206の三次元姿勢に相当する。
カメラ画像は、第1画像と第2画像とに相当する。
*** Effect of Embodiment 1 ***
Indoors and outdoors where an existing 3D point cloud exists, it is possible to measure the 3D position of an object with the same accuracy as the existing 3D point cloud, using approximate position information, approximate orientation information, and a camera image. can.
Existing 3D point clouds are 3D point clouds that have been pre-measured using lasers, images, and the like. An existing 3D point cloud corresponds to the point cloud database 390 .
The rough position information corresponds to the three-dimensional position of the camera 206 measured using the measurement sensor 207 .
The general orientation information corresponds to the three-dimensional orientation of the camera 206 measured using the measurement sensor 207 .
The camera images correspond to the first image and the second image.

***実施の形態の補足***
実施の形態は、好ましい形態の例示であり、本発明の技術的範囲を制限することを意図するものではない。実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
*** Supplement to the embodiment ***
The embodiments are examples of preferred modes and are not intended to limit the technical scope of the present invention. Embodiments may be implemented partially or in combination with other embodiments. The procedures described using flowcharts and the like may be changed as appropriate.

実施の形態で説明された各装置は、複数の装置で実現されてもよい。つまり、実施の形態で説明された各装置は、システムとして実現されてもよい。
実施の形態で説明された装置の各要素は、ソフトウェア、ハードウェア、ファームウェアまたはこれらの組み合わせのいずれで実現されてもよい。
各要素の名称における「部」は、「処理」または「工程」と読み替えてもよい。
Each device described in the embodiments may be realized by multiple devices. That is, each device described in the embodiments may be implemented as a system.
Each element of the devices described in the embodiments may be implemented in software, hardware, firmware, or any combination thereof.
"Part" in the name of each element may be read as "processing" or "process".

100 三次元計測システム、101 情報管理センサ、102 ネットワーク、110 撮影範囲、111 計測対象、112 スマートフォン、113 第1地点、114 第1画像、115 マーカ、116 第2地点、117 第2画像、118 エピポーラ線、119 マーカ、200 三次元計測装置、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 タッチパネル、206 カメラ、207 計測センサ、211 撮影部、212 位置姿勢計測部、213 点群取得部、221 点群投影部、222 位置姿勢補正部、231 計測箇所受付部、232 対応箇所特定部、233 対象位置算出部、290 記憶部、300 情報管理装置、301 プロセッサ、302 メモリ、303 補助記憶装置、304 通信装置、305 入出力インタフェース、311 要求受付部、312 点群抽出部、313 点群応答部、390 点群データベース。 100 three-dimensional measurement system, 101 information management sensor, 102 network, 110 imaging range, 111 measurement target, 112 smartphone, 113 first point, 114 first image, 115 marker, 116 second point, 117 second image, 118 epipolar line, 119 marker, 200 three-dimensional measuring device, 201 processor, 202 memory, 203 auxiliary storage device, 204 communication device, 205 touch panel, 206 camera, 207 measurement sensor, 211 imaging unit, 212 position and orientation measurement unit, 213 point group acquisition 221 point cloud projection unit 222 position and orientation correction unit 231 measurement location reception unit 232 corresponding location identification unit 233 target position calculation unit 290 storage unit 300 information management device 301 processor 302 memory 303 auxiliary storage Device, 304 communication device, 305 input/output interface, 311 request reception unit, 312 point cloud extraction unit, 313 point cloud response unit, 390 point cloud database.

Claims (6)

カメラと計測センサとディスプレイとを備える三次元計測装置であって、
第1地点で前記カメラを用いて行われる第1撮影によって、計測対象が映った第1画像を得て、第2地点で前記カメラを用いて行われる第2撮影によって、前記計測対象が映った第2画像を得る撮影部と、
前記第1撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測部と、
前記第1画像を前記ディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付部と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定部と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出部と
を備え
前記対応箇所特定部は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と、前記第1画像の中の前記計測箇所とに基づいて、前記第2画像におけるエピポーラ線を算出し、
算出されたエピポーラ線が記された状態で前記第2画像を前記ディスプレイに表示し、
表示された第2画像に記されたエピポーラ線上で指定される箇所を前記対応箇所として受け付ける
三次元計測装置。
A three-dimensional measuring device comprising a camera, a measurement sensor, and a display,
A first image of the object to be measured is obtained by first photographing at a first location using the camera, and a second image of the object to be measured is obtained by second photographing at a second location using the camera. an imaging unit for obtaining a second image;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. a position and orientation measurement unit that
a measurement location reception unit that displays the first image on the display and receives a measurement location that is a location where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image a corresponding portion identification unit that identifies a corresponding portion that is a corresponding portion;
a target position calculation unit that calculates the three-dimensional position of the measurement target based on the measurement location in the first image and the corresponding location in the second image ;
The corresponding part identifying unit
Based on the three-dimensional position and three-dimensional orientation of the camera during the first imaging, the three-dimensional position and three-dimensional orientation of the camera during the second imaging, and the measurement locations in the first image , calculating epipolar lines in the second image;
displaying the second image on the display with the calculated epipolar line marked;
Receive a location specified on the epipolar line marked on the displayed second image as the corresponding location.
Three-dimensional measuring device.
前記対象位置算出部は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と、前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所との視差とに基づいて、前記計測対象の前記三次元位置を算出する
請求項1に記載の三次元計測装置。
The target position calculation unit
The three-dimensional position and three-dimensional orientation of the camera during the first imaging, the three-dimensional position and three-dimensional orientation of the camera during the second imaging, the measurement location in the first image, and the second 2. The three-dimensional measuring apparatus according to claim 1 , wherein the three-dimensional position of the object to be measured is calculated based on parallax with the corresponding portion in the image.
前記対象位置算出部は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と前記第1画像の中の前記計測箇所とに基づいて第1視線ベクトルを算出し、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と前記第2画像の中の前記対応箇所とに基づいて第2視線ベクトルを算出し、前記第1視線ベクトルと前記第2視線ベクトルとの交点の三次元座標値を前記計測対象の前記三次元位置として算出する
請求項1に記載の三次元計測装置。
The target position calculation unit
calculating a first line-of-sight vector based on the three-dimensional position and three-dimensional posture of the camera at the time of the first imaging and the measurement location in the first image; calculating a second line-of-sight vector based on the position, the three-dimensional orientation, and the corresponding location in the second image, and measuring the three-dimensional coordinate values of the intersection of the first line-of-sight vector and the second line-of-sight vector; The three-dimensional measuring device according to claim 1, wherein the three-dimensional position of the object is calculated.
カメラと計測センサとディスプレイとを備える三次元計測装置であって、
第1地点で前記カメラを用いて行われる第1撮影によって、計測対象が映った第1画像を得て、第2地点で前記カメラを用いて行われる第2撮影によって、前記計測対象が映った第2画像を得る撮影部と、
前記第1撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測部と、
前記第1画像を前記ディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付部と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定部と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出部と
前記第1撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第1画像に映っている範囲の三次元点群である第1点群を表す第1点群データを取得し、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像に映っている範囲の三次元点群である第2点群を表す第2点群データを取得する点群取得部と、
取得された第1点群データと前記第1撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて前記第1点群を前記第1画像に投影し、取得された第2点群データと前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて前記第2点群を前記第2画像に投影する点群投影部と、
前記第1点群から前記第1画像の中の第1特徴部分に対応する第1特徴点群を検出し、検出された第1特徴点群が前記第1特徴部分に投影されるように前記第1撮影時における前記カメラの三次元位置と三次元姿勢とを補正し、前記第2点群から前記第2画像の中の第2特徴部分に対応する第2特徴点群を検出し、検出された第2特徴点群が前記第2特徴部分に投影されるように前記第2撮影時における前記カメラの三次元位置と三次元姿勢とを補正する位置姿勢補正部と、
を備え、
前記点群取得部は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢とを含む第1点群要求データを情報管理装置へ送信し、前記情報管理装置から前記第1点群データを受信し、
前記第2撮影時における前記カメラの三次元位置と三次元姿勢とを含む第2点群要求データを前記情報管理装置へ送信し、前記情報管理装置から前記第2点群データを受信する三次元計測装置。
A three-dimensional measuring device comprising a camera, a measurement sensor, and a display,
A first image of the object to be measured is obtained by first photographing at a first location using the camera, and a second image of the object to be measured is obtained by second photographing at a second location using the camera. an imaging unit for obtaining a second image;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. a position and orientation measurement unit that
a measurement location reception unit that displays the first image on the display and receives a measurement location that is a location where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image a corresponding portion identification unit that identifies a corresponding portion that is a corresponding portion;
a target position calculation unit that calculates a three-dimensional position of the measurement target based on the measurement position in the first image and the corresponding position in the second image ;
Acquiring first point cloud data representing a first point cloud, which is a three-dimensional point cloud of the range shown in the first image, based on the three-dimensional position and the three-dimensional posture of the camera at the time of the first imaging. and second point cloud data representing a second point cloud, which is a three-dimensional point cloud of the range shown in the second image, based on the three-dimensional position and three-dimensional posture of the camera at the time of the second imaging. a point cloud acquisition unit that acquires
projecting the first point cloud onto the first image based on the obtained first point cloud data and the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging, and obtaining a second point cloud; a point cloud projection unit that projects the second point cloud onto the second image based on the data and the three-dimensional position and three-dimensional posture of the camera at the time of the second imaging;
A first feature point group corresponding to a first feature portion in the first image is detected from the first point group, and the detected first feature point group is projected onto the first feature portion. correcting the three-dimensional position and three-dimensional posture of the camera at the time of the first photographing, and detecting a second feature point group corresponding to a second feature portion in the second image from the second point group; a position/orientation correction unit that corrects the three-dimensional position and three-dimensional orientation of the camera at the time of the second photographing such that the second feature point group thus obtained is projected onto the second feature portion;
with
The point cloud acquisition unit is
transmitting first point cloud request data including the three-dimensional position and three-dimensional attitude of the camera at the time of the first imaging to an information management device, receiving the first point cloud data from the information management device;
transmitting second point cloud request data including the three-dimensional position and three-dimensional attitude of the camera at the time of the second imaging to the information management device, and receiving the second point cloud data from the information management device measuring device.
三次元位置および三次元姿勢を計測する計測センサと、
第1撮影時に計測対象が映った第1画像を得るとともに、第1撮影時の位置とは異なる位置で第2撮影時に前記計測対象が映った第2画像を得るカメラと、
前記第1画像と前記第2画像とのそれぞれに、計測箇所を指定するマーカを表示するディスプレイと、
外部の情報管理装置との通信によって、位置が既知の三次元点群情報を得て、前記計測センサの計測情報に基づいて、前記三次元点群情報を前記第1画像と前記第2画像とに投影し、前記三次元点群情報の位置合わせを行い、前記第1画像の中の前記マーカによる前記計測箇所の指定点と、前記第2画像の中の前記マーカによる前記計測箇所の指定点とに基づいて、前記計測箇所の三次元位置を算出するプロセッサと、
を備える三次元計測装置。
a measurement sensor that measures a three-dimensional position and three-dimensional orientation;
a camera that obtains a first image showing an object to be measured at the time of first photography, and obtains a second image showing the object to be measured at a position different from the position at the time of the first photography at the time of second photography;
a display that displays a marker designating a measurement point on each of the first image and the second image;
By communicating with an external information management device, three-dimensional point group information whose position is known is obtained, and based on the measurement information of the measurement sensor, the three-dimensional point group information is converted into the first image and the second image. , and aligning the three-dimensional point group information, the designated point of the measurement location by the marker in the first image, and the designated point of the measurement location by the marker in the second image A processor that calculates the three-dimensional position of the measurement point based on
A three-dimensional measuring device.
第1地点でカメラを用いて行われる第1撮影によって、計測対象が映った第1画像を得て、第2地点で前記カメラを用いて行われる第2撮影によって、前記計測対象が映った第2画像を得る撮影処理と、
前記第1撮影時に計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測処理と、
前記第1画像をディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付処理と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定処理と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出処理と
をコンピュータに実行させるための三次元計測プログラムであって、
前記対応箇所特定処理は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と、前記第1画像の中の前記計測箇所とに基づいて、前記第2画像におけるエピポーラ線を算出し、
算出されたエピポーラ線が記された状態で前記第2画像を前記ディスプレイに表示し、
表示された第2画像に記されたエピポーラ線上で指定される箇所を前記対応箇所として受け付ける
三次元計測プログラム。
A first image in which the measurement target is captured is obtained by first photography performed using a camera at a first point, and a second image in which the measurement target is captured is obtained by second photography performed using the camera at a second point. a photographing process for obtaining two images;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. position and orientation measurement processing;
a measurement point acceptance process for displaying the first image on a display and accepting a measurement point, which is a point where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image Corresponding part identification processing for identifying a corresponding part, which is a corresponding part;
and a target position calculation process for calculating a three-dimensional position of the measurement target based on the measurement position in the first image and the corresponding position in the second image. A measurement program ,
The corresponding location identifying process includes:
Based on the three-dimensional position and three-dimensional orientation of the camera during the first imaging, the three-dimensional position and three-dimensional orientation of the camera during the second imaging, and the measurement locations in the first image , calculating epipolar lines in the second image;
displaying the second image on the display with the calculated epipolar line marked;
Receive a location specified on the epipolar line marked on the displayed second image as the corresponding location.
3D measurement program.
JP2019014141A 2019-01-30 2019-01-30 Three-dimensional measuring device and three-dimensional measuring program Active JP7183058B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019014141A JP7183058B2 (en) 2019-01-30 2019-01-30 Three-dimensional measuring device and three-dimensional measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019014141A JP7183058B2 (en) 2019-01-30 2019-01-30 Three-dimensional measuring device and three-dimensional measuring program

Publications (2)

Publication Number Publication Date
JP2020122697A JP2020122697A (en) 2020-08-13
JP7183058B2 true JP7183058B2 (en) 2022-12-05

Family

ID=71992524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014141A Active JP7183058B2 (en) 2019-01-30 2019-01-30 Three-dimensional measuring device and three-dimensional measuring program

Country Status (1)

Country Link
JP (1) JP7183058B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102236A1 (en) * 2020-11-16 2022-05-19 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7117408B1 (en) 2021-02-26 2022-08-12 株式会社パスコ POSITION CALCULATION DEVICE, PROGRAM AND POSITION CALCULATION METHOD

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006234703A (en) 2005-02-28 2006-09-07 Univ Waseda Image processing device, three-dimensional measuring device, and program for image processing device
JP2009075117A (en) 2007-02-16 2009-04-09 Mitsubishi Electric Corp Road feature measuring device, feature identifying device, road feature measuring method, road feature measuring program, measuring instrument, measuring method, measuring program, measured position data, measuring terminal device, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2012127896A (en) 2010-12-17 2012-07-05 Kumamoto Univ Mobile object position measurement device
JP2016170060A (en) 2015-03-13 2016-09-23 三菱電機株式会社 Facility information display system, mobile terminal, server and facility information display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006234703A (en) 2005-02-28 2006-09-07 Univ Waseda Image processing device, three-dimensional measuring device, and program for image processing device
JP2009075117A (en) 2007-02-16 2009-04-09 Mitsubishi Electric Corp Road feature measuring device, feature identifying device, road feature measuring method, road feature measuring program, measuring instrument, measuring method, measuring program, measured position data, measuring terminal device, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2012127896A (en) 2010-12-17 2012-07-05 Kumamoto Univ Mobile object position measurement device
JP2016170060A (en) 2015-03-13 2016-09-23 三菱電機株式会社 Facility information display system, mobile terminal, server and facility information display method

Also Published As

Publication number Publication date
JP2020122697A (en) 2020-08-13

Similar Documents

Publication Publication Date Title
EP3469306B1 (en) Geometric matching in visual navigation systems
JP6338021B2 (en) Image processing apparatus, image processing method, and image processing program
US9842399B2 (en) Image processing device and image processing method
JP6307553B2 (en) Cross-spectral feature correlation for navigation adjustment
CN109425348B (en) Method and device for simultaneously positioning and establishing image
EP3716210B1 (en) Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device
JP2013186816A (en) Moving image processor, moving image processing method and program for moving image processing
US8571303B2 (en) Stereo matching processing system, stereo matching processing method and recording medium
WO2015068470A1 (en) 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JP7107166B2 (en) Floor detection program, floor detection method, and terminal device
WO2022183685A1 (en) Target detection method, electronic medium and computer storage medium
US20160169662A1 (en) Location-based facility management system using mobile device
JP2015138428A (en) Additional information display apparatus and additional information display program
JP2021106025A5 (en)
JP7183058B2 (en) Three-dimensional measuring device and three-dimensional measuring program
JP2010128608A (en) Stereo matching processing system, stereo matching processing method, and program
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
JP2014209680A (en) Land boundary display program, method, and terminal device
JP5769248B2 (en) Stereo matching processing device, stereo matching processing method, and program
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
Bakuła et al. Capabilities of a smartphone for georeferenced 3dmodel creation: An evaluation
CN114387532A (en) Boundary identification method and device, terminal, electronic equipment and unmanned equipment
JP2008203991A (en) Image processor
JP5464671B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010107224A (en) Position determining apparatus and apparatus for detecting changed building

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R150 Certificate of patent or registration of utility model

Ref document number: 7183058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150