JP7183058B2 - Three-dimensional measuring device and three-dimensional measuring program - Google Patents
Three-dimensional measuring device and three-dimensional measuring program Download PDFInfo
- Publication number
- JP7183058B2 JP7183058B2 JP2019014141A JP2019014141A JP7183058B2 JP 7183058 B2 JP7183058 B2 JP 7183058B2 JP 2019014141 A JP2019014141 A JP 2019014141A JP 2019014141 A JP2019014141 A JP 2019014141A JP 7183058 B2 JP7183058 B2 JP 7183058B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- image
- camera
- measurement
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、三次元計測に関するものである。 The present invention relates to three-dimensional measurement.
地物の三次元データは、車両の位置を高精度に推定するために用いられる。
特許文献1には、地物の三次元データを用いて車両の位置を高精度に推定する方法が開示されている。
Three-dimensional data of features are used to estimate the position of the vehicle with high accuracy.
Patent Literature 1 discloses a method of estimating the position of a vehicle with high accuracy using three-dimensional data of features.
特許文献2から特許文献7については実施の形態において言及する。 Patent Documents 2 to 7 will be mentioned in the embodiment.
本発明は、地物の三次元位置を計測できるようにすることを目的とする。 An object of the present invention is to enable measurement of the three-dimensional position of a feature.
本発明の三次元計測装置は、カメラと計測センサとディスプレイとを備える。
第1地点で前記カメラを用いて行われる第1撮影によって、計測対象が映った第1画像を得て、第2地点で前記カメラを用いて行われる第2撮影によって、前記計測対象が映った第2画像を得る撮影部と、
前記第1撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測部と、
前記第1画像を前記ディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付部と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定部と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出部とを備える。
A three-dimensional measuring device of the present invention includes a camera, a measurement sensor, and a display.
A first image of the object to be measured is obtained by first photographing at a first location using the camera, and a second image of the object to be measured is obtained by second photographing at a second location using the camera. an imaging unit for obtaining a second image;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. a position and orientation measurement unit that
a measurement location reception unit that displays the first image on the display and receives a measurement location that is a location where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image a corresponding portion identification unit that identifies a corresponding portion that is a corresponding portion;
a target position calculation unit that calculates a three-dimensional position of the measurement target based on the measurement position in the first image and the corresponding position in the second image.
本発明によれば、地物の三次元位置を計測することができる。 According to the present invention, the three-dimensional position of a feature can be measured.
実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。 The same or corresponding elements are denoted by the same reference numerals in the embodiments and drawings. Descriptions of elements having the same reference numerals as those described will be omitted or simplified as appropriate. Arrows in the figure mainly indicate the flow of data or the flow of processing.
実施の形態1.
三次元計測システム100について、図1から図13に基づいて説明する。
Embodiment 1.
A three-dimensional measurement system 100 will be described with reference to FIGS. 1 to 13. FIG.
***構成の説明***
図1に基づいて、三次元計測システム100の構成を説明する。
三次元計測システム100は、物体の三次元位置を計測するためのシステムである。
*** Configuration description ***
The configuration of the three-dimensional measurement system 100 will be described based on FIG.
A three-dimensional measurement system 100 is a system for measuring the three-dimensional position of an object.
三次元計測システム100は、情報管理センサ101と三次元計測装置200とを備える。情報管理センサ101は、情報管理装置300を備える。
三次元計測装置200と情報管理装置300とは、ネットワーク102を介して互いに通信する。
A three-dimensional measurement system 100 includes an
The three-
図2に基づいて、三次元計測装置200の構成を説明する。
三次元計測装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204とタッチパネル205とカメラ206と計測センサ207といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
三次元計測装置200を実現するコンピュータの具体例は、スマートフォンまたはタブレットPCである。PCはパーソナルコンピュータの略称である。但し、その他の種類のコンピュータが三次元計測装置200として使用されてもよい。
The configuration of the three-
The three-
A specific example of a computer that implements the three-
プロセッサ201は、演算処理を行うIC(Integrated Circuit)であり、他のハードウェアを制御する。例えば、プロセッサ201は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、またはGPU(Graphics Processing Unit)である。
メモリ202は揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAM(Random Access Memory)である。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM(Read Only Memory)、HDD(Hard Disk Drive)、またはフラッシュメモリである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
通信装置204は、レシーバおよびトランスミッタである。例えば、通信装置204は、通信チップまたはNICである。NICはNetwork Interface Cardの略称である。
タッチパネル205は、ディスプレイを有する入出力装置である。三次元計測装置200は、タッチパネル205とは別の種類の入出力装置を備えてもよい。例えば、三次元計測装置200は、タッチパネル205の代わりに、ディスプレイおよびテンキーなどを備えてもよい。
カメラ206は、デジタルカメラである。
計測センサ207は、三次元計測装置200の位置および姿勢を計測するための1つ以上のセンサである。例えば、計測センサ207は、GPSセンサ、ジャイロセンサおよび加速度センサなどである。GPSセンサはGPS受信機またはGPSモジュールとも呼ばれる。GPSはGlobal Positioning Systemの略称である。
A
A
Camera 206 is a digital camera.
The
三次元計測装置200は、撮影部211と位置姿勢計測部212と点群取得部213と位置姿勢補正部222と点群投影部221と計測箇所受付部231と対応箇所特定部232と対象位置算出部233といった要素を備える。これらの要素はソフトウェアで実現される。
The three-
補助記憶装置203には、撮影部211と位置姿勢計測部212と点群取得部213と位置姿勢補正部222と点群投影部221と計測箇所受付部231と対応箇所特定部232と対象位置算出部233としてコンピュータを機能させるための三次元計測プログラムが記憶されている。三次元計測プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
さらに、補助記憶装置203にはOS(Operating System)が記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
つまり、プロセッサ201は、OSを実行しながら、三次元計測プログラムを実行する。
三次元計測プログラムを実行して得られるデータは、メモリ202、補助記憶装置203、プロセッサ201内のレジスタ、または、プロセッサ201内のキャッシュメモリといった記憶装置に記憶される。
The
Furthermore, the
That is, the
Data obtained by executing the three-dimensional measurement program is stored in a storage device such as
メモリ202は記憶部290として機能する。但し、他の記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。
三次元計測装置200は、プロセッサ201を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、プロセッサ201の役割を分担する。
The three-
三次元計測プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The three-dimensional measurement program can be computer-readable (stored) in a non-volatile recording medium such as an optical disc or flash memory.
図3に基づいて、情報管理装置300の構成を説明する。
情報管理装置300は、プロセッサ301とメモリ302と補助記憶装置303と通信装置304と入出力インタフェース305といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
情報管理装置300を実現するコンピュータの具体例は、データベースサーバである。但し、その他の種類のコンピュータが情報管理装置300として使用されてもよい。
The configuration of the
The
A specific example of a computer that implements the
プロセッサ301は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ301はCPU、DSPまたはGPUである。
メモリ302は揮発性の記憶装置である。メモリ302は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ302はRAMである。メモリ302に記憶されたデータは必要に応じて補助記憶装置303に保存される。
補助記憶装置303は不揮発性の記憶装置である。例えば、補助記憶装置303は、ROM、HDDまたはフラッシュメモリである。補助記憶装置303に記憶されたデータは必要に応じてメモリ302にロードされる。
通信装置304は、レシーバおよびトランスミッタである。例えば、通信装置304は通信チップまたはNICである。
入出力インタフェース305は入出力装置が接続されるポートである。例えば、入出力インタフェース305はUSB端子であり、入力装置はキーボードおよびマウスであり、出力装置はディスプレイである。USBはUniversal Serial Busの略称である。
A
The input/
情報管理装置300は、要求受付部311と点群抽出部312と点群応答部313といった要素を備える。これらの要素はソフトウェアで実現される。
The
補助記憶装置303には、要求受付部311と点群抽出部312と点群応答部313としてコンピュータを機能させるための情報管理プログラムが記憶されている。情報管理プログラムは、メモリ302にロードされて、プロセッサ301によって実行される。
さらに、補助記憶装置303にはOSが記憶されている。OSの少なくとも一部は、メモリ302にロードされて、プロセッサ301によって実行される。
つまり、プロセッサ301は、OSを実行しながら、情報管理プログラムを実行する。
情報管理プログラムを実行して得られるデータは、メモリ302、補助記憶装置303、プロセッサ301内のレジスタ、または、プロセッサ301内のキャッシュメモリといった記憶装置に記憶される。
The
Furthermore, an OS is stored in the
That is, the
Data obtained by executing the information management program is stored in a storage device such as
メモリ302および補助記憶装置303は点群データベース390として機能する。
点群データベース390は、三次元点群データを管理するためのデータベースである。
三次元点群データは、三次元点群を表す。三次元点群データの形式は、例えば、LASファイルである。LASファイルとは、航空機または車両で計測されたLIDARデータを格納するための業界標準のバイナリ形式を指す。LIDARは、Light Detection and Ranging、または、Laser Imaging Detection and Rangingの略称である。
三次元点群は、1つ以上の三次元点である。
1つの三次元点は、1つの地点に対応する。各三次元点は三次元座標値を有する。
The point cloud database 390 is a database for managing three-dimensional point cloud data.
The 3D point cloud data represents a 3D point cloud. The format of the 3D point cloud data is, for example, a LAS file. A LAS file refers to an industry standard binary format for storing LIDAR data measured by aircraft or vehicles. LIDAR is an abbreviation for Light Detection and Ranging or Laser Imaging Detection and Ranging.
A 3D point cloud is one or more 3D points.
One 3D point corresponds to one point. Each 3D point has a 3D coordinate value.
情報管理装置300は、プロセッサ301を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、プロセッサ301の役割を分担する。
The
情報管理プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The information management program can be recorded (stored) in a non-volatile recording medium such as an optical disc or flash memory in a computer-readable manner.
***動作の説明***
三次元計測システム100の動作は三次元計測方法に相当する。また、三次元計測方法の手順は三次元計測プログラムの手順に相当する。
***Description of operation***
The operation of the three-dimensional measurement system 100 corresponds to a three-dimensional measurement method. Also, the procedure of the three-dimensional measurement method corresponds to the procedure of the three-dimensional measurement program.
図4に基づいて、三次元計測方法を説明する。
ステップS110において、撮影部211は、第1地点でカメラ206を用いて行われる第1撮影によって、第1画像を得る。
第1撮影は、第1地点でカメラ206を用いて行われる撮影である。
第1画像は、計測対象が映った画像であり、第1撮影によって得られる。
A three-dimensional measurement method will be described based on FIG.
In step S110, the photographing
The first photography is photography performed using the
The first image is an image of the object to be measured, and is obtained by the first imaging.
また、位置姿勢計測部212は、第1撮影時に計測センサ207を用いて、カメラ206の三次元位置と三次元姿勢とを計測する。
三次元位置は、三次元座標値で表される。
三次元姿勢は、ロール角とピッチ角とヨー角とで表される。
Also, the position and
A three-dimensional position is represented by three-dimensional coordinate values.
A three-dimensional posture is represented by a roll angle, a pitch angle, and a yaw angle.
図5に基づいて、第1地点処理(S110)の手順を説明する。
図5の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 5, the procedure of the first point processing (S110) will be described.
In the description of FIG. 5, the three-
ステップS111において、利用者は、スマートフォンを持って第1地点に移動し、スマートフォンのカメラ206を計測対象に向け、撮影操作を行う。
そして、撮影部211は、カメラ206を動作させることによって、第1撮影を行う。これにより、第1画像が得られる。
In step S111, the user carries the smartphone and moves to a first point, points the
Then, the
ステップS112において、位置姿勢計測部212は、計測センサ207を動作させる。これにより、第1撮影時における三次元計測装置200の三次元位置と、第1撮影時における三次元計測装置200の三次元姿勢とが計測される。
そして、位置姿勢計測部212は、第1撮影時における三次元計測装置200の三次元位置にカメラ206の位置オフセットを加算する。これにより、第1撮影時におけるカメラ206の三次元位置が算出される。カメラ206の位置オフセットは、記憶部290に予め登録されている。
さらに、位置姿勢計測部212は、第1撮影時における三次元計測装置200の三次元姿勢にカメラ206の姿勢オフセットを加算する。これにより、第1撮影時におけるカメラ206の三次元姿勢が算出される。カメラ206の姿勢オフセットは、記憶部290に予め登録されている。
In step S112, the position and
Then, the position/
Furthermore, the position and
ステップS113において、点群取得部213は、第1撮影時におけるカメラ206の三次元位置と第1撮影時におけるカメラ206の三次元姿勢とに基づいて、第1点群データを取得する。
第1点群データは、第1点群を表す。
第1点群は、第1画像に映っている範囲の三次元点群である。
In step S113, the point
The first point cloud data represents the first point cloud.
The first point group is a three-dimensional point group within the range shown in the first image.
点群取得部213は、第1点群データを次のように取得する。
まず、点群取得部213は、通信装置204を用いて、第1点群要求データを情報管理装置300へ送信する。第1点群要求データは、第1撮影時におけるカメラ206の三次元位置と、第1撮影時におけるカメラ206の三次元姿勢と、第1撮影時におけるカメラパラメータと、を含む。例えば、カメラパラメータは、焦点距離、画像サイズまたは画素サイズである。
次に、要求受付部311は、通信装置304を用いて、第1点群要求データを受信する。
次に、点群抽出部312は、要求受付部311からの第1点群要求データに基づいて、点群データベース390から第1点群データを抽出する。
次に、点群応答部313は、通信装置304を用いて、点群抽出部312からの第1点群データを三次元計測装置200へ送信する。なお、カメラの位置からの奥行き方向に制限をかけることで、三次元点群データのデータ量を抑えることができる。制限の一例は、カメラ中心から奥行き10メートル以内である。
そして、点群取得部213は、通信装置204を用いて、第1点群データを受信する。
The point
First, the point
Next, the
Next, the point
Next, the point
Then, the point
第1点群データの抽出について説明する。
点群抽出部312は、第1画像平面に投影される三次元点群の点群データを点群データベース390から抽出する。抽出される点群データが第1点群データである。
第1画像平面への三次元点群の投影についてステップS114で説明する。
Extraction of the first point cloud data will be described.
The point
The projection of the 3D point cloud onto the first image plane is described in step S114.
第1点群データの取得時に第1撮影が行われてもよい。具体例を以下に説明する。
利用者がスマートフォンのタッチパネル205を操作してアプリケーションを起動すると、カメラ画像を定期的に取得できるようになる。その状態から、定期的に(例えば、数秒に1回)、カメラ206の概略位置およびカメラ206の概略姿勢が送付されるタイミングで第1点群要求データが出る。第1撮影要求データが送付され、第1点群がタッチパネル205のディスプレイに表示される。位置姿勢の微調整が終わった後、メッセージ“ターゲット選択”がディスプレイに表示され、ターゲット選択用ゲートがディスプレイに現れる。利用者は、ゲート内にターゲットを収め、ディスプレイに表示されるメッセージ“第1撮影OK?”をクリックする。これにより、カメラ206によって第1撮影が行われて第1画像が得られ、第1撮影時が確定する。第1撮影時刻と第1画像はメモリ202に一時記憶される。その後、後述する第2撮影が行われる。
利用者がタッチパネル205の点群取得ボタンを押してもよい。点群取得ボタンが押されると、スマートフォンのカメラ206が起動し、撮影が開始される。その状態で、利用者は、タッチパネル205の撮影ボタンを通じて撮影指示を入力する。すると、カメラ206によって第1撮影が行われて第1画像が得られ、第1撮影時が確定する。第1撮影時刻と第1画像はメモリ202に一時記憶される。そして、第1点群要求データが発生する。
The first imaging may be performed when acquiring the first point cloud data. Specific examples are described below.
When the user operates the
The user may press the point cloud acquisition button on the
ステップS114において、点群投影部221は、通信装置204から取得された第1点群データと、第1撮影時におけるカメラ206の三次元位置と、第1撮影時におけるカメラ206の三次元姿勢とに基づいて、第1点群を第1画像に投影する。
In step S114, the point
第1画像への第1点群の投影について説明する。
第1画像への第1点群の投影は、第1画像平面への第1点群の投影に相当する。
第1画像平面は、第1画像に対応する画像平面である。
画像平面は、画像に対応する三次元平面である。画像平面は、カメラの位置からカメラの視線方向に焦点距離離れた地点を含み、カメラの視線方向と直交する。画像平面の大きさは、カメラのパラメータによって決まる。
各三次元点は、カメラから三次元点への視線ベクトルと画像平面との交点に投影される。視線ベクトルはLOSベクトルともいう。LOSはLine Of Sightの略称である。
The projection of the first point cloud onto the first image will be described.
Projecting the first point cloud onto the first image corresponds to projecting the first point cloud onto the first image plane.
The first image plane is the image plane corresponding to the first image.
An image plane is a three-dimensional plane corresponding to an image. The image plane includes a point at a focal distance in the direction of the camera's line of sight from the position of the camera and is orthogonal to the direction of the camera's line of sight. The size of the image plane is determined by the parameters of the camera.
Each 3D point is projected to the intersection of the line-of-sight vector from the camera to the 3D point and the image plane. A line-of-sight vector is also called an LOS vector. LOS is an abbreviation for Line Of Sight.
ステップS114では、特許文献4または特許文献5に開示されている技術を利用することができる。
特許文献4には、デジタル画像面における対象点の投影点について開示されている(図3参照)。
特許文献5には、三次元点群データをカメラの画像平面に対して投影する投影変換処理が開示されている。
In step S114, the technology disclosed in Patent Document 4 or Patent Document 5 can be used.
Patent Document 4 discloses a projection point of an object point on a digital image plane (see FIG. 3).
Japanese Patent Laid-Open No. 2002-200000 discloses a projection conversion process for projecting three-dimensional point cloud data onto an image plane of a camera.
ステップS115において、位置姿勢補正部222は、第1点群から第1画像の中の第1特徴部分に対応する第1特徴点群を検出する。
第1特徴部分は、第1画像に含まれる特徴部分である。例えば、特徴部分はエッジ部分である。特徴部分の具体例は、路肩のエッジである。
第1特徴点群は、第1点群データにおける第1特徴部分を表す三次元点群である。
In step S115, the position/
The first characteristic portion is a characteristic portion included in the first image. For example, the feature portion is an edge portion. A specific example of a feature is the edge of a road shoulder.
The first feature point group is a three-dimensional point group representing the first feature portion in the first point group data.
ステップS115では、特許文献2および特許文献3に開示されている技術を利用することができる。
特許文献2には、点群が表すエッジ部分を特定すること、および、各エッジが路肩、歩道、壁面またはポールであることが開示されている(図21参照)。特許文献3にも同様の開示がされている。
In step S115, techniques disclosed in Patent Documents 2 and 3 can be used.
Patent Literature 2 discloses identifying edge portions represented by a point cloud, and that each edge is a road shoulder, sidewalk, wall surface, or pole (see FIG. 21). A similar disclosure is also made in Patent Document 3.
ステップS116において、位置姿勢補正部222は、検出された第1特徴点群が第1特徴部分に投影されているか判定する。
例えば、位置姿勢補正部222は、第1画像の中の第1特徴部分と第1画像に投影されている第1特徴点群との位置のずれ量を算出し、算出されたずれ量を誤差閾値と比較する。ずれ量が誤差閾値以下である場合、位置姿勢補正部222は、第1特徴点群が第1特徴部分に投影されていると判定する。
第1特徴点群が第1特徴部分に投影されている場合、第1地点処理(S110)は終了する。
第1特徴点群が第1特徴部分に投影されていない場合、処理はステップS117に進む。
In step S116, the position/
For example, the position/
If the first feature point group is projected onto the first feature portion, the first point processing (S110) ends.
If the first feature point group is not projected onto the first feature portion, the process proceeds to step S117.
ステップS116では、特許文献5に開示されている技術を利用することができる。
特許文献5には、画像に投影された点群が形成する段差と画像に映った段差とのマッチングについて開示されている(図13参照)。
In step S116, the technology disclosed in Patent Document 5 can be used.
Patent Literature 5 discloses matching between a step formed by a point group projected on an image and a step reflected in the image (see FIG. 13).
ステップS117において、位置姿勢補正部222は、第1撮影時におけるカメラ206の三次元位置と第1撮影時におけるカメラ206の三次元姿勢との少なくとも一方を補正する。
具体的には、位置姿勢補正部222は、第1撮影時におけるカメラ206の三次元位置に位置補正量を加算する。また、位置姿勢補正部222は、第1撮影時におけるカメラ206の三次元姿勢に姿勢補正量を加算する。位置補正量と姿勢補正量とのそれぞれは、規定値であってもよいし、第1特徴部分と第1特徴点群との位置のずれ量に基づいて算出される値であってもよい。また、利用者が、第1特徴部分と第1特徴点群との位置のずれ量をディスプレイで見て、カメラ206の位置姿勢を補正しても構わない。
ステップS117の後、処理はステップS114に進む。
In step S117, the position/
Specifically, the position/
After step S117, the process proceeds to step S114.
図4に戻り、ステップS120から説明を続ける。
ステップS120において、計測箇所受付部231は、第1画像をタッチパネル205のディスプレイに表示し、計測箇所を受け付ける。
計測箇所は、第1画像の中で計測対象が映っている箇所であり、利用者によって指定される。
Returning to FIG. 4, the description continues from step S120.
In step S120, the measurement
The measurement location is a location where the measurement target appears in the first image, and is designated by the user.
図6に基づいて、計測箇所受付処理(S120)の手順を説明する。
図6の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 6, the procedure of the measurement point acceptance process (S120) will be described.
In the description of FIG. 6, the three-
ステップS121において、計測箇所受付部231は、タッチパネル205のディスプレイに第1画像を表示させる。
In step S<b>121 , the measurement
ステップS122において、計測箇所受付部231は、表示された第1画像に第1点群を重畳させる。
具体的には、点群投影部221が第1点群を第1画像に投影する(図5のステップS114を参照)。そして、計測箇所受付部231は、第1点群の各三次元点を第1画像の中の投影箇所に描画する。
In step S122, the measurement
Specifically, the point
計測箇所受付部231は、特許文献5に開示されている技術を利用することができる。 特許文献5には、光学画像に重畳された三次元点群データが開示されている(図13参照)。
The measurement
ステップS123において、利用者は、スマートフォンのタッチパネル205を操作することによって、第1画像の中の計測箇所を指定する。
そして、計測箇所受付部231は、タッチパネル205を介して、計測箇所の指定を受け付ける。
In step S123, the user specifies a measurement point in the first image by operating
Then, the measurement
図4に戻り、ステップS130から説明を続ける。
ステップS130において、撮影部211は、第2地点でカメラ206を用いて行われる第2撮影によって、第2画像を得る。
第2地点は、第1地点とは異なる地点である。例えば、第2地点は、利用者がスマートフォンを構えたまま徒歩で横方向に数メートル移動した地点である。
第2撮影は、第2地点でカメラ206を用いて行われる撮影である。
第2画像は、第1画像の中の計測対象が映った画像であり、第2撮影によって得られる。
Returning to FIG. 4, the description continues from step S130.
In step S130, the
The second point is a point different from the first point. For example, the second point is a point where the user has moved several meters in the lateral direction on foot while holding the smartphone.
The second photography is photography performed using the
The second image is an image showing the measurement target in the first image, and is obtained by the second imaging.
また、位置姿勢計測部212は、第2撮影時に計測センサ207を用いて、カメラ206の三次元位置と三次元姿勢とを計測する。
Also, the position and
図7に基づいて、第2地点処理(S130)の手順を説明する。
図7の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 7, the procedure of the second point processing (S130) will be described.
In the description of FIG. 7, the three-
ステップS131において、利用者は、スマートフォンを持って第2地点に移動し、スマートフォンのカメラ206を計測対象に向け、撮影操作を行う。
そして、撮影部211は、カメラ206を動作させることによって、第2撮影を行う。これにより、第2画像が得られる。
In step S131, the user carries the smartphone and moves to the second location, points the
Then, the
ステップS132において、位置姿勢計測部212は、計測センサ207を動作させる。これにより、第2撮影時における三次元計測装置200の三次元位置と、第2撮影時における三次元計測装置200の三次元姿勢とが計測される。
そして、位置姿勢計測部212は、第2撮影時における三次元計測装置200の三次元位置にカメラ206の位置オフセットを加算する。これにより、第2撮影時におけるカメラ206の三次元位置が算出される。カメラ206の位置オフセットは、記憶部290に予め登録されている。
さらに、位置姿勢計測部212は、第2撮影時における三次元計測装置200の三次元姿勢にカメラ206の姿勢オフセットを加算する。これにより、第2撮影時におけるカメラ206の三次元姿勢が算出される。カメラ206の姿勢オフセットは、記憶部290に予め登録されている。
In step S132, the position and
Then, the position/
Furthermore, the position and
ステップS133において、点群取得部213は、第2撮影時におけるカメラ206の三次元位置と第2撮影時におけるカメラ206の三次元姿勢とに基づいて、第2点群データを取得する。
第2点群データは、第2点群を表す。
第2点群は、第2画像に映っている範囲の三次元点群である。
In step S133, the point
The second point cloud data represents the second point cloud.
The second point group is a three-dimensional point group within the range shown in the second image.
第2点群データを取得する方法は、第1点群データを取得する方法と同じである(図5のステップS113を参照)。つまり、点群取得部213は、通信装置204を用いて、情報管理装置300から第2点群データを取得する。
The method for acquiring the second point cloud data is the same as the method for acquiring the first point cloud data (see step S113 in FIG. 5). That is, the point
第2点群データの取得時に第2撮影が行われてもよい。具体例を以下に説明する。
移動ステレオ方式のため、利用者は、第2地点に移動してカメラ206の位置姿勢を決める。その後、第1点群要求データと同様に第2点群要求データが出る。そして、第2地点への利用者の移動が完了し、第2点群がタッチパネル205のディスプレイに表示される。位置姿勢の微調整およびターゲット選択が終わった段階で、利用者は、ディスプレイに表示されるメッセージ“第2撮影OK?”をクリックする。これにより、カメラ206によって第2撮影が行われて第2画像が得られ、第2撮影時が確定する。第2撮影時刻と第2画像はがメモリ202に一時記憶される。
利用者がタッチパネル205の点群取得ボタンを押してもよい。点群取得ボタンが押されると、スマートフォンのカメラ206が起動し、撮影が開始される。その状態で、利用者は、タッチパネル205の撮影ボタンを通じて撮影指示を入力する。すると、カメラ206によって第2撮影が行われて第2画像が得られ、第2撮影時が確定する。第2撮影時刻と第2画像はメモリ202に一時記憶される。そして、第2点群要求データが発生する。
A second imaging may be performed when acquiring the second point cloud data. Specific examples are described below.
Due to the mobile stereo system, the user moves to a second location and determines the position and orientation of the
The user may press the point cloud acquisition button on the
ステップS134において、点群投影部221は、取得された第2点群データと、第2撮影時におけるカメラ206の三次元位置と、第2撮影時におけるカメラ206の三次元姿勢とに基づいて、第2点群を第2画像に投影する。
In step S134, the point
第2点群を第2画像に投影する方法は、第1点群を第1画像に投影する方法と同じである(図5のステップS114を参照)。 The method of projecting the second point cloud onto the second image is the same as the method of projecting the first point cloud onto the first image (see step S114 in FIG. 5).
ステップS135において、位置姿勢補正部222は、第2点群から第2画像の中の第2特徴部分に対応する第2特徴点群を検出する。
第2特徴部分は、第2画像に含まれる特徴部分である。例えば、特徴部分はエッジ部分である。特徴部分の具体例は、路肩のエッジである。
第2特徴点群は、第2点群データにおける第2特徴部分を表す三次元点群である。
In step S135, the position/
The second characteristic portion is a characteristic portion included in the second image. For example, the feature portion is an edge portion. A specific example of a feature is the edge of a road shoulder.
The second feature point group is a three-dimensional point group representing the second feature portion in the second point group data.
第2特徴点群を検出する方法は、第1特徴点群を検出する方法と同じである(図5のステップS115を参照)。つまり、位置姿勢補正部222は、特許文献2および特許文献3に開示されている技術を利用することによって、第2特徴点群を検出することができる。
The method for detecting the second feature point group is the same as the method for detecting the first feature point group (see step S115 in FIG. 5). In other words, the position/
ステップS136において、位置姿勢補正部222は、検出された第2特徴点群が第2特徴部分に投影されているか判定する。判定方法は、ステップS116における方法と同じである(図5参照)。
第2特徴点群が第2特徴部分に投影されている場合、第2地点処理(S130)は終了する。
第2特徴点群が第2特徴部分に投影されていない場合、処理はステップS137に進む。
In step S136, the position/
If the second feature point group is projected onto the second feature portion, the second point processing (S130) ends.
If the second feature point group is not projected onto the second feature portion, the process proceeds to step S137.
ステップS137において、位置姿勢補正部222は、第2撮影時におけるカメラ206の三次元位置と第2撮影時におけるカメラ206の三次元姿勢との少なくとも一方を補正する。補正方法は、ステップS117における方法と同じである(図5参照)。
ステップS137の後、処理はステップS134に進む。
In step S137, the position/
After step S137, the process proceeds to step S134.
図4に戻り、ステップS140から説明を続ける。
ステップS140において、対応箇所特定部232は、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元位置と、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元姿勢とに基づいて、第2画像の中の対応箇所を特定する。
対応箇所は、第2画像の中で計測箇所に対応する箇所である。言い換えると、対応箇所は、第2画像の中で第1画像の中の計測箇所に映っている地点と同じ地点が映っている箇所である。つまり、第1画像の中の計測箇所と第2画像の中の対応箇所とのそれぞれには、計測対象が映っている。
Returning to FIG. 4, the description continues from step S140.
In step S140, the corresponding
The corresponding location is a location corresponding to the measurement location in the second image. In other words, the corresponding point is a point in the second image where the same point as the point shown in the measurement point in the first image appears. That is, the measurement target is shown in each of the measurement location in the first image and the corresponding location in the second image.
図8に基づいて、対応箇所特定処理(S140)の手順を説明する。
図8の説明において、三次元計測装置200を「スマートフォン」と称する。
Based on FIG. 8, the procedure of the corresponding part identification process (S140) will be described.
In the description of FIG. 8, the three-
ステップS141において、対応箇所特定部232は、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元位置と、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元姿勢と、第1画像の中の計測箇所とに基づいて、第2画像におけるエピポーラ線を算出する。
In step S141, the corresponding
ステップS141では、特許文献2、特許文献3または特許文献4に開示されている技術を利用することができる。
特許文献2には、カメラ位置姿勢に基づいてエピポーラ線を算出する第1のエピポーラ線算出処理が開示されている(図16参照)。特許文献3にも同様の開示がされている。
特許文献4には、エピポーラ拘束線の算出方法が開示されている(図3参照)。
In step S141, the technology disclosed in Patent Document 2, Patent Document 3, or Patent Document 4 can be used.
Patent Document 2 discloses a first epipolar line calculation process for calculating an epipolar line based on the camera position and orientation (see FIG. 16). A similar disclosure is also made in Patent Document 3.
Patent Document 4 discloses a method of calculating an epipolar constraint line (see FIG. 3).
ステップS142において、対応箇所特定部232は、算出されたエピポーラ線が記された状態で、第2画像をタッチパネル205のディスプレイに表示する。
In step S142, the corresponding
ステップS143において、対応箇所特定部232は、表示された第2画像に第2点群を重畳させる。重畳方法は、ステップS122における方法と同じである(図6参照)。
In step S143, the corresponding
ステップS144において、利用者は、スマートフォンのタッチパネル205を操作することによって、表示された第2画像に記されたエピポーラ線上で対応箇所を指定する。
そして、対応箇所特定部232は、タッチパネル205を介して、対応箇所の指定を受け付ける。
In step S<b>144 , the user operates
Then, the corresponding
図4に戻り、ステップS150を説明する。
ステップS150において、対象位置算出部233は、第1画像の中の計測箇所と第2画像の中の対応箇所とに基づいて、計測対象の三次元位置を算出する。
Returning to FIG. 4, step S150 will be described.
In step S150, the target
図9に基づいて、対象位置算出処理(S150)の手順を説明する。
ステップS151において、対象位置算出部233は、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元位置と、第1撮影時と第2撮影時とのそれぞれにおけるカメラ206の三次元姿勢とに基づいて、第1画像の中の計測箇所と第2画像の中の対応箇所との視差を算出する。
Based on FIG. 9, the procedure of the target position calculation process (S150) will be described.
In step S151, the target
ステップS152において、対象位置算出部233は、算出された視差に基づいて、計測対象の三次元位置を算出する。
In step S152, the
対象位置算出処理(S150)では、特許文献4、特許文献6または特許文献7に開示されている技術を利用することができる。
特許文献4には、視差を利用することによって物体の形状を三次元的に復元する三次元復元手段が開示されている(図2参照)。
特許文献6には、視差を利用することによって三次元モデルを作成するGISモデル作成部が開示されている(図1参照)。特許文献7にも同様の開示がされている。
In the target position calculation process (S150), the technology disclosed in Patent Document 4, Patent Document 6, or Patent Document 7 can be used.
Patent Document 4 discloses a three-dimensional restoration means for three-dimensionally restoring the shape of an object by using parallax (see FIG. 2).
Patent Literature 6 discloses a GIS model creation unit that creates a three-dimensional model by using parallax (see FIG. 1). A similar disclosure is also made in Patent Document 7.
図10に基づいて、三次元計測方法の第1具体例を説明する。
図10において、三次元計測装置200を「スマートフォン112」と称する。
利用者は、第1地点113でスマートフォン112を計測対象111に向けて、撮影操作を行う。計測対象111は、電信柱から垂れ下がっている電線である。
撮影部211は、撮影範囲110を撮影することによって、第1画像114を得る。第1画像114には計測対象111が映っている。
計測箇所受付部231は、第1画像114をタッチパネル205に表示する。表示された第1画像114には三次元点群が重畳されている(図示省略)。利用者は、第1画像114に三次元点群が重畳されていることを確認する。
利用者は、タッチパネル205を操作することによって、第1画像114の中の計測箇所に、計測箇所を指定するためのマーカ115を設定する。マーカ115は、ダブルクリック等によって設定される。マーカ115の大きさは可変であり、計測箇所受付部231は、マーカ115の大きさを適切に調整する。
なお、図10に示したマーカ115は十字形状であるが、マーカ115は丸形状であってもよいし、四角形状または矢尻形状などの多角形状であってもよい。
計測箇所受付部231は、第1画像114の中のマーカ115の位置を計測箇所として受け付ける。
ここでのマーカ115の位置は、マーカ115における特定の指定点の位置を意味する。マーカ115における特定の指定点は予め適宜に設定すればよい。例えば、マーカ115が十字形状または丸形状であれば、マーカ115の中心を特定の指定点とすればよい。また、マーカ115が四角形状であれば、マーカ115の中心またはマーカ115の四隅のいずれかを特定の指定点とすればよい。また、マーカ115が矢尻形状であれば、マーカ115の先端を特定の指定点とすればよい。
利用者は、スマートフォン112を持って第2地点116に移動する。
利用者は、第2地点116でスマートフォン112を計測対象111に向けて、撮影操作を行う。
撮影部211は、撮影範囲110を撮影することによって、第2画像117を得る。第2画像117には計測対象111が映っている。
対応箇所特定部232は、第2画像117をタッチパネル205に表示する。表示された第2画像117にはエピポーラ線118が記されている。さらに、表示された第2画像117には三次元点群が重畳されている(図示省略)。
利用者は、タッチパネル205を操作することによって、エピポーラ線118上の対応箇所にマーカ119を設定する。マーカ119は、ダブルクリック等によって設定される。マーカ119の大きさは可変であり、対応箇所特定部232は、マーカ119の大きさを適切に調整する。
対応箇所特定部232は、エピポーラ線118上のマーカ119の位置を対応箇所として受け付ける。
対象位置算出部233は、マーカ115が設定された計測箇所とマーカ119が設定された対応箇所との視差を利用して、計測対象111の三次元位置を算出する。これにより、電信柱から垂れ下がっている電線の最も低い部分の三次元座標値が得られる。
A first specific example of the three-dimensional measurement method will be described with reference to FIG.
In FIG. 10, the three-
The user aims the
The photographing
Measurement
By operating the
Although the marker 115 shown in FIG. 10 has a cross shape, the marker 115 may have a circular shape, or may have a polygonal shape such as a rectangular shape or an arrowhead shape.
The measurement
The position of the marker 115 here means the position of a specific designated point on the marker 115 . A specific designated point on the marker 115 may be appropriately set in advance. For example, if the marker 115 has a cross shape or a circular shape, the center of the marker 115 may be set as a specific designated point. Also, if the marker 115 has a rectangular shape, either the center of the marker 115 or the four corners of the marker 115 may be set as the specific designated point. Also, if the marker 115 has an arrowhead shape, the tip of the marker 115 may be set as a specific designated point.
The user carries the
The user aims the
The photographing
Corresponding
The user sets the marker 119 at the corresponding location on the epipolar line 118 by operating the
The corresponding
The target
図11に基づいて、三次元計測方法の第2具体例を説明する。
図11において、三次元計測装置200を「スマートフォン112」と称する。
利用者は、第1地点113でスマートフォン112を計測対象111に向けて、撮影操作を行う。計測対象111は、道路に新たに標示された路面マーカ(道路標示)である。
撮影部211は、撮影範囲110を撮影することによって、第1画像114を得る。第1画像114には計測対象111が映っている。
計測箇所受付部231は、第1画像114をタッチパネル205に表示する。表示された第1画像114には三次元点群が重畳されている(図示省略)。利用者は、第1画像114に三次元点群が重畳されていることを確認する。
利用者は、タッチパネル205を操作することによって、第1画像114の中の計測箇所にマーカ115を設定する。マーカ115は、ダブルクリック等によって設定される。マーカ115の大きさは可変であり、計測箇所受付部231は、マーカ115の大きさを適切に調整する。
計測箇所受付部231は、第1画像114の中のマーカ115の位置を計測箇所として受け付ける。
利用者は、スマートフォン112を持って第2地点116に移動する。
利用者は、第2地点116でスマートフォン112を計測対象111に向けて、撮影操作を行う。
撮影部211は、撮影範囲110を撮影することによって、第2画像117を得る。第2画像117には計測対象111が映っている。
対応箇所特定部232は、第2画像117をタッチパネル205に表示する。表示された第2画像117にはエピポーラ線118が記されている。さらに、表示された第2画像117には三次元点群が重畳されている(図示省略)。
利用者は、タッチパネル205を操作することによって、エピポーラ線118上の対応箇所にマーカ119を設定する。マーカ119は、ダブルクリック等によって設定される。マーカ119の大きさは可変であり、対応箇所特定部232は、マーカ119の大きさを適切に調整する。
対応箇所特定部232は、エピポーラ線118上のマーカ119の位置を対応箇所として受け付ける。
対象位置算出部233は、マーカ115が設定された計測箇所とマーカ119が設定された対応箇所との視差を利用して、計測対象111の三次元位置を算出する。これにより、道路に新たに標示された路面マーカ(道路標示)の三次元座標値が得られる。
A second specific example of the three-dimensional measurement method will be described with reference to FIG.
In FIG. 11, the three-
The user aims the
The photographing
Measurement
The user sets the marker 115 at the measurement point in the first image 114 by operating the
The measurement
The user carries the
The user aims the
The photographing
Corresponding
The user sets the marker 119 at the corresponding location on the epipolar line 118 by operating the
The corresponding
The target
***実施例の説明***
三次元計測装置200が点群データベース390を備えてもよい。
その場合、点群取得部213が、情報管理装置300の点群抽出部312の代わりに、点群データベース390から、第1点群データと第2点群データとを抽出する。情報管理装置300は不要となる。
***Description of Examples***
The three-
In that case, the point
三次元計測装置200は、位置姿勢補正部222を備えなくてもよい。
その場合、対象位置算出部233は、位置姿勢計測部212によって計測されたカメラ206の三次元位置と三次元姿勢とを用いて、計測対象の三次元位置を算出する。
The three-
In that case, the target
計測箇所受付部231は、タッチパネル205に表示させる画像に三次元点群を重畳しなくてもよい。
The measurement
対応箇所特定部232は、利用者の指定を受けずに、対応箇所を自動で特定してもよい。
図12に基づいて、対応箇所を自動で特定するための対応箇所特定処理(S140)の手順を説明する。
ステップS141において、対応箇所特定部232は、第2画像におけるエピポーラ線を算出する。算出方法は、図8に基づいて説明した通りである。
The corresponding
Based on FIG. 12, the procedure of the corresponding point specifying process (S140) for automatically specifying the corresponding point will be described.
In step S141, the corresponding
ステップS142において、対応箇所特定部232は、第2画像におけるエピポーラ線に位置する複数の画素から、第1画像の中の計測箇所に位置する画素と合致する画素を特定する。特定される画素が位置する箇所が対応箇所である。
In step S142, the corresponding
対応箇所特定処理(S140)では、特許文献2、特許文献3、特許文献4、特許文献6または特許文献7に開示されている技術を利用することができる。
特許文献2には、エピポーラ線上を探索することによって画像平面Aの特徴点に対応する画像平面Bの対応点を求める第1の対応点探索処理が開示されている(図16参照)。特許文献3にも同様の開示がされている。
特許文献4には、エピポーラ拘束線上の画像を第1地点での第1画像と対比することによって双方の画像で同一となる部分を特定する画像マッチング手段が開示されている(図4参照)。
特許文献6には、二地点の画像上で互いに対応する注視点を特定するGISモデル作成部が開示されている(図1参照)。特許文献7にも同様の開示がされている。
The technology disclosed in Patent Document 2, Patent Document 3, Patent Document 4, Patent Document 6, or Patent Document 7 can be used in the corresponding location identification process (S140).
Patent Literature 2 discloses a first corresponding point search process for finding corresponding points on image plane B corresponding to feature points on image plane A by searching on epipolar lines (see FIG. 16). A similar disclosure is also made in Patent Document 3.
Patent Document 4 discloses image matching means for identifying the same portion in both images by comparing an image on the epipolar constraint line with a first image at a first point (see FIG. 4).
Patent Literature 6 discloses a GIS model creation unit that specifies points of gaze corresponding to each other on images of two points (see FIG. 1). A similar disclosure is also made in Patent Document 7.
対象位置算出部233は、計測対象の三次元位置を視線ベクトルに基づいて算出してもよい。
図13に基づいて、視線ベクトルに基づいて計測対象の三次元位置を算出するための三次元位置算出処理(S150)の手順を説明する。
ステップS151において、対象位置算出部233は、第1撮影時におけるカメラ206の三次元位置と、第1撮影時におけるカメラ206の三次元姿勢と、第1画像の中の計測箇所とに基づいて、第1視線ベクトルを算出する。
第1視線ベクトルは、第1撮影時におけるカメラ206の視線ベクトルであり、第1画像平面における計測箇所を通る。
第1画像平面は、第1画像に対応する三次元平面である。
The
Based on FIG. 13, the procedure of the three-dimensional position calculation process (S150) for calculating the three-dimensional position of the measurement target based on the line-of-sight vector will be described.
In step S151, the target
The first line-of-sight vector is the line-of-sight vector of the
The first image plane is a three-dimensional plane corresponding to the first image.
ステップS152において、対象位置算出部233は、第2撮影時におけるカメラ206の三次元位置と、第2撮影時におけるカメラ206の三次元姿勢と、第2画像の中の計測箇所とに基づいて、第2視線ベクトルを算出する。
第2視線ベクトルは、第2撮影時におけるカメラ206の視線ベクトルであり、第2画像平面における対応箇所を通る。
第2画像平面は、第2画像に対応する三次元平面である。
In step S152, the target
The second line-of-sight vector is the line-of-sight vector of the
The second image plane is a three-dimensional plane corresponding to the second image.
ステップS153において、対象位置算出部233は、第1視線ベクトルと第2視線ベクトルとの交点の三次元座標値を算出する。
算出される三次元座標値が計測対象の三次元位置である。
In step S153, the target
The calculated three-dimensional coordinate value is the three-dimensional position of the measurement target.
三次元位置算出処理(S150)では、特許文献2に開示されている技術を利用することができる。
特許文献2には、2つのLOSベクトルの交点が示す三次元座標を計測対象点の三次元座標として算出する画像三次元復元処理が開示されている(図15参照)。
The technique disclosed in Patent Document 2 can be used in the three-dimensional position calculation process (S150).
Patent Literature 2 discloses image three-dimensional restoration processing for calculating the three-dimensional coordinates indicated by the intersection of two LOS vectors as the three-dimensional coordinates of the measurement target point (see FIG. 15).
三次元計測装置200は、以下のような構成であってもよい。
三次元計測装置200は、カメラ206と計測センサ207とディスプレイとプロセッサ201とを備える。例えば、ディスプレイはタッチパネル205である。
計測センサ207は、三次元位置および三次元姿勢を計測する。
カメラ206は、第1撮影時に計測対象が映った第1画像を得るとともに、第1撮影時の位置とは異なる位置で第2撮影時に前記計測対象が映った第2画像を得る。
ディスプレイは、前記第1画像と前記第2画像とのそれぞれに、計測箇所を指定するマーカを表示する。
プロセッサ201は、外部の情報管理装置との通信によって、位置が既知の三次元点群情報を得る。プロセッサ201は、前記計測センサの計測情報に基づいて、前記三次元点群情報を前記第1画像と前記第2画像とに投影する。プロセッサ201は、前記三次元点群情報の位置合わせを行う。プロセッサ201は、前記第1画像の中の前記マーカによる前記計測箇所の指定点と、前記第2画像の中の前記マーカによる前記計測箇所の指定点とに基づいて、前記計測箇所の三次元位置を算出する。
The three-
A three-
A
The
The display displays a marker designating a measurement point on each of the first image and the second image.
The
***実施の形態1の効果***
既存の三次元点群が存在する屋内外において、概略の位置情報と概略の姿勢情報とカメラ画像とを用いて、既存の三次元点群と同じ精度で物体の三次元位置を計測することができる。
既存の三次元点群は、レーザおよび画像などを使って予め計測された三次元点群である。既存の三次元点群は点群データベース390に相当する。
概略の位置情報は、計測センサ207を用いて計測されたカメラ206の三次元位置に相当する。
概略の姿勢情報は、計測センサ207を用いて計測されたカメラ206の三次元姿勢に相当する。
カメラ画像は、第1画像と第2画像とに相当する。
*** Effect of Embodiment 1 ***
Indoors and outdoors where an existing 3D point cloud exists, it is possible to measure the 3D position of an object with the same accuracy as the existing 3D point cloud, using approximate position information, approximate orientation information, and a camera image. can.
Existing 3D point clouds are 3D point clouds that have been pre-measured using lasers, images, and the like. An existing 3D point cloud corresponds to the point cloud database 390 .
The rough position information corresponds to the three-dimensional position of the
The general orientation information corresponds to the three-dimensional orientation of the
The camera images correspond to the first image and the second image.
***実施の形態の補足***
実施の形態は、好ましい形態の例示であり、本発明の技術的範囲を制限することを意図するものではない。実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
*** Supplement to the embodiment ***
The embodiments are examples of preferred modes and are not intended to limit the technical scope of the present invention. Embodiments may be implemented partially or in combination with other embodiments. The procedures described using flowcharts and the like may be changed as appropriate.
実施の形態で説明された各装置は、複数の装置で実現されてもよい。つまり、実施の形態で説明された各装置は、システムとして実現されてもよい。
実施の形態で説明された装置の各要素は、ソフトウェア、ハードウェア、ファームウェアまたはこれらの組み合わせのいずれで実現されてもよい。
各要素の名称における「部」は、「処理」または「工程」と読み替えてもよい。
Each device described in the embodiments may be realized by multiple devices. That is, each device described in the embodiments may be implemented as a system.
Each element of the devices described in the embodiments may be implemented in software, hardware, firmware, or any combination thereof.
"Part" in the name of each element may be read as "processing" or "process".
100 三次元計測システム、101 情報管理センサ、102 ネットワーク、110 撮影範囲、111 計測対象、112 スマートフォン、113 第1地点、114 第1画像、115 マーカ、116 第2地点、117 第2画像、118 エピポーラ線、119 マーカ、200 三次元計測装置、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 タッチパネル、206 カメラ、207 計測センサ、211 撮影部、212 位置姿勢計測部、213 点群取得部、221 点群投影部、222 位置姿勢補正部、231 計測箇所受付部、232 対応箇所特定部、233 対象位置算出部、290 記憶部、300 情報管理装置、301 プロセッサ、302 メモリ、303 補助記憶装置、304 通信装置、305 入出力インタフェース、311 要求受付部、312 点群抽出部、313 点群応答部、390 点群データベース。
100 three-dimensional measurement system, 101 information management sensor, 102 network, 110 imaging range, 111 measurement target, 112 smartphone, 113 first point, 114 first image, 115 marker, 116 second point, 117 second image, 118 epipolar line, 119 marker, 200 three-dimensional measuring device, 201 processor, 202 memory, 203 auxiliary storage device, 204 communication device, 205 touch panel, 206 camera, 207 measurement sensor, 211 imaging unit, 212 position and orientation measurement unit, 213
Claims (6)
第1地点で前記カメラを用いて行われる第1撮影によって、計測対象が映った第1画像を得て、第2地点で前記カメラを用いて行われる第2撮影によって、前記計測対象が映った第2画像を得る撮影部と、
前記第1撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測部と、
前記第1画像を前記ディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付部と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定部と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出部と
を備え、
前記対応箇所特定部は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と、前記第1画像の中の前記計測箇所とに基づいて、前記第2画像におけるエピポーラ線を算出し、
算出されたエピポーラ線が記された状態で前記第2画像を前記ディスプレイに表示し、
表示された第2画像に記されたエピポーラ線上で指定される箇所を前記対応箇所として受け付ける
三次元計測装置。 A three-dimensional measuring device comprising a camera, a measurement sensor, and a display,
A first image of the object to be measured is obtained by first photographing at a first location using the camera, and a second image of the object to be measured is obtained by second photographing at a second location using the camera. an imaging unit for obtaining a second image;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. a position and orientation measurement unit that
a measurement location reception unit that displays the first image on the display and receives a measurement location that is a location where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image a corresponding portion identification unit that identifies a corresponding portion that is a corresponding portion;
a target position calculation unit that calculates the three-dimensional position of the measurement target based on the measurement location in the first image and the corresponding location in the second image ;
The corresponding part identifying unit
Based on the three-dimensional position and three-dimensional orientation of the camera during the first imaging, the three-dimensional position and three-dimensional orientation of the camera during the second imaging, and the measurement locations in the first image , calculating epipolar lines in the second image;
displaying the second image on the display with the calculated epipolar line marked;
Receive a location specified on the epipolar line marked on the displayed second image as the corresponding location.
Three-dimensional measuring device.
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と、前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所との視差とに基づいて、前記計測対象の前記三次元位置を算出する
請求項1に記載の三次元計測装置。 The target position calculation unit
The three-dimensional position and three-dimensional orientation of the camera during the first imaging, the three-dimensional position and three-dimensional orientation of the camera during the second imaging, the measurement location in the first image, and the second 2. The three-dimensional measuring apparatus according to claim 1 , wherein the three-dimensional position of the object to be measured is calculated based on parallax with the corresponding portion in the image.
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と前記第1画像の中の前記計測箇所とに基づいて第1視線ベクトルを算出し、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と前記第2画像の中の前記対応箇所とに基づいて第2視線ベクトルを算出し、前記第1視線ベクトルと前記第2視線ベクトルとの交点の三次元座標値を前記計測対象の前記三次元位置として算出する
請求項1に記載の三次元計測装置。 The target position calculation unit
calculating a first line-of-sight vector based on the three-dimensional position and three-dimensional posture of the camera at the time of the first imaging and the measurement location in the first image; calculating a second line-of-sight vector based on the position, the three-dimensional orientation, and the corresponding location in the second image, and measuring the three-dimensional coordinate values of the intersection of the first line-of-sight vector and the second line-of-sight vector; The three-dimensional measuring device according to claim 1, wherein the three-dimensional position of the object is calculated.
第1地点で前記カメラを用いて行われる第1撮影によって、計測対象が映った第1画像を得て、第2地点で前記カメラを用いて行われる第2撮影によって、前記計測対象が映った第2画像を得る撮影部と、
前記第1撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測部と、
前記第1画像を前記ディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付部と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定部と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出部と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第1画像に映っている範囲の三次元点群である第1点群を表す第1点群データを取得し、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像に映っている範囲の三次元点群である第2点群を表す第2点群データを取得する点群取得部と、
取得された第1点群データと前記第1撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて前記第1点群を前記第1画像に投影し、取得された第2点群データと前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて前記第2点群を前記第2画像に投影する点群投影部と、
前記第1点群から前記第1画像の中の第1特徴部分に対応する第1特徴点群を検出し、検出された第1特徴点群が前記第1特徴部分に投影されるように前記第1撮影時における前記カメラの三次元位置と三次元姿勢とを補正し、前記第2点群から前記第2画像の中の第2特徴部分に対応する第2特徴点群を検出し、検出された第2特徴点群が前記第2特徴部分に投影されるように前記第2撮影時における前記カメラの三次元位置と三次元姿勢とを補正する位置姿勢補正部と、
を備え、
前記点群取得部は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢とを含む第1点群要求データを情報管理装置へ送信し、前記情報管理装置から前記第1点群データを受信し、
前記第2撮影時における前記カメラの三次元位置と三次元姿勢とを含む第2点群要求データを前記情報管理装置へ送信し、前記情報管理装置から前記第2点群データを受信する三次元計測装置。 A three-dimensional measuring device comprising a camera, a measurement sensor, and a display,
A first image of the object to be measured is obtained by first photographing at a first location using the camera, and a second image of the object to be measured is obtained by second photographing at a second location using the camera. an imaging unit for obtaining a second image;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. a position and orientation measurement unit that
a measurement location reception unit that displays the first image on the display and receives a measurement location that is a location where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image a corresponding portion identification unit that identifies a corresponding portion that is a corresponding portion;
a target position calculation unit that calculates a three-dimensional position of the measurement target based on the measurement position in the first image and the corresponding position in the second image ;
Acquiring first point cloud data representing a first point cloud, which is a three-dimensional point cloud of the range shown in the first image, based on the three-dimensional position and the three-dimensional posture of the camera at the time of the first imaging. and second point cloud data representing a second point cloud, which is a three-dimensional point cloud of the range shown in the second image, based on the three-dimensional position and three-dimensional posture of the camera at the time of the second imaging. a point cloud acquisition unit that acquires
projecting the first point cloud onto the first image based on the obtained first point cloud data and the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging, and obtaining a second point cloud; a point cloud projection unit that projects the second point cloud onto the second image based on the data and the three-dimensional position and three-dimensional posture of the camera at the time of the second imaging;
A first feature point group corresponding to a first feature portion in the first image is detected from the first point group, and the detected first feature point group is projected onto the first feature portion. correcting the three-dimensional position and three-dimensional posture of the camera at the time of the first photographing, and detecting a second feature point group corresponding to a second feature portion in the second image from the second point group; a position/orientation correction unit that corrects the three-dimensional position and three-dimensional orientation of the camera at the time of the second photographing such that the second feature point group thus obtained is projected onto the second feature portion;
with
The point cloud acquisition unit is
transmitting first point cloud request data including the three-dimensional position and three-dimensional attitude of the camera at the time of the first imaging to an information management device, receiving the first point cloud data from the information management device;
transmitting second point cloud request data including the three-dimensional position and three-dimensional attitude of the camera at the time of the second imaging to the information management device, and receiving the second point cloud data from the information management device measuring device.
第1撮影時に計測対象が映った第1画像を得るとともに、第1撮影時の位置とは異なる位置で第2撮影時に前記計測対象が映った第2画像を得るカメラと、
前記第1画像と前記第2画像とのそれぞれに、計測箇所を指定するマーカを表示するディスプレイと、
外部の情報管理装置との通信によって、位置が既知の三次元点群情報を得て、前記計測センサの計測情報に基づいて、前記三次元点群情報を前記第1画像と前記第2画像とに投影し、前記三次元点群情報の位置合わせを行い、前記第1画像の中の前記マーカによる前記計測箇所の指定点と、前記第2画像の中の前記マーカによる前記計測箇所の指定点とに基づいて、前記計測箇所の三次元位置を算出するプロセッサと、
を備える三次元計測装置。 a measurement sensor that measures a three-dimensional position and three-dimensional orientation;
a camera that obtains a first image showing an object to be measured at the time of first photography, and obtains a second image showing the object to be measured at a position different from the position at the time of the first photography at the time of second photography;
a display that displays a marker designating a measurement point on each of the first image and the second image;
By communicating with an external information management device, three-dimensional point group information whose position is known is obtained, and based on the measurement information of the measurement sensor, the three-dimensional point group information is converted into the first image and the second image. , and aligning the three-dimensional point group information, the designated point of the measurement location by the marker in the first image, and the designated point of the measurement location by the marker in the second image A processor that calculates the three-dimensional position of the measurement point based on
A three-dimensional measuring device.
前記第1撮影時に計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測し、前記第2撮影時に前記計測センサを用いて前記カメラの三次元位置と三次元姿勢とを計測する位置姿勢計測処理と、
前記第1画像をディスプレイに表示し、前記第1画像の中で前記計測対象が映っている箇所である計測箇所を受け付ける計測箇所受付処理と、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢とに基づいて、前記第2画像の中で前記計測箇所に対応する箇所である対応箇所を特定する対応箇所特定処理と、
前記第1画像の中の前記計測箇所と前記第2画像の中の前記対応箇所とに基づいて、前記計測対象の三次元位置を算出する対象位置算出処理と
をコンピュータに実行させるための三次元計測プログラムであって、
前記対応箇所特定処理は、
前記第1撮影時における前記カメラの三次元位置と三次元姿勢と、前記第2撮影時における前記カメラの三次元位置と三次元姿勢と、前記第1画像の中の前記計測箇所とに基づいて、前記第2画像におけるエピポーラ線を算出し、
算出されたエピポーラ線が記された状態で前記第2画像を前記ディスプレイに表示し、
表示された第2画像に記されたエピポーラ線上で指定される箇所を前記対応箇所として受け付ける
三次元計測プログラム。 A first image in which the measurement target is captured is obtained by first photography performed using a camera at a first point, and a second image in which the measurement target is captured is obtained by second photography performed using the camera at a second point. a photographing process for obtaining two images;
The three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the first imaging, and the three-dimensional position and three-dimensional orientation of the camera are measured using the measurement sensor during the second imaging. position and orientation measurement processing;
a measurement point acceptance process for displaying the first image on a display and accepting a measurement point, which is a point where the measurement target is shown in the first image;
Based on the three-dimensional position and three-dimensional orientation of the camera at the time of the first imaging and the three-dimensional position and three-dimensional orientation of the camera at the time of the second imaging, at the measurement location in the second image Corresponding part identification processing for identifying a corresponding part, which is a corresponding part;
and a target position calculation process for calculating a three-dimensional position of the measurement target based on the measurement position in the first image and the corresponding position in the second image. A measurement program ,
The corresponding location identifying process includes:
Based on the three-dimensional position and three-dimensional orientation of the camera during the first imaging, the three-dimensional position and three-dimensional orientation of the camera during the second imaging, and the measurement locations in the first image , calculating epipolar lines in the second image;
displaying the second image on the display with the calculated epipolar line marked;
Receive a location specified on the epipolar line marked on the displayed second image as the corresponding location.
3D measurement program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014141A JP7183058B2 (en) | 2019-01-30 | 2019-01-30 | Three-dimensional measuring device and three-dimensional measuring program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014141A JP7183058B2 (en) | 2019-01-30 | 2019-01-30 | Three-dimensional measuring device and three-dimensional measuring program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020122697A JP2020122697A (en) | 2020-08-13 |
JP7183058B2 true JP7183058B2 (en) | 2022-12-05 |
Family
ID=71992524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019014141A Active JP7183058B2 (en) | 2019-01-30 | 2019-01-30 | Three-dimensional measuring device and three-dimensional measuring program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7183058B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022102236A1 (en) * | 2020-11-16 | 2022-05-19 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7117408B1 (en) | 2021-02-26 | 2022-08-12 | 株式会社パスコ | POSITION CALCULATION DEVICE, PROGRAM AND POSITION CALCULATION METHOD |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006234703A (en) | 2005-02-28 | 2006-09-07 | Univ Waseda | Image processing device, three-dimensional measuring device, and program for image processing device |
JP2009075117A (en) | 2007-02-16 | 2009-04-09 | Mitsubishi Electric Corp | Road feature measuring device, feature identifying device, road feature measuring method, road feature measuring program, measuring instrument, measuring method, measuring program, measured position data, measuring terminal device, measuring server device, drawing device, drawing method, drawing program, and drawing data |
JP2012127896A (en) | 2010-12-17 | 2012-07-05 | Kumamoto Univ | Mobile object position measurement device |
JP2016170060A (en) | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | Facility information display system, mobile terminal, server and facility information display method |
-
2019
- 2019-01-30 JP JP2019014141A patent/JP7183058B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006234703A (en) | 2005-02-28 | 2006-09-07 | Univ Waseda | Image processing device, three-dimensional measuring device, and program for image processing device |
JP2009075117A (en) | 2007-02-16 | 2009-04-09 | Mitsubishi Electric Corp | Road feature measuring device, feature identifying device, road feature measuring method, road feature measuring program, measuring instrument, measuring method, measuring program, measured position data, measuring terminal device, measuring server device, drawing device, drawing method, drawing program, and drawing data |
JP2012127896A (en) | 2010-12-17 | 2012-07-05 | Kumamoto Univ | Mobile object position measurement device |
JP2016170060A (en) | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | Facility information display system, mobile terminal, server and facility information display method |
Also Published As
Publication number | Publication date |
---|---|
JP2020122697A (en) | 2020-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3469306B1 (en) | Geometric matching in visual navigation systems | |
JP6338021B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US9842399B2 (en) | Image processing device and image processing method | |
JP6307553B2 (en) | Cross-spectral feature correlation for navigation adjustment | |
CN109425348B (en) | Method and device for simultaneously positioning and establishing image | |
EP3716210B1 (en) | Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device | |
JP2013186816A (en) | Moving image processor, moving image processing method and program for moving image processing | |
US8571303B2 (en) | Stereo matching processing system, stereo matching processing method and recording medium | |
WO2015068470A1 (en) | 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program | |
JP7107166B2 (en) | Floor detection program, floor detection method, and terminal device | |
WO2022183685A1 (en) | Target detection method, electronic medium and computer storage medium | |
US20160169662A1 (en) | Location-based facility management system using mobile device | |
JP2015138428A (en) | Additional information display apparatus and additional information display program | |
JP2021106025A5 (en) | ||
JP7183058B2 (en) | Three-dimensional measuring device and three-dimensional measuring program | |
JP2010128608A (en) | Stereo matching processing system, stereo matching processing method, and program | |
CN113610702B (en) | Picture construction method and device, electronic equipment and storage medium | |
JP2014209680A (en) | Land boundary display program, method, and terminal device | |
JP5769248B2 (en) | Stereo matching processing device, stereo matching processing method, and program | |
JP2008224323A (en) | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program | |
Bakuła et al. | Capabilities of a smartphone for georeferenced 3dmodel creation: An evaluation | |
CN114387532A (en) | Boundary identification method and device, terminal, electronic equipment and unmanned equipment | |
JP2008203991A (en) | Image processor | |
JP5464671B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010107224A (en) | Position determining apparatus and apparatus for detecting changed building |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7183058 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |