JP7363225B2 - Measuring device, measuring system, measuring method and program - Google Patents

Measuring device, measuring system, measuring method and program Download PDF

Info

Publication number
JP7363225B2
JP7363225B2 JP2019162982A JP2019162982A JP7363225B2 JP 7363225 B2 JP7363225 B2 JP 7363225B2 JP 2019162982 A JP2019162982 A JP 2019162982A JP 2019162982 A JP2019162982 A JP 2019162982A JP 7363225 B2 JP7363225 B2 JP 7363225B2
Authority
JP
Japan
Prior art keywords
moving body
structures
image
distance
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019162982A
Other languages
Japanese (ja)
Other versions
JP2021042978A (en
Inventor
大輔 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019162982A priority Critical patent/JP7363225B2/en
Publication of JP2021042978A publication Critical patent/JP2021042978A/en
Application granted granted Critical
Publication of JP7363225B2 publication Critical patent/JP7363225B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動体の位置および姿勢の情報を取得する技術に関するものである。 The present invention relates to a technique for acquiring information on the position and posture of a moving body.

移動体の制御を行う上で、移動体の位置および姿勢は重要な情報である。また、移動体の大型化や重量の増加を避けるため、移動体の位置および姿勢を計測する装置は、大型化や複雑化が抑制されることが望ましい。 When controlling a moving body, the position and orientation of the moving body are important information. Furthermore, in order to avoid an increase in the size and weight of a moving object, it is desirable that a device for measuring the position and orientation of a moving object be suppressed from becoming larger and more complex.

移動体の制御装置は、ミリ波レーダー、LIDAR(Light Detection and Ranging)、加速度センサ、ジャイロセンサおよびカメラのうち、いくつかを組み合わせた構成によって周囲の環境や移動体の情報を取得することが多い。上記のうち、ミリ波レーダーやLIDARは、周囲の障害物までの距離の情報を取得するために用いられる。加速度センサやジャイロセンサは移動体の運動の方向や姿勢の情報を取得するために用いられる。また、カメラは、回避対象の移動体等の検出や認識のために用いられる。しかし、ミリ波レーダーやLIDARは、高価であるとともに、運動方向を知るために、加速度センサやジャイロセンサを組み合わせる必要があるため装置の構成が複雑なものとなり得る。そのため、計測装置の大型化や複雑化を抑制しつつ、移動体の制御に必要な位置および姿勢の情報を取得できることが望ましい。そのような、移動体の制御に位置や姿勢の情報を計測装置の大型化や複雑化を抑制しつつ得るための技術としては、例えば、特許文献1のような技術が開示されている。 Control devices for moving objects often acquire information about the surrounding environment and moving objects using a combination of millimeter wave radar, LIDAR (Light Detection and Ranging), acceleration sensors, gyro sensors, and cameras. . Among the above, millimeter wave radar and LIDAR are used to obtain information on distances to surrounding obstacles. Acceleration sensors and gyro sensors are used to obtain information about the direction and posture of a moving object. Furthermore, the camera is used to detect and recognize moving objects to be avoided. However, millimeter wave radars and LIDARs are expensive and require a combination of acceleration sensors and gyro sensors in order to determine the direction of motion, which can result in complex device configurations. Therefore, it is desirable to be able to acquire position and orientation information necessary for controlling a moving object while suppressing the increase in size and complexity of the measuring device. As a technique for obtaining position and orientation information for controlling a moving object while suppressing the increase in size and complexity of a measuring device, a technique such as that disclosed in Patent Document 1, for example, has been disclosed.

特許文献1は、取得した画像からカメラの位置および姿勢を推定する位置・姿勢推定装置に関するものである。特許文献1の位置・姿勢推定装置は、画像上の特徴点と、あらかじめマップ点として登録されている基準となる点との誤差を計算し、カメラの姿勢と位置の推定を行っている。 Patent Document 1 relates to a position/orientation estimation device that estimates the position and orientation of a camera from an acquired image. The position/orientation estimating device disclosed in Patent Document 1 calculates the error between a feature point on an image and a reference point registered in advance as a map point, and estimates the orientation and position of the camera.

特開2016-91065号公報Japanese Patent Application Publication No. 2016-91065

しかしながら、特許文献1の技術は次のような点で十分ではない。特許文献1では、カメラの位置と姿勢を推定する際に2台のカメラで撮像した画像が必要となる。よって、特許文献1の技術では、移動体にカメラを複数、搭載する必要があるため装置の大型化する恐れがある。そのため、特許文献1の技術は、装置の大型化や複雑化を抑制しつつ移動体の位置および姿勢を計測する技術としては十分ではない。 However, the technique of Patent Document 1 is not sufficient in the following points. In Patent Document 1, images captured by two cameras are required when estimating the position and orientation of the camera. Therefore, in the technique of Patent Document 1, it is necessary to mount a plurality of cameras on a moving object, which may lead to an increase in the size of the device. Therefore, the technique of Patent Document 1 is not sufficient as a technique for measuring the position and orientation of a moving object while suppressing the increase in size and complexity of the device.

本発明は、装置を大型化することなく移動体の位置および姿勢を計測することができる計測装置を提供することを目的としている。 An object of the present invention is to provide a measuring device that can measure the position and orientation of a moving object without increasing the size of the device.

上記の課題を解決するため、本発明の計測装置は、計測装置は、画像取得手段と、特徴点抽出手段と、特定手段と、距離計算手段と、姿勢決定手段を備えている。画像取得手段は、移動体が有するカメラが撮影した移動体の周囲の画像を取得する。特徴点抽出手段は、画像から複数の特徴点を抽出する。特定手段は、特徴点に対応する構造物を特定する。距離計算手段は、造物ごとにあらかじめ保存された構造物の大きさに関するデータを基に、特定した構造物から移動体までの距離を計算する。姿勢特定手段は、移動体から複数の構造物までの距離および構造物のそれぞれの座標データを基に移動体の座標および姿勢を決定し、移動体の座標および姿勢の情報を出力する。 In order to solve the above problems, the measuring device of the present invention includes an image acquiring means, a feature point extracting means, a specifying means, a distance calculating means, and an attitude determining means. The image acquisition means acquires an image of the surroundings of the moving body taken by a camera included in the moving body. The feature point extraction means extracts a plurality of feature points from the image. The identifying means identifies a structure corresponding to the feature point. The distance calculation means calculates the distance from the specified structure to the moving object based on data regarding the size of the structure stored in advance for each structure. The attitude identifying means determines the coordinates and attitude of the moving body based on the distances from the moving body to the plurality of structures and the coordinate data of each of the structures, and outputs information on the coordinates and attitude of the moving body.

本発明の計測方法は、移動体が有するカメラが撮影した前記移動体の周囲の画像を取得し、画像から複数の特徴点を抽出し、特徴点に対応する構造物を特定する。本発明の距離姿勢特定方法は、構造物ごとにあらかじめ保存された構造物の大きさに関するデータを基に、特定した構造物から移動体までの距離を計算する。本発明の距離姿勢特定方法は、移動体から複数の構造物までの距離および構造物のそれぞれの座標データを基に移動体の座標および姿勢を決定し、移動体の座標および姿勢の情報を出力する。 The measurement method of the present invention acquires an image of the surroundings of the moving body taken by a camera included in the moving body, extracts a plurality of feature points from the image, and identifies structures corresponding to the feature points. The distance and orientation identification method of the present invention calculates the distance from the identified structure to the moving body based on data related to the size of the structure that is stored in advance for each structure. The distance/attitude identification method of the present invention determines the coordinates and attitude of a moving body based on the distance from the moving body to a plurality of structures and the coordinate data of each structure, and outputs information on the coordinates and attitude of the moving body. do.

本発明によると、装置を大型化することなく画像を撮影したカメラの位置および姿勢を計測することができる。 According to the present invention, the position and orientation of the camera that captured the image can be measured without increasing the size of the device.

本発明の第1の実施形態の構成の概要を示す図である。FIG. 1 is a diagram showing an outline of the configuration of a first embodiment of the present invention. 本発明の第2の実施形態の構成の概要を示す図である。It is a figure showing an outline of composition of a 2nd embodiment of the present invention. 本発明の第2の実施形態の動作を示すフローチャートである。7 is a flowchart showing the operation of the second embodiment of the present invention. 本発明の第2の実施形態における撮影部のカメラと各構造物の特徴点を模式的に示した図である。FIG. 7 is a diagram schematically showing the camera of the imaging unit and the feature points of each structure in the second embodiment of the present invention. 本発明の第2の実施形態における撮影部のカメラと撮影対象物の大きさと距離の関係を模式的に示した図である。FIG. 6 is a diagram schematically showing the relationship between the size and distance between the camera of the imaging unit and the object to be photographed in the second embodiment of the present invention. 本発明の第2の実施形態における撮影部のカメラと構造物の位置を模式的に示した図である。FIG. 7 is a diagram schematically showing the positions of a camera of a photographing section and structures in a second embodiment of the present invention. 本発明の第2の実施形態の計測装置の他の構成の例を示した図である。It is a figure showing the example of other composition of the measurement device of a 2nd embodiment of the present invention.

(第1の実施形態)
本発明の第1の実施形態について図を参照して詳細に説明する。図1は、本実施形態の計測装置の構成の概要を示した図である。本実施形態の計測装置は、画像取得部1と、特徴点抽出部2と、特定部3と、距離計算部4と、姿勢決定部5を備えている。画像取得部1は、移動体が有するカメラが撮影した移動体の周囲の画像を取得する。特徴点抽出部2は、画像から複数の特徴点を抽出する。特定部3は、抽出された特徴点に対応する構造物を特定する。ここで、特定とは、識別または推定に相当する。距離計算部4は、構造物ごとにあらかじめ保存された構造物の大きさに関するデータを基に、特定した前記構造物から移動体までの距離を計算する。姿勢決定部5は、移動体から複数の構造物までの距離および構造物のそれぞれの座標データを基に移動体の座標および姿勢を決定し、移動体の座標および姿勢の情報を出力する。
(First embodiment)
A first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing an outline of the configuration of a measuring device according to this embodiment. The measuring device of this embodiment includes an image acquisition section 1, a feature point extraction section 2, a specification section 3, a distance calculation section 4, and a posture determination section 5. The image acquisition unit 1 acquires an image of the surroundings of a moving body captured by a camera included in the moving body. The feature point extraction unit 2 extracts a plurality of feature points from the image. The identifying unit 3 identifies a structure corresponding to the extracted feature point. Here, identification corresponds to identification or estimation. The distance calculation unit 4 calculates the distance from the specified structure to the moving object based on data related to the size of the structure stored in advance for each structure. The attitude determining unit 5 determines the coordinates and attitude of the moving body based on the distances from the moving body to a plurality of structures and the coordinate data of each of the structures, and outputs information on the coordinates and attitude of the moving body.

本実施形態の計測装置は、画像取得部1において取得した画像から特徴点抽出部2において特徴点を抽出し、特定部3が特徴点に対応する構造物を特定する。また、本実施形態の計測装置は、距離計算部4において構造物から移動体までの距離を計算し、姿勢決定部5において移動体の座標と姿勢を決定する。本実施形態の計測装置は、1台のカメラにおいて取得した画像から移動体の座標と姿勢を決定できる。そのため、装置の大型化を抑制することができる。 In the measuring device of this embodiment, the feature point extraction section 2 extracts feature points from the image obtained by the image acquisition section 1, and the identification section 3 identifies structures corresponding to the feature points. In addition, in the measuring device of this embodiment, the distance calculating section 4 calculates the distance from the structure to the moving object, and the attitude determining section 5 determines the coordinates and attitude of the moving object. The measuring device of this embodiment can determine the coordinates and orientation of a moving body from an image acquired by one camera. Therefore, it is possible to suppress the increase in size of the device.

(第2の実施形態)
本発明の第2の実施形態について図を参照して詳細に説明する。図2は、本実施形態の計測システムの構成の概要を示した図である。本実施形態の計測システムは、撮影部10と、距離・姿勢計測部20を備えている。本実施形態の計測システムは、に移動体の位置および姿勢を計測し、移動体の動作を制御する制御部に移動体の位置および姿勢の情報を出力するシステムである。本実施形態の計測システムは、撮影部10のカメラが撮影した画像を基に、移動体の位置および姿勢の計測を行う。本実施形態の計測システムは、例えば、ドローン等の無人航空機、自律制御によって飛行する飛行体または自動運転車等の移動体の制御部に移動体の位置および姿勢の情報を提供するシステムとして用いることができる。
(Second embodiment)
A second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 2 is a diagram showing an overview of the configuration of the measurement system of this embodiment. The measurement system of this embodiment includes an imaging section 10 and a distance/posture measurement section 20. The measurement system of this embodiment is a system that measures the position and orientation of a moving object and outputs information on the position and orientation of the moving object to a control unit that controls the operation of the moving object. The measurement system of this embodiment measures the position and orientation of a moving object based on images taken by the camera of the imaging unit 10. The measurement system of this embodiment can be used, for example, as a system that provides information on the position and attitude of a moving object to a control unit of a moving object such as an unmanned aircraft such as a drone, a flying object that flies under autonomous control, or a self-driving car. Can be done.

撮影部10は、移動体の位置と姿勢を計測する際に用いる移動体の周辺環境の画像を撮影する機能を有する。本実施形態の撮影部10は、可視光カメラを用いて構成されている。撮影部10は、赤外線カメラを備えていてもよい。撮影部10は、撮影した画像のデータを距離・姿勢計測部20に送る。また、撮影部10と距離・姿勢計測部20は、一体の装置として形成されていてもよく、また、別に形成された撮影部10と距離・姿勢計測部20の間で通信ケーブルを介した通信や無線通信により通信を行う構成であってもよい。 The photographing unit 10 has a function of photographing an image of the surrounding environment of the mobile body, which is used when measuring the position and orientation of the mobile body. The photographing unit 10 of this embodiment is configured using a visible light camera. The photographing unit 10 may include an infrared camera. The photographing section 10 sends data of the photographed image to the distance/posture measuring section 20. Further, the photographing section 10 and the distance/attitude measuring section 20 may be formed as an integrated device, or the photographing section 10 and the distance/attitude measuring section 20, which are formed separately, may communicate via a communication cable. Alternatively, the configuration may be such that communication is performed by wireless communication.

距離・姿勢計測部20の構成について説明する。距離・姿勢計測部20は、画像取得部21と、特徴点抽出部22と、特定部23と、距離計算部24と、姿勢決定部25と、特徴点登録部26を備えている。 The configuration of the distance/posture measuring section 20 will be explained. The distance/posture measurement section 20 includes an image acquisition section 21 , a feature point extraction section 22 , a specification section 23 , a distance calculation section 24 , a posture determination section 25 , and a feature point registration section 26 .

画像取得部21は、撮影部10から画像データを取得するインタフェースとしての機能を有する。画像取得部21は、撮影部10から取得した画像データを距離・姿勢計測部20内部で用いるデータ形式に変換して特徴点抽出部22に出力する。 The image acquisition unit 21 has a function as an interface for acquiring image data from the imaging unit 10. The image acquisition section 21 converts the image data acquired from the photographing section 10 into a data format used within the distance/posture measurement section 20 and outputs it to the feature point extraction section 22 .

特徴点抽出部22は、撮影部10のカメラが撮影した移動体の周辺の画像から特徴点を抽出する機能を有する。特徴点抽出部22は、移動体の周辺の画像から特徴点として画像中の輝度変化が大きい点を抽出し、抽出した点と周囲との輝度勾配および輝度変化の向きを計算する。輝度変化が大きい点とは、例えば、所定のピクセル数あたりの輝度変化が周辺領域の輝度変化よりもあらかじめ設定された値以上、大きい点のことをいう。特徴点抽出部22は、例えば、輝度変化が大きい点である構造物の各辺の端点などを特徴点として抽出する。また、特徴点抽出部22は、SIFT(Scale Invariant Feature Transform)を用いて特徴点を検出し、特徴点ベクトルを特徴点の情報として出力してもよい。特徴点抽出部22は、抽出した特徴点の情報を特定部23に出力する。 The feature point extraction unit 22 has a function of extracting feature points from an image of the surroundings of the moving body photographed by the camera of the photographing unit 10. The feature point extraction unit 22 extracts points with large brightness changes in the image as feature points from images around the moving body, and calculates the brightness gradient and direction of brightness change between the extracted points and the surroundings. The point where the brightness change is large refers to a point where, for example, the brightness change per predetermined number of pixels is larger than the brightness change in the surrounding area by a preset value or more. The feature point extraction unit 22 extracts, for example, end points of each side of the structure, which are points with large brightness changes, as feature points. The feature point extraction unit 22 may also detect feature points using SIFT (Scale Invariant Feature Transform) and output feature point vectors as feature point information. The feature point extraction unit 22 outputs information on the extracted feature points to the identification unit 23.

特定部23は、特徴点登録部26のデータベースを参照して、特徴点抽出部22が抽出した特徴点が対応する構造物を特定する。特定部23は、特徴点抽出部22が抽出した特徴点と一致する構造物を特定する。特定部23は、データベース上の構造物の拡大と縮小を行った際に、構造物上の特徴点の相互の位置関係が画像から抽出された特徴点の相互の位置関係と一致する構造物を抽出し、画像中の特徴点が対応する構造物として特定する。特定部23は、特徴点が対応するとして構造物として特定した構造物の座標データを距離計算部24に出力する。 The identifying unit 23 refers to the database of the feature point registering unit 26 and identifies the structure to which the feature point extracted by the feature point extracting unit 22 corresponds. The identifying unit 23 identifies structures that match the feature points extracted by the feature point extracting unit 22. When enlarging and reducing structures on the database, the identifying unit 23 identifies structures whose mutual positional relationship of feature points on the structure matches the mutual positional relationship of feature points extracted from the image. The feature points in the image are identified as corresponding structures. The identifying unit 23 outputs coordinate data of a structure identified as a structure with which the feature points correspond to the distance calculating unit 24 .

距離計算部24は、構造物の座標データを基に、画像中の構造物と撮影部10の距離を計算する。構造物や移動体の位置を示す座標は、あらかじめ設定された基準点を原点として3次元の座標系として設定されている。距離計算部24における構造物と撮影部10の距離の計算方法については後で説明する。距離計算部24は、計算した構造物と撮影部10の距離の情報と、構造物の座標データを姿勢決定部25に出力する。 The distance calculation unit 24 calculates the distance between the structure in the image and the imaging unit 10 based on the coordinate data of the structure. Coordinates indicating the positions of structures and moving objects are set as a three-dimensional coordinate system with a preset reference point as the origin. The method of calculating the distance between the structure and the photographing section 10 in the distance calculation section 24 will be explained later. The distance calculation unit 24 outputs information on the calculated distance between the structure and the imaging unit 10 and the coordinate data of the structure to the attitude determination unit 25.

姿勢決定部25は、計算した構造物と撮影部10との距離の情報と、構造物の座標データを基に、撮影部10の姿勢を決定する。姿勢決定部25は、撮影部10を基準とした場合に2個の構造物のなす角度を計算する。すなわち、姿勢決定部25は、撮影部10から2個の構造物それぞれに直線を引いた場合の、2本の直線のなす角度を計算する。姿勢決定部25は、例えば、3個の構造物のうち2個の構造物のなす角度を、構造物の組み合わせを変えてそれぞれ計算し、撮影部10の姿勢を決定する。姿勢決定部25における構造物のなす角度の計算方法については後で説明する。画像取得部21、特徴点抽出部22、特定部23、距離計算部24および姿勢決定部25は、例えば、単数または複数のFPGA(Field Programmable Gate array)等の半導体装置を用いて構成されている。画像取得部21、特徴点抽出部22、特定部23、距離計算部24および姿勢決定部25の各部位における処理は、CPU(Central Processing Unit)がコンピュータプログラムを実行することで行われてもよい。 The posture determining section 25 determines the posture of the photographing section 10 based on information on the calculated distance between the structure and the photographing section 10 and the coordinate data of the structure. The posture determination unit 25 calculates the angle formed by the two structures when the imaging unit 10 is used as a reference. That is, the posture determining unit 25 calculates the angle formed by the two straight lines when straight lines are drawn from the imaging unit 10 to each of the two structures. For example, the attitude determination unit 25 determines the attitude of the imaging unit 10 by calculating the angles formed by two of the three structures by changing the combination of structures. The method of calculating the angle formed by the structure in the attitude determination unit 25 will be explained later. The image acquisition section 21, the feature point extraction section 22, the identification section 23, the distance calculation section 24, and the attitude determination section 25 are configured using, for example, a semiconductor device such as one or more FPGAs (Field Programmable Gate arrays). . The processing in each part of the image acquisition section 21, feature point extraction section 22, identification section 23, distance calculation section 24, and posture determination section 25 may be performed by a CPU (Central Processing Unit) executing a computer program. .

特徴点登録部26は、周囲の環境の構造物上の点が特徴点として登録されたデータベースを有している。特徴点登録部26に保存されているデータベースでは、移動体が動作すると想定される範囲内における周辺の構造物の座標、構造物上の特徴点の情報および特徴点の座標が互いに関連づけて保存されている。特徴点として登録の対象となる構造物には、形状や大きさが規格として定められている構造物や、既知である構造物が選定されている。特徴点の情報は、あらかじめ取得された周囲の画像から、その画像中の構造物の輝度変化が計算され特徴点付近の輝度勾配や輝度変化の向きが特徴点の情報として、特徴点の座標と関連づけられて保存されている。特徴点登録部26は、不揮発性の半導体メモリやハードディスクドライブまたはそれらの組み合わせによって構成されている。また、特徴点登録部26は、移動体が存在すると推定される範囲に存在する構造物の特徴点のデータを無線通信回線等を介して管理サーバ等から取得し、取得したデータをデータベースとして保存する構成であってもよい。 The feature point registration unit 26 has a database in which points on structures in the surrounding environment are registered as feature points. In the database stored in the feature point registration unit 26, coordinates of surrounding structures, information on feature points on the structures, and coordinates of feature points within the range in which the moving object is expected to move are stored in association with each other. ing. As structures to be registered as feature points, structures whose shapes and sizes are defined as standards or structures that are known are selected. Information on a feature point is obtained by calculating the brightness change of a structure in the image from the surrounding image acquired in advance, and calculating the brightness gradient and direction of brightness change near the feature point as the feature point information and the coordinates of the feature point. are associated and saved. The feature point registration unit 26 is configured by a nonvolatile semiconductor memory, a hard disk drive, or a combination thereof. In addition, the feature point registration unit 26 obtains data on feature points of structures existing in a range where a moving object is estimated to exist from a management server etc. via a wireless communication line, etc., and stores the obtained data as a database. The configuration may be such that

本実施形態の計測システムの動作について説明する。図3は、本実施形態の計測システムにおいて撮影部10の位置および姿勢を特定する際の動作フローを示している。 The operation of the measurement system of this embodiment will be explained. FIG. 3 shows an operation flow when specifying the position and orientation of the imaging unit 10 in the measurement system of this embodiment.

始めに撮影部10のカメラによって周囲の撮影が行われる。撮影は、例えば、計測システムが備えられている移動体の制御部からの要求に応じて行われる。また、撮影は、あらかじめ設定された時間ごとに行われてもよい。 First, the surroundings are photographed by the camera of the photographing section 10. Photographing is performed, for example, in response to a request from a control unit of a moving body equipped with a measurement system. Furthermore, photographing may be performed at preset time intervals.

撮影を行うと、撮影部10は、撮影した画像のデータを距離・姿勢計測部20の画像取得部21に送る。撮影部10から画像データを取得すると、画像取得部21は、受け取った画像データを特徴点抽出部22に出力する(ステップS101)。 When photographing, the photographing section 10 sends data of the photographed image to the image acquisition section 21 of the distance/posture measuring section 20. After acquiring the image data from the imaging unit 10, the image acquisition unit 21 outputs the received image data to the feature point extraction unit 22 (step S101).

画像データを受け取ると、特徴点抽出部22は、画像から特徴点を抽出する(ステップS102)。特徴点抽出部22は、例えば、画像中の輝度変化の大きい点を特徴点として抽出する。輝度変化の大きい点を特徴点として抽出すると、特徴点抽出部22は、特徴点の輝度勾配と輝度変化の向きを計算する。特徴点の情報を抽出すると、特徴点抽出部22は、抽出した特徴点の情報を特定部23に出力する。 Upon receiving the image data, the feature point extraction unit 22 extracts feature points from the image (step S102). The feature point extraction unit 22 extracts, for example, points with large brightness changes in the image as feature points. When points with large brightness changes are extracted as feature points, the feature point extraction unit 22 calculates the brightness gradient and direction of brightness change of the feature points. After extracting the feature point information, the feature point extracting section 22 outputs the extracted feature point information to the specifying section 23 .

特徴点の情報を受け取ると、特定部23は、特徴点登録部26のデータベースを参照し、画像から抽出した特徴点が対応する構造物を特定する(ステップS103)。特定部23は、データベース上の構造物の拡大と縮小を行った際に、構造物上の特徴点の相互の位置関係が画像から抽出された特徴点の相互の位置関係と一致する構造物を画像中の特徴点が対応する構造物として特定する。特徴点に対応する構造物を特定すると、特定部23は、データベースから特定した構造物の各特徴点の座標データをデータベースから検索する。 Upon receiving the feature point information, the identifying unit 23 refers to the database of the feature point registration unit 26 and identifies the structure to which the feature point extracted from the image corresponds (step S103). When enlarging and reducing structures on the database, the identifying unit 23 identifies structures whose mutual positional relationship of feature points on the structure matches the mutual positional relationship of feature points extracted from the image. The feature points in the image are identified as corresponding structures. After specifying the structure corresponding to the feature point, the specifying unit 23 searches the database for coordinate data of each feature point of the structure specified from the database.

各特徴点の座標データを検索すると、特定部は、各構造物の特徴点の座標データ(座標の情報ともいう)を距離計算部24に出力する。 After searching for the coordinate data of each feature point, the identification unit outputs the coordinate data (also referred to as coordinate information) of the feature point of each structure to the distance calculation unit 24 .

各構造部の特徴点の座標データを受け取ると、距離計算部24は、各構造物から撮影部10までの距離を計算する(ステップS104)。距離計算部24における各構造物から撮影部10までの距離の計算方法について、図4および図5を参照して説明する。図4は、撮影部10のカメラと撮影対象となる周囲の環境中の各構造物の特徴点を模式的に示した図である。また、図5は、撮影部10のカメラのイメージセンサの大きさ、撮影対象物である構造部の大きさおよびカメラと撮影対象物の距離の関係を模式的に示した図である。 Upon receiving the coordinate data of the feature points of each structure, the distance calculation unit 24 calculates the distance from each structure to the imaging unit 10 (step S104). A method of calculating the distance from each structure to the photographing section 10 in the distance calculation section 24 will be explained with reference to FIGS. 4 and 5. FIG. 4 is a diagram schematically showing the camera of the imaging unit 10 and the feature points of each structure in the surrounding environment to be photographed. Further, FIG. 5 is a diagram schematically showing the relationship between the size of the image sensor of the camera of the photographing unit 10, the size of the structural part that is the object to be photographed, and the distance between the camera and the object to be photographed.

構造物のサイズをL、画素ピッチ×構造物の画素数すなわちイメージセンサ上の大きさをL、撮影部10のレンズから構造物までの距離をx、焦点距離すなわちレンズからイメージセンサまでの既知の焦点距離をFとすると、焦点距離Fは、下記の式(1)のように表される。
F=xL/L ・・・(式1)
ここでサイズLは、既知であり、例えば、実際の構造物の最も上の位置と最も下の位置との距離が用いられる。また、イメージセンサ上の大きさLは、イメージセンサ上の構造物の像の最も上の特徴点と最も下の特徴点との間の長さから算出される。
The size of the structure is L1 , the pixel pitch x the number of pixels of the structure, that is, the size on the image sensor, is L2 , the distance from the lens of the imaging unit 10 to the structure is x, and the focal length, that is, the distance from the lens to the image sensor. Assuming that the known focal length is F, the focal length F is expressed as in the following equation (1).
F=xL 2 /L 1 ... (Formula 1)
Here, the size L1 is known, and for example, the distance between the uppermost position and the lowermost position of the actual structure is used. Further, the size L2 on the image sensor is calculated from the length between the uppermost feature point and the lowermost feature point of the image of the structure on the image sensor.

また、上記の式1を変形すると、下記の式2のようになる。
x=FL1/L2 ・・・(式2)
上記の式2を用いて、レンズから対象物までの距離xを計算することができる。撮影部10のレンズから構造物までの距離xは、各構造物についてそれぞれ計算される。
Further, when the above equation 1 is transformed, the following equation 2 is obtained.
x=FL 1 /L 2 (Formula 2)
Using Equation 2 above, the distance x from the lens to the object can be calculated. The distance x from the lens of the imaging unit 10 to the structure is calculated for each structure.

各構造物から撮影部10までの距離を計算すると、距離計算部24は、各構造物からの距離と各構造物の座標の情報を姿勢決定部25に出力する。 After calculating the distance from each structure to the imaging unit 10, the distance calculation unit 24 outputs information on the distance from each structure and the coordinates of each structure to the attitude determination unit 25.

各構造物からの距離と座標の情報を受け取ると、姿勢決定部25は、複数の構造物との間の距離から撮影部10の位置と姿勢を特定する(ステップS105)。姿勢決定部25は、始めに、撮影部10の位置を計算する。姿勢決定部25における撮影部10のカメラの位置およじ姿勢の計算方法について、図6を参照して説明する。図6は撮影部10のカメラと構造物の位置を模式的に示した図である。以下では、図6に示すように3個の構造物A、構造物Bおよび構造物Cとの距離の情報を基に、撮影部10の姿勢を特定する方法を例に説明する。 Upon receiving the information on the distance and coordinates from each structure, the posture determining section 25 specifies the position and posture of the photographing section 10 from the distances to the plurality of structures (step S105). The posture determining section 25 first calculates the position of the photographing section 10. A method for calculating the position and orientation of the camera of the photographing unit 10 in the orientation determination unit 25 will be described with reference to FIG. FIG. 6 is a diagram schematically showing the positions of the camera of the photographing unit 10 and the structures. Below, as shown in FIG. 6, a method for specifying the posture of the imaging unit 10 based on information on the distances to three structures A, B, and C will be described as an example.

構造物Aの座標が(x,y,z)、構造物Cの座標が(x,y,z)、構造物Cの座標が(x,y,z)であるとする。各構造物の座標には、構造物上の代表的な点があらかじめ設定されている。構造物の代表的な点の座標には、例えば、構造物上の特徴点から計算される重心位置の座標が用いられる。また、撮影部10の座標(カメラのレンズの焦点位置の座標)が(x,y,z)であるとする。このとき、撮影部10のカメラと構造物Aの距離がr、撮影部10のカメラと構造物Bの距離がr、撮影部10のカメラと構造物Cの距離がrとすると、撮影部10のカメラと構造物の距離は、以下のように表すことができる。
(x-x+(y-y+(z-zi=r ・・・(式3)
(x-x+(y-y+(z-z=r ・・・(式4)
(x-x+(y-y+(z-z=r ・・・(式5)
式4および式5から式3を引いて整理すると以下のようになる。
(x-x)x+(y-y)y+(zi-z)z=D ・・・(式6)
(x-x)x+(y-y)y+(zi-z)z=E ・・・(式7)
上記の式6のD、式7のEは、それぞれ
D=((r -x -y -zi )-(r -x -y -z ))/2
E=((r -x -y -zi )-(r -x -y -z ))/2
としている。
The coordinates of structure A are (x i , y i , z i ), the coordinates of structure C are (x j , y j , z j ), and the coordinates of structure C are (x k , y k , z k ). Suppose that The coordinates of each structure are set in advance at representative points on the structure. For example, the coordinates of the center of gravity calculated from feature points on the structure are used as the coordinates of the representative points of the structure. Further, it is assumed that the coordinates of the photographing unit 10 (the coordinates of the focal position of the camera lens) are (x, y, z). At this time, if the distance between the camera of the imaging unit 10 and structure A is r 1 , the distance between the camera of the imaging unit 10 and structure B is r 2 , and the distance between the camera of the imaging unit 10 and structure C is r 3 , then The distance between the camera of the imaging unit 10 and the structure can be expressed as follows.
(x−x i ) 2 + (y−y i ) 2 + (z−z i ) 2 = r 1 2 (Formula 3)
(x−x j ) 2 + (y−y j ) 2 + (zz−z j ) 2 = r 2 2 (Formula 4)
(x−x k ) 2 + (y−y k ) 2 + (zz−z k ) 2 = r 3 2 (Formula 5)
When formula 3 is subtracted from formulas 4 and 5 and rearranged, the following is obtained.
(x i −x j )x+(y i −y j )y+(z i −z j )z=D (Formula 6)
(x i −x k )x+(y i −y k )y+(z i −z k )z=E (Formula 7)
D in Equation 6 and E in Equation 7 above are respectively D=((r 1 2 −x i 2 −y i 2 −z i 2 )−(r 2 2 −x j 2 −y j 2 −z j 2 ))/2
E=((r 1 2 −x i 2 −y i 2 −z i 2 )−(r 3 2 −x k 2 −y k 2 −z k 2 ))/2
It is said that

ここで、xij=x-x、yij=y-y、zij=zi-z、xik=x-x、yik=y-y、zik=zi-zとすると、式6と式7は、それぞれ以下のように表すことができる。
ijx+yijy+zijz=D ・・・(式8)
ikx+yiky+zikz=E ・・・(式9)
式8と式9を変形すると、
x=((Dyik-Eyij)+(yijik-yikij)z)/(xijik-xikij
y=((Exij-Dxik)+(xikij-xijik)z)/(xijik-xikij
となる。
Here, x ij = x i - x j , y ij = y i - y j , z ij = z i - z j , x ik = x i - x k , y ik = y i - y k , z ik =z i −z k , then equations 6 and 7 can be expressed as follows, respectively.
x ij x+y ij y+z ij z=D (Formula 8)
x ik x+y ik y+z ik z=E...(Formula 9)
Transforming equations 8 and 9, we get
x=((Dy ik -Ey ij )+(y ij z ik -y ik z ij )z)/(x ij y ik -x ik y ij )
y=((Ex ij -Dx ik )+(x ik z ij -x ij z ik )z)/(x ij y ik -x ik y ij )
becomes.

上記の式をさらに整理すると下記のように表される。
x=A+Az ・・・(式10)
y=B+Bz ・・・(式11)
式10および式11では、A=(Dyik-Eyij)/(xijik-xikij)、A=(yijik-yikij)/(xijik-xikij)、B=(Exij-Dxik)/(xijik-xikij)、B=(xikij-xijik)/(xijik-xikij)としている。
The above formula can be further organized as follows.
x=A 0 +A 1 z...(Formula 10)
y=B 0 +B 1 z...(Formula 11)
In equations 10 and 11, A 0 = (Dy ik - Ey ij )/(x ij y ik - x ik y ij ), A 1 = (y ij z ik - y ik z ij )/(x ij y ik -x ik y ij ), B 0 = (Ex ij -Dx ik )/(x ij y ik -x ik y ij ), B 1 = (x ik z ij -x ij z ik )/(x ij y ik -x ik y ij ).

ここで、式10および式11を式3に代入すると、zに関する二次方程式ができる。
Fz+2Gz+H=0 ・・・(式12)
式12では、F=A +B +1、G=A(A-x)+B(B-y)-z、H=(A-x+(B-y-z -r としている。
Here, by substituting Equation 10 and Equation 11 into Equation 3, a quadratic equation regarding z is obtained.
Fz 2 +2Gz+H=0...(Formula 12)
In equation 12, F=A 1 2 +B 1 2 +1, G=A 1 (A 0 −x i )+B 1 (B 0 −y i )−z i , H=(A 0 −x i ) 2 +( B 0 −y i ) 2 −z i 2 −r 1 2 .

式12を解くと以下のようになる。
z=(-G±(G-FH)0.5)/F
上記のzを式10と式11にそれぞれ代入すると、撮影部10の位置の座標のうちのx、yが計算される。
Solving equation 12 results in the following.
z=(-G±(G 2 -FH) 0.5 )/F
By substituting the above z into Equations 10 and 11, x and y of the coordinates of the position of the imaging unit 10 are calculated.

撮影部10の座標を計算すると、姿勢決定部25は、撮影部10を基準とした際の2個の構造物間の角度を計算する。姿勢決定部25は、複数の構造物のうち2つの構造物の組み合わせごとに、2個の構造物間の角度を計算する。 After calculating the coordinates of the imaging unit 10, the attitude determination unit 25 calculates the angle between the two structures with respect to the imaging unit 10. The posture determining unit 25 calculates the angle between two structures for each combination of two structures among the plurality of structures.

姿勢決定部25は、角度θij、角度θik、角度θkjを下記のように計算する。
cosθij=(r +r -dij )/2r
cosθik=(r +r -dik )/2r
cosθkj=(r +r -dkj )/2r
実際の構造物間の距離を示すdij、dikおよびdkjは、それぞれデータベースに登録されている値または実際の構造物上の計測された2点の座標から計算された値が使われる。
The posture determination unit 25 calculates the angle θ ij , the angle θ ik , and the angle θ kj as follows.
cosθ ij = (r 1 2 + r 2 2 - d ij 2 )/2r 1 r 2
cosθ ik = (r 1 2 + r 3 2 - d ik 2 )/2r 1 r 3
cosθ kj = (r 2 2 + r 3 2 - d kj 2 )/2r 2 r 3
For d ij , d ik , and d kj indicating the actual distances between the structures, values registered in a database or values calculated from the coordinates of two measured points on the actual structures are used, respectively.

構造物間の角度を計算すると、姿勢決定部25は、撮影部10を基準とした場合の各構造物間の角度に対応する撮影部10の姿勢の情報をデータベースから検索する。撮影部10を基準とした場合の各構造物間の角度と撮影部10の姿勢の関係を示す情報は、データベースに保存されている。 After calculating the angle between the structures, the attitude determining unit 25 searches the database for information on the attitude of the imaging unit 10 corresponding to the angle between each structure with the imaging unit 10 as a reference. Information indicating the relationship between the angle between each structure and the posture of the imaging unit 10 with respect to the imaging unit 10 is stored in a database.

撮影部10の姿勢を決定すると、姿勢決定部25は、計測システムが備えられている移動体の制御部に撮影部10の座標と姿勢の情報を出力する。計測システムが備えられている移動体の制御部は、撮影部10の座標と姿勢の情報を基に、移動体の位置および姿勢を算出して、移動体の動作を制御する。移動体の制御部は、撮影部10の移動体への取り付け角度の情報をあらかじめ保持している。距離・姿勢計測部20は、あらかじめ設定された補正値を基に、撮影部10を基準とした場合の各構造物間の角度と撮影部10の座標を、移動体の位置および姿勢の情報に換算して移動体の制御部に出力してもよい、
本実施形態の計測システムは、撮影部10において撮影された画像から、距離・姿勢計測部20において特徴点を抽出し、抽出した特徴点から対応する構造物を特定している。また、本実施形態の計測システムは、距離・姿勢計測部20において撮影部10と構造物との距離を計算し、複数の構造物との距離の情報を基に、撮影部10の位置と姿勢を計算している。そのため、本実施形態の計測システムは、1台のカメラのみで撮影部10の位置と姿勢、すなわち、撮影部10が備えられている移動体の位置と姿勢を決定することができる。その結果、本実施形態の計測システムは、装置の大型化を抑制しつつ移動体の位置と姿勢を計測することができる。
After determining the orientation of the imaging unit 10, the orientation determining unit 25 outputs information on the coordinates and orientation of the imaging unit 10 to the control unit of the moving body equipped with the measurement system. A control unit of the mobile body equipped with the measurement system calculates the position and orientation of the mobile body based on the coordinates and orientation information of the imaging unit 10, and controls the operation of the mobile body. The control unit of the moving body holds in advance information about the attachment angle of the imaging unit 10 to the moving body. The distance/attitude measurement unit 20 converts the angle between each structure and the coordinates of the imaging unit 10 with respect to the imaging unit 10 into information on the position and orientation of the moving object, based on preset correction values. It may be converted and output to the control unit of the moving object.
In the measurement system of this embodiment, the distance/orientation measuring section 20 extracts feature points from an image photographed by the photographing section 10, and identifies a corresponding structure from the extracted feature points. Further, in the measurement system of the present embodiment, the distance/attitude measurement unit 20 calculates the distance between the imaging unit 10 and the structure, and based on the information on the distances to the plurality of structures, the position and orientation of the imaging unit 10 are calculated. is being calculated. Therefore, the measurement system of this embodiment can determine the position and orientation of the imaging unit 10, that is, the position and orientation of the moving body equipped with the imaging unit 10, using only one camera. As a result, the measurement system of this embodiment can measure the position and orientation of the moving object while suppressing the increase in size of the device.

第1の実施形態の計測装置および第2の実施形態の距離・姿勢計測部20における各処理は、コンピュータプログラムをコンピュータで実行することによって行われてもよい。図7は、距離・姿勢計測部20における各処理を行うコンピュータプログラムを実行するコンピュータ30の構成の例を示したものである。コンピュータ30は、CPU31と、メモリ32と、記憶装置33と、I/F(Interface)部34を備えている。また、第1の実施形態の計測装置も同様の構成を備えている。 Each process in the measuring device of the first embodiment and the distance/posture measuring unit 20 of the second embodiment may be performed by executing a computer program on a computer. FIG. 7 shows an example of the configuration of a computer 30 that executes a computer program that performs each process in the distance/orientation measuring section 20. The computer 30 includes a CPU 31, a memory 32, a storage device 33, and an I/F (Interface) section 34. Further, the measuring device of the first embodiment also has a similar configuration.

CPU31は、記憶装置33から各処理を行うコンピュータプログラムを読み出して実行する。メモリ32は、DRAM(Dynamic Random Access Memory)等によって構成され、CPU31が実行するコンピュータプログラムや処理中のデータが一時保存される。記憶装置33は、CPU31が実行するコンピュータプログラム、周囲環境における構造物部の特徴点のデータベースを保存している。記憶装置33は、例えば、不揮発性の半導体記憶装置によって構成されている。記憶装置33には、ハードディスクドライブ等の他の記憶装置が用いられてもよい。I/F部34は、撮影部10や計測システムが備えられている移動体の制御部等との間でデータの入出力を行うインタフェースである。コンピュータ30は、通信ネットワークを介して他の情報処理装置と通信を行う通信モジュールをさらに備えていてもよい。 The CPU 31 reads computer programs for performing each process from the storage device 33 and executes them. The memory 32 is configured with a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores computer programs executed by the CPU 31 and data being processed. The storage device 33 stores a computer program executed by the CPU 31 and a database of feature points of structural parts in the surrounding environment. The storage device 33 is configured by, for example, a nonvolatile semiconductor storage device. Other storage devices such as a hard disk drive may be used as the storage device 33. The I/F unit 34 is an interface that inputs and outputs data with the imaging unit 10, a control unit of a moving body equipped with a measurement system, and the like. The computer 30 may further include a communication module that communicates with other information processing devices via a communication network.

また、各処理に行うコンピュータプログラムは、記録媒体に格納して頒布することもできる。記録媒体としては、例えば、データ記録用磁気テープや、ハードディスクなどの磁気ディスクを用いることができる。また、記録媒体としては、CD-ROM(Compact Disc Read Only Memory)等の光ディスクを用いることもできる。不揮発性の半導体メモリを記録媒体として用いてもよい。 Further, the computer program for each process can be stored in a recording medium and distributed. As the recording medium, for example, a magnetic tape for data recording or a magnetic disk such as a hard disk can be used. Further, as the recording medium, an optical disc such as a CD-ROM (Compact Disc Read Only Memory) can also be used. A nonvolatile semiconductor memory may be used as the recording medium.

1 画像取得部
2 特徴点抽出部
3 特定部
4 距離計算部
5 姿勢決定部
10 撮影部
20 距離・姿勢計測部
21 画像取得部
22 特徴点抽出部
23 特定部
24 距離計算部
25 姿勢決定部
26 特徴点登録部
30 コンピュータ
31 CPU
32 メモリ
33 記憶装置
34 I/F部
1 Image acquisition section 2 Feature point extraction section 3 Specification section 4 Distance calculation section 5 Posture determination section 10 Photography section 20 Distance/posture measurement section 21 Image acquisition section 22 Feature point extraction section 23 Specification section 24 Distance calculation section 25 Posture determination section 26 Feature point registration unit 30 Computer 31 CPU
32 Memory 33 Storage device 34 I/F section

Claims (10)

移動体が有するカメラが撮影した前記移動体の周囲の画像を取得する画像取得手段と、
前記画像から複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点に対応する構造物を特定する特定手段と、
前記構造物ごとにあらかじめ保存された前記構造物の大きさに関するデータを基に、特定した前記構造物から前記移動体までの距離を計算する距離計算手段と、
前記移動体から複数の前記構造物までの距離および前記構造物のそれぞれの座標データを基に、前記移動体と前記構造物それぞれの間の直線がなす角度を計算し、計算結果に基づいて、前記移動体の座標および姿勢を決定し、前記移動体の座標および姿勢の情報を出力する姿勢決定手段と
を備えることを特徴とする計測装置。
image acquisition means for acquiring an image of the surroundings of the mobile body taken by a camera included in the mobile body;
Feature point extraction means for extracting a plurality of feature points from the image;
identification means for identifying a structure corresponding to the feature point;
distance calculation means for calculating the distance from the specified structure to the moving body based on data regarding the size of the structure that is stored in advance for each structure;
Based on the distance from the moving body to the plurality of structures and the coordinate data of each of the structures , calculate the angle formed by the straight line between the moving body and each of the structures, and based on the calculation result, A measuring device comprising: attitude determining means for determining the coordinates and attitude of the moving body and outputting information on the coordinates and attitude of the moving body.
前記移動体の周囲の構造物と、前記構造物上の特徴点の情報をデータベースとして登録している特徴点登録手段をさらに備え、
前記特定手段は、前記データベースを参照して前記構造物を特定することを特徴とする請求項1に記載の計測装置。
Further comprising feature point registration means for registering information on structures around the moving object and feature points on the structures as a database,
The measuring device according to claim 1, wherein the specifying means specifies the structure by referring to the database.
前記距離計算手段は、特定した前記構造物の画像中における大きさと、前記データベースに登録された前記構造物の大きさに関するデータを基に、前記構造物から前記移動体までの距離を計算することを特徴とする請求項2に記載の計測装置。 The distance calculation means calculates a distance from the structure to the moving body based on the size of the specified structure in the image and data regarding the size of the structure registered in the database. The measuring device according to claim 2, characterized by: 前記特定手段は、少なくとも3個の前記構造物を特定することを特徴とする請求項1から3いずれかに記載の計測装置。 4. The measuring device according to claim 1, wherein the specifying means specifies at least three of the structures. 前記特徴点抽出手段は、前記画像の輝度変化を基に前記特徴点を抽出することを特徴とする請求項1から4いずれかに記載の計測装置。 5. The measuring device according to claim 1, wherein the feature point extraction means extracts the feature points based on a change in brightness of the image. 周囲を撮影し、撮影した画像のデータを出力するカメラと、
請求項1から5いずれかに記載の計測装置と
を備え、
前記計測装置の前記画像取得手段は、前記カメラから前記画像を取得することを特徴とする計測システム。
A camera that photographs the surroundings and outputs the data of the photographed image,
The measuring device according to any one of claims 1 to 5,
A measurement system, wherein the image acquisition means of the measurement device acquires the image from the camera.
移動体が有するカメラが撮影した前記移動体の周囲の画像を取得し、
前記画像から複数の特徴点を抽出し、
前記特徴点に対応する構造物を特定し、
前記構造物ごとにあらかじめ保存された前記構造物の大きさに関するデータを基に、特定した前記構造物から前記移動体までの距離を計算し、
前記移動体から複数の前記構造物までの距離および前記構造物のそれぞれの座標データを基に、前記移動体と前記構造物それぞれの間の直線がなす角度を計算し、
計算結果に基づいて、前記移動体の座標および姿勢を決定し、
前記移動体の座標および姿勢の情報を出力することを特徴とする計測方法。
Obtaining an image of the surroundings of the moving body taken by a camera possessed by the moving body,
extracting a plurality of feature points from the image,
identifying a structure corresponding to the feature point;
Calculating the distance from the specified structure to the moving object based on data regarding the size of the structure stored in advance for each structure,
Calculating the angle formed by a straight line between the moving body and each of the structures based on the distance from the moving body to the plurality of structures and the coordinate data of each of the structures,
determining the coordinates and orientation of the moving body based on the calculation results ;
A measurement method characterized by outputting information on the coordinates and orientation of the moving body.
前記移動体の周囲の構造物と、前記構造物上の特徴点の情報をデータベースとして保持し、
前記データベースを参照して前記構造物を特定することを特徴とする請求項7に記載の計測方法。
retaining information on structures around the moving object and feature points on the structures as a database;
8. The measuring method according to claim 7, wherein the structure is identified by referring to the database.
少なくとも3個の前記構造物を特定することを特徴とする請求項7または8に記載の計測方法。 The measuring method according to claim 7 or 8, characterized in that at least three of the structures are specified . 移動体が有するカメラが撮影した前記移動体の周囲の画像を取得する処理と、
前記画像から複数の特徴点を抽出する処理と、
前記特徴点に対応する構造物を特定する処理と、
前記構造物ごとにあらかじめ保存された前記構造物の大きさに関するデータを基に、特定した前記構造物から前記移動体までの距離を計算する処理と、
前記移動体から複数の前記構造物までの距離および前記構造物のそれぞれの座標データを基に、前記移動体と前記構造物それぞれの間の直線がなす角度を計算し、計算結果に基づいて、前記移動体の座標および姿勢を決定し、前記移動体の座標および姿勢の情報を出力する処理と
をコンピュータに実行させることを特徴とするプログラム。
A process of acquiring an image of the surroundings of the moving body taken by a camera included in the moving body;
a process of extracting a plurality of feature points from the image;
a process of identifying a structure corresponding to the feature point;
a process of calculating a distance from the identified structure to the moving body based on data regarding the size of the structure that is stored in advance for each structure;
Based on the distance from the moving body to the plurality of structures and the coordinate data of each of the structures , calculate the angle formed by the straight line between the moving body and each of the structures, and based on the calculation result, A program that causes a computer to execute the following steps: determining the coordinates and orientation of the moving body, and outputting information on the coordinates and orientation of the moving body.
JP2019162982A 2019-09-06 2019-09-06 Measuring device, measuring system, measuring method and program Active JP7363225B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019162982A JP7363225B2 (en) 2019-09-06 2019-09-06 Measuring device, measuring system, measuring method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019162982A JP7363225B2 (en) 2019-09-06 2019-09-06 Measuring device, measuring system, measuring method and program

Publications (2)

Publication Number Publication Date
JP2021042978A JP2021042978A (en) 2021-03-18
JP7363225B2 true JP7363225B2 (en) 2023-10-18

Family

ID=74863200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019162982A Active JP7363225B2 (en) 2019-09-06 2019-09-06 Measuring device, measuring system, measuring method and program

Country Status (1)

Country Link
JP (1) JP7363225B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275013A (en) 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk Method for deciding view point position attitude, computer and storage medium
JP2000337887A (en) 1999-05-25 2000-12-08 Mitsubishi Electric Corp Self position-locating system of movable body
US20020052709A1 (en) 2000-09-19 2002-05-02 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
JP2005315746A (en) 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd Own position identifying method, and device therefor
JP2009031206A (en) 2007-07-30 2009-02-12 Nakagawa Kenkyusho:Kk Position measuring device
JP2011123008A (en) 2009-12-14 2011-06-23 Nexco-East Engineering Co Ltd Measuring method, measuring program, and measuring device
JP2018185239A (en) 2017-04-26 2018-11-22 株式会社豊田中央研究所 Position attitude estimation device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275013A (en) 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk Method for deciding view point position attitude, computer and storage medium
JP2000337887A (en) 1999-05-25 2000-12-08 Mitsubishi Electric Corp Self position-locating system of movable body
US20020052709A1 (en) 2000-09-19 2002-05-02 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
JP2005315746A (en) 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd Own position identifying method, and device therefor
JP2009031206A (en) 2007-07-30 2009-02-12 Nakagawa Kenkyusho:Kk Position measuring device
JP2011123008A (en) 2009-12-14 2011-06-23 Nexco-East Engineering Co Ltd Measuring method, measuring program, and measuring device
JP2018185239A (en) 2017-04-26 2018-11-22 株式会社豊田中央研究所 Position attitude estimation device and program

Also Published As

Publication number Publication date
JP2021042978A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
US20210012520A1 (en) Distance measuring method and device
US11151741B2 (en) System and method for obstacle avoidance
US9922422B2 (en) Mobile imaging platform calibration
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
US10909395B2 (en) Object detection apparatus
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
JP2008506953A5 (en)
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
WO2019126930A1 (en) Method and apparatus for measuring distance, and unmanned aerial vehicle
TW201904643A (en) Control device, flight vehicle and recording medium
JP7424390B2 (en) Image processing device, image processing method, and image processing program
WO2020024182A1 (en) Parameter processing method and apparatus, camera device and aircraft
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP7363225B2 (en) Measuring device, measuring system, measuring method and program
WO2022037370A1 (en) Motion estimation method and apparatus
KR102310958B1 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
JP7092741B2 (en) Self-position estimation method
JP6861592B2 (en) Data thinning device, surveying device, surveying system and data thinning method
JP7117408B1 (en) POSITION CALCULATION DEVICE, PROGRAM AND POSITION CALCULATION METHOD
KR102439142B1 (en) Method and apparatus for acquiring image of object
WO2022201891A1 (en) Information processing device and information processing method
WO2022033139A1 (en) Ego-motion estimation method and related apparatus
WO2021128314A1 (en) Image processing method and device, image processing system and storage medium
JP2024005342A (en) Information processing device, information processing method, and computer program
KR20210067383A (en) Pose estimation system and its method for localization of mobile robot

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R151 Written notification of patent or utility model registration

Ref document number: 7363225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151