JP2016136112A - Distance measurement device and distance measurement method - Google Patents

Distance measurement device and distance measurement method Download PDF

Info

Publication number
JP2016136112A
JP2016136112A JP2015011446A JP2015011446A JP2016136112A JP 2016136112 A JP2016136112 A JP 2016136112A JP 2015011446 A JP2015011446 A JP 2015011446A JP 2015011446 A JP2015011446 A JP 2015011446A JP 2016136112 A JP2016136112 A JP 2016136112A
Authority
JP
Japan
Prior art keywords
subject
dimensional position
point
reliability
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015011446A
Other languages
Japanese (ja)
Other versions
JP6694234B2 (en
JP2016136112A5 (en
Inventor
幹生 瀬戸
Mikio Seto
幹生 瀬戸
徳井 圭
Kei Tokui
圭 徳井
潤一郎 三島
Junichiro Mishima
潤一郎 三島
芳光 杉浦
Yoshimitsu Sugiura
芳光 杉浦
剛 一木
Takeshi Ichiki
剛 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
East Japan Railway Co
Original Assignee
Sharp Corp
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp, East Japan Railway Co filed Critical Sharp Corp
Priority to JP2015011446A priority Critical patent/JP6694234B2/en
Publication of JP2016136112A publication Critical patent/JP2016136112A/en
Publication of JP2016136112A5 publication Critical patent/JP2016136112A5/en
Application granted granted Critical
Publication of JP6694234B2 publication Critical patent/JP6694234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distance measurement device and distance measurement method that can obtain a range-finding result higher in a reliability level.SOLUTION: A distance measurement device comprises: an imaging unit that chronologically acquires a plurality of shooting images; a characteristic point detection unit 201 that detects a point on a subject in the plurality of shooting images; and a three-dimensional position information calculation unit 203 that calculates a three-dimensional position of the point on the subject, and further comprises; a reliability level calculation unit 204 that calculates a reliability level of the calculated three-dimensional position; and a three-dimensional position determination unit 206 that determines the calculated three-dimensional position. The three-dimensional position determination unit 206 is configured so as to determine the three-dimensional position of an arbitrary point of attention on the subject in the plurality of shooting images on the basis of the three-dimensional position of an arbitrary point of comparison on the subject in the plurality of shooting images existing within an arbitrary range from the point of attention and the reliability level of the three-dimensional position of the arbitrary point of comparison.SELECTED DRAWING: Figure 2

Description

本発明は、複数の画像を利用することにより、被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離を算出することのできる距離測定装置および距離測定方法に関する。   The present invention relates to a distance measuring apparatus and a distance measuring method capable of calculating a distance to a subject, a distance between two points on a subject, or a distance between subjects by using a plurality of images.

任意の被写体を複数の視点から撮影することのできる複数視点撮像装置は、立体映像の生成や自由視点映像の生成、また、それらを実現するために必要な奥行き画像(デプスマップ)の生成などに利用される。
このようなシステムにおいては、三角測量の原理に基づき、撮像装置のパラメータや各々撮像された画像の視差情報(ディスパリティ、デプスと表現されることもある)を用いることで、撮像装置から被写体までの距離や被写体間の距離を算出することもできる。撮像装置のパラメータと撮像装置から被写体までの距離の関係は、[数1]によってあらわすことができる。
A multi-viewpoint imaging device that can shoot an arbitrary subject from multiple viewpoints is used to generate stereoscopic images, free-viewpoint images, and to generate depth images (depth maps) necessary to realize them. Used.
In such a system, based on the principle of triangulation, by using the parameters of the imaging device and the parallax information (sometimes expressed as disparity and depth) of each captured image, from the imaging device to the subject. And the distance between subjects can also be calculated. The relationship between the parameters of the imaging device and the distance from the imaging device to the subject can be expressed by [Equation 1].

ここで、dは視差、bは撮像装置間の基線長、fは撮像装置の焦点距離、Zは撮像装置から被写体までの距離である。[数1]は、撮像装置の光軸が平行に配置された場合の距離算出式に相当するが、撮像装置の光軸が角度を持って配置された場合には、カメラキャリブレーション等によりカメラパラメータを算出し、画像の平行化を施すことによって、同様に適用することができる。
さらに、画角やレンズ歪などの撮像装置のパラメータに基づき、3次元的な位置情報を算出することができる。光軸と投影点の角度や焦点距離f、距離Zを用いて、XY座標値も算出することができる。3次元的な位置情報を得ることができれば、撮影空間内の任意の2点の距離を算出することができる。
Here, d is the parallax, b is the baseline length between the imaging devices, f is the focal length of the imaging device, and Z is the distance from the imaging device to the subject. [Equation 1] corresponds to a distance calculation formula when the optical axis of the imaging device is arranged in parallel. When the optical axis of the imaging device is arranged at an angle, the camera is calibrated by camera calibration or the like. The same can be applied by calculating the parameters and performing parallelization of the image.
Furthermore, three-dimensional position information can be calculated based on imaging device parameters such as the angle of view and lens distortion. The XY coordinate value can also be calculated using the angle between the optical axis and the projection point, the focal length f, and the distance Z. If three-dimensional position information can be obtained, the distance between any two points in the imaging space can be calculated.

以上のような視差は、画像間のステレオマッチング処理などにより求めることができる。ステレオマッチングとは、任意に定める一方の画像を基準画像、もう一方を評価画像とし、基準画像の注目領域(例えば、5×5などに設定)の部分画像をテンプレートとし、評価画像の対応点(対応領域)を評価関数(例えば、SAD:Sum of Absolute Difference)に基づき探索する方法であり、注目領域と対応領域との間の距離が視差に相当する。
本ステレオマッチングにおいては、前記部分画像内に特徴的な部分を含まない場合(例えば、同じ明るさで同じ色の平面の場合など)には、複数の領域でマッチングしてしまい、真の位置と必ずしもマッチングの尤度が最大化されない。すなわち、正しい視差が求まらないことがある。
一方、エッジのように特徴的な部分を含む部分画像の場合には、オクルージョンが発生している場合や繰り返し模様になっている場合を除き、比較的精度の高い視差情報を得ることができる。
The parallax as described above can be obtained by a stereo matching process between images. In stereo matching, one arbitrarily defined image is a reference image, the other is an evaluation image, a partial image of a region of interest of the reference image (for example, set to 5 × 5) is used as a template, and corresponding points ( This is a method of searching for a corresponding area based on an evaluation function (for example, SAD: Sum of Absolute Difference), and the distance between the attention area and the corresponding area corresponds to parallax.
In this stereo matching, when a characteristic part is not included in the partial image (for example, in the case of a plane having the same brightness and the same color), matching is performed in a plurality of regions, and the true position and The likelihood of matching is not necessarily maximized. That is, the correct parallax may not be obtained.
On the other hand, in the case of a partial image including a characteristic portion such as an edge, disparity information with relatively high accuracy can be obtained except when occlusion occurs or a repetitive pattern is formed.

画像のエッジ部分を利用した測距システムとして、特許文献1が開示されている。
特許文献1では、複数視点の撮像装置から入力された2つの画像を元画像とし、そのうち一方の画像の画像サイズを変更したリサイズ画像を用意し、リサイズ画像中からエッジ(特徴端点)を抽出する。抽出されたエッジに対応した変形前の画像(元画像)の対応領域を任意サイズのマッチングパターンとし、もう一方の画像とステレオマッチングすることで視差および距離を算出するような構成としている。
以上の構成によって、斜めエッジを検出するためのエッジ検出カーネルを角度ごとに用意することなく、縦横エッジ検出カーネルを利用して、斜めエッジ部分の視差検出力を向上させることができる。
As a distance measuring system using an edge portion of an image, Patent Document 1 is disclosed.
In Patent Literature 1, two images input from a multi-viewpoint imaging device are used as original images, a resized image in which one of the images is changed is prepared, and an edge (feature end point) is extracted from the resized image. . The corresponding region of the untransformed image (original image) corresponding to the extracted edge is set as a matching pattern of an arbitrary size, and the parallax and the distance are calculated by performing stereo matching with the other image.
With the above configuration, it is possible to improve the parallax detection power of the diagonal edge portion by using the vertical and horizontal edge detection kernel without preparing an edge detection kernel for detecting the diagonal edge for each angle.

特開2003−98424号公報JP 2003-98424 A

特許文献1に記載の発明においては、エッジを利用して測距することが可能である。しかしながら、特許文献1に対する課題として、動きボケの影響が考えられる。
(1)動きボケ自体の影響
被写体が動いている場合、エッジ付近には動きボケ(モーションブラー)が生じている。特に、被写体が高速で動いている場合には、画像上の複数ピクセルにわたり動きボケの影響が生じ、エッジ(特徴領域)として抽出できないため、測距ができなくなる。エッジ検出カーネルの設定によっては、エッジとして抽出できる可能性があるが、エッジとして抽出できた場合においても、ボケが生じなかった場合のエッジの真の位置であることは保証されない。そのため、測距結果の信頼度は低下すると考えられる。
(2)撮像装置と被写体の運動方向による影響
動きボケ量は、撮像装置の光軸と被写体の移動方向が直交する場合に最大となり、撮像装置の光軸と被写体の移動方向が平行である場合に最小となる。そのため、動きボケの影響を少なくするためには、撮像装置の光軸と被写体の移動方向が平行となる位置に撮像装置が設置されることが望ましい。すなわち、被写体が被写体正面方向に移動していると仮定すると、撮像装置を被写体の正面に置くことが望ましい。しかしながら、被写体の側面も撮影範囲としたいとき、必ずしも正面には置けない。
In the invention described in Patent Document 1, it is possible to perform distance measurement using an edge. However, as an issue for Patent Document 1, the influence of motion blur can be considered.
(1) Influence of motion blur itself When the subject is moving, motion blur (motion blur) occurs near the edge. In particular, when the subject is moving at high speed, the influence of motion blur occurs over a plurality of pixels on the image, and the object cannot be extracted as an edge (feature region), and thus distance measurement cannot be performed. Depending on the setting of the edge detection kernel, there is a possibility that it can be extracted as an edge, but even if it can be extracted as an edge, it is not guaranteed that the true position of the edge when no blur occurs. Therefore, it is considered that the reliability of the distance measurement result is lowered.
(2) Influence of the moving direction of the imaging device and the subject The amount of motion blur is maximized when the optical axis of the imaging device and the moving direction of the subject are orthogonal, and the optical axis of the imaging device and the moving direction of the subject are parallel. To the minimum. Therefore, in order to reduce the influence of motion blur, it is desirable to install the imaging device at a position where the optical axis of the imaging device and the moving direction of the subject are parallel. In other words, assuming that the subject is moving in the front direction of the subject, it is desirable to place the imaging device in front of the subject. However, when the side of the subject is also set as the shooting range, it cannot be always placed in front.

本発明は、上記の課題を鑑みてなされたものであり、本発明の目的とするところは、より信頼度の高い測距結果を得ることのできる距離測定装置および距離測定方法を提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a distance measuring device and a distance measuring method capable of obtaining a more reliable distance measuring result. is there.

前記課題を解決するために、本発明の距離測定装置は、
経時的に複数の撮影画像を取得する撮像部と、
前記複数の撮影画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を算出する3次元位置算出部と、を備えた距離測定装置であって、
前記算出された3次元位置の信頼度を算出する信頼度算出部と、
前記算出された3次元位置を確定する3次元位置確定部と、を更に備え、
前記3次元位置確定部は、前記複数の撮影画像における被写体上の任意の注目点の3次元位置を、前記注目点から任意の範囲内に存在する、前記複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。
In order to solve the above-described problem, the distance measuring device of the present invention includes:
An imaging unit that acquires a plurality of captured images over time;
A subject point detector for detecting points on the subject in the plurality of captured images;
A three-dimensional position calculation unit that calculates a three-dimensional position of a point on the subject,
A reliability calculation unit for calculating the reliability of the calculated three-dimensional position;
A three-dimensional position determining unit for determining the calculated three-dimensional position;
The three-dimensional position determining unit is configured to arbitrarily set a three-dimensional position of an arbitrary point of interest on the subject in the plurality of photographed images within an arbitrary range from the point of interest. The comparison point is determined based on the three-dimensional position of the comparison point and its reliability.

したがって、確定した3次元位置に基づいて、距離(被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。   Therefore, since the distance (distance to the subject, distance between two points on the subject, or distance between subjects) can be calculated based on the determined three-dimensional position, a more reliable ranging result can be obtained. Can be obtained.

好ましくは、
前記比較点は複数点であり、かつ、少なくとも1点は、前記注目点の存在する撮影画像とは異なる画像から検出されたものであるように構成することが可能である。
Preferably,
The comparison points may be a plurality of points, and at least one point may be configured to be detected from an image different from the captured image in which the point of interest exists.

このように構成することによって、より信頼度の高い測距結果を得ることができる。   With such a configuration, it is possible to obtain a distance measurement result with higher reliability.

また、好ましくは、
前記信頼度は、被写体までの距離による理論誤差に基づく信頼度であるように構成することが可能である。
Also preferably,
The reliability can be configured to be a reliability based on a theoretical error due to a distance to the subject.

このように構成することによって、被写体までの距離による理論誤差を考慮して確定した3次元位置に基づいて、距離(被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。   With this configuration, the distance (the distance to the subject, the distance between two points on the subject, or the distance between the subjects) is determined based on the three-dimensional position determined in consideration of the theoretical error due to the distance to the subject. Thus, it is possible to obtain a distance measurement result with higher reliability.

また、好ましくは、
前記複数の撮影画像の各々に対応して算出された複数の前記3次元位置から前記撮像部に対する前記被写体の移動方向を予測することで動きボケを推定する動きボケ推定部を備え、
前記動きボケ推定部の推定結果に基づいて、前記注目点を検出する際に用いる注目点検出窓のサイズおよび形状のうち、少なくとも一方を変更するように構成することが可能である。
Also preferably,
A motion blur estimation unit that estimates motion blur by predicting a moving direction of the subject relative to the imaging unit from a plurality of the three-dimensional positions calculated corresponding to each of the plurality of captured images;
Based on the estimation result of the motion blur estimation unit, it is possible to change at least one of the size and shape of the target point detection window used when detecting the target point.

このように構成することによって、動きボケの影響を考慮して注目点を検出することができるので、注目点をより適切に検出することができ、より信頼度の高い測距結果を得ることができる。   With this configuration, the attention point can be detected in consideration of the effect of motion blur, so the attention point can be detected more appropriately, and a more reliable ranging result can be obtained. it can.

また、好ましくは、
前記注目点をユーザが指定可能であるように構成することが可能である。
Also preferably,
It is possible to configure so that the user can designate the attention point.

このように構成することによって、ユーザが興味のある注目点が分かるため、その注目点の3次元位置のみを確定すればよく、計算量を削減することができる。   By configuring in this way, the attention point that the user is interested in can be known, so only the three-dimensional position of the attention point has to be determined, and the amount of calculation can be reduced.

また、本発明の距離測定方法は、
経時的に複数の撮影画像を取得する撮像部によって被写体を撮影する撮影工程と、
前記撮影画像における被写体上の点を検出する検出工程と、
前記被写体上の点の3次元位置を算出する3次元位置算出工程と、
前記算出された3次元位置の信頼度を算出する信頼度算出工程と、
前記算出された3次元位置を確定する確定工程と、を有し、
前記確定工程では、前記複数の撮影画像における被写体上の任意の注目点の3次元位置を、前記注目点から任意の範囲内に存在する、前記複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。
The distance measuring method of the present invention is
A shooting process of shooting a subject by an imaging unit that acquires a plurality of shot images over time;
A detection step of detecting a point on the subject in the captured image;
A three-dimensional position calculating step for calculating a three-dimensional position of a point on the subject;
A reliability calculation step of calculating the reliability of the calculated three-dimensional position;
Confirming the calculated three-dimensional position, and
In the determination step, a three-dimensional position of an arbitrary point of interest on the subject in the plurality of captured images is an arbitrary comparison point on the subject in the plurality of captured images that exists within an arbitrary range from the point of interest. It is configured to be determined based on the three-dimensional position and its reliability.

したがって、確定した3次元位置に基づいて、距離(被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。   Therefore, since the distance (distance to the subject, distance between two points on the subject, or distance between subjects) can be calculated based on the determined three-dimensional position, a more reliable ranging result can be obtained. Can be obtained.

本発明によれば、より信頼度の高い測距結果を得ることができる。   According to the present invention, it is possible to obtain a distance measurement result with higher reliability.

第1の実施の形態における距離測定装置の一構成例を示す図である。It is a figure showing an example of 1 composition of a distance measuring device in a 1st embodiment. 図1に示す距離測定装置が備える画像処理部の一構成例を示す図である。It is a figure which shows one structural example of the image process part with which the distance measuring apparatus shown in FIG. 1 is provided. エッジ検出フィルタの一例を示す図である。It is a figure which shows an example of an edge detection filter. ステレオマッチングの一例を示す図である。It is a figure which shows an example of a stereo matching. 被写体の3次元位置の算出法の一例を示す図である。It is a figure which shows an example of the calculation method of the to-be-photographed object's three-dimensional position. 撮像装置座標系Cから被写体座標系Lへの座標変換法の一例を示す図である。It is a figure which shows an example of the coordinate transformation method from the imaging device coordinate system C to the object coordinate system L. 3次元位置確定部における動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement in a three-dimensional position determination part. 比較点の選択法の一例を示す図である。It is a figure which shows an example of the selection method of a comparison point. 第2の実施の形態における距離測定装置が備える画像処理部の一構成例を示す図である。It is a figure which shows one structural example of the image process part with which the distance measuring device in 2nd Embodiment is provided. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of the operation | movement in a motion blur estimation part. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of the operation | movement in a motion blur estimation part. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of the operation | movement in a motion blur estimation part. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of the operation | movement in a motion blur estimation part. 第3の実施の形態における距離測定装置が備える画像処理部の一構成例を示す図である。It is a figure which shows the example of 1 structure of the image process part with which the distance measuring device in 3rd Embodiment is provided. 表示部に表示された、ユーザが測定したい特徴点を指定するための画像の一例を示す図である。It is a figure which shows an example of the image for designating the feature point which the user wants to measure displayed on the display part. 表示部に表示された、確定された特徴点情報の一例を示す図である。It is a figure which shows an example of the confirmed feature point information displayed on the display part. 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。It is a figure which shows an example of the measuring method of the thickness of the board part of the pantograph of a vehicle. 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。It is a figure which shows an example of the measuring method of the thickness of the board part of the pantograph of a vehicle. 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。It is a figure which shows an example of the measuring method of the thickness of the board part of the pantograph of a vehicle.

以下、本発明に係わる実施の形態について、図面を参照して説明する。   Embodiments according to the present invention will be described below with reference to the drawings.

<第1の実施の形態>:基本構成
本実施の形態においては、本発明における基本的な構成について説明する。
具体的には、撮影空間中を動いている被写体を複数回撮影し、複数回の撮影で得られた撮影画像それぞれの特徴点座標およびその信頼度を求め、当該特徴点座標および信頼度に基づいて所望の撮影タイミングにおける撮影画像の特徴点座標を補正することで、距離(被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)と、その信頼度と、を測定することのできる距離測定装置および距離測定方法について説明する。
<First Embodiment>: Basic Configuration In this embodiment, a basic configuration of the present invention will be described.
Specifically, the subject moving in the shooting space is shot multiple times, and the feature point coordinates and reliability of each of the shot images obtained by the multiple shots are obtained, and based on the feature point coordinates and reliability Then, the distance (distance to the subject, the distance between two points on the subject, or the distance between subjects) and the reliability thereof are measured by correcting the feature point coordinates of the photographed image at a desired photographing timing. A distance measuring apparatus and a distance measuring method that can be used will be described.

まず、本発明における全体の構成について説明する。
図1は、本実施の形態における距離測定装置の一構成例である。距離測定装置100は、本実施例における距離測定装置であり、被写体を撮像するための撮像部101と、撮像した撮影画像を処理するための画像処理部102と、撮影画像そのものや画像処理結果を出力表示するための表示部103と、撮影画像そのものや画像処理結果、画像処理に利用する種々のデータを保存する保存部104と、ユーザからの入力や外部装置へのデータ送信のための外部入出力部105と、距離測定装置100全体の制御を行うための制御部106と、各々のユニット間でのデータのやり取りを行うためのデータバス107と、から構成される。
First, the overall configuration of the present invention will be described.
FIG. 1 is a configuration example of a distance measuring apparatus according to the present embodiment. The distance measuring device 100 is a distance measuring device according to the present embodiment, and includes an imaging unit 101 for imaging a subject, an image processing unit 102 for processing a captured image, a captured image itself and an image processing result. A display unit 103 for output display, a storage unit 104 for storing captured images themselves, image processing results, and various data used for image processing, and an external input for user input and data transmission to an external device An output unit 105, a control unit 106 for controlling the entire distance measuring apparatus 100, and a data bus 107 for exchanging data between each unit are configured.

撮像部101は、撮影空間を距離測定装置100に取り込むための光学部品およびCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を複数具備するように構成され、光電変換によって得られた夫々の撮影画像データをデータバス107に出力する。複数の光学部品および撮像素子は一つの筐体内に配設されてもよいが、撮影位置が異なる複数の撮像装置として構成される。すなわち、撮像部101は、光学部品と撮像素子とを備える撮像装置を複数有しており、これらの撮像装置は、互いに視差を有する撮影画像が撮像できるような位置に配置されている。
撮影された情報は、生データのままデータバス107に出力されてもよいし、画像処理部102において処理しやすいように事前に画像処理(輝度画像化、ノイズ除去など)が施された画像データとしてデータバス107に出力されてもよく、また、その両方が出力されるような構成としてもよい。さらに、撮影時の絞り値や焦点距離などのカメラパラメータを、撮像部101から保存部104に送るように構成することもできる。
The imaging unit 101 is configured to include a plurality of imaging elements such as optical components and CMOS (Complementary Metal Oxide Semiconductor) for capturing the imaging space into the distance measuring device 100, and each captured image data obtained by photoelectric conversion. Is output to the data bus 107. The plurality of optical components and the image pickup device may be arranged in one housing, but are configured as a plurality of image pickup devices having different shooting positions. That is, the imaging unit 101 includes a plurality of imaging devices each including an optical component and an imaging device, and these imaging devices are arranged at positions where captured images having parallax can be captured.
The photographed information may be output to the data bus 107 as raw data, or image data that has been subjected to image processing (luminance imaging, noise removal, etc.) in advance so that the image processing unit 102 can easily process the information. May be output to the data bus 107, or both may be output. Furthermore, it is also possible to configure so that camera parameters such as an aperture value and a focal length at the time of shooting are sent from the imaging unit 101 to the storage unit 104.

本発明における撮像部101は、動被写体に対し複数回撮影を行い、それぞれの撮影画像データを各部に送信する。本実施の形態においては、撮像部101が2台の撮像装置を備える場合を例に説明する。   The imaging unit 101 according to the present invention captures a moving subject a plurality of times and transmits each captured image data to each unit. In the present embodiment, a case where the imaging unit 101 includes two imaging devices will be described as an example.

画像処理部102は、FPGA(Field Programmable Gate Array)などによって構成され、撮像部101もしくは撮影画像データが保存された保存部104から撮影画像データを取得し、各種画像処理を行った結果をデータバス107に出力する。画像処理部102における詳細な説明については後述する。   The image processing unit 102 is configured by an FPGA (Field Programmable Gate Array) or the like, acquires captured image data from the imaging unit 101 or the storage unit 104 storing the captured image data, and displays the results of various image processing as a data bus. It outputs to 107. Details of the image processing unit 102 will be described later.

表示部103は、LCD(Liquid Crystal Display)や有機ELディスプレイ(OELD:Organic ElectroLuminescence
Display)などによって構成され、画像処理部102から出力される画像処理結果や、保存部104に保存された画像などを表示する。なお、表示部103は、外部入出力部105を介して、距離測定装置100の外部に設置される構成としてもよい。
The display unit 103 is an LCD (Liquid Crystal Display) or an organic EL display (OELD: Organic ElectroLuminescence).
Display), and displays an image processing result output from the image processing unit 102, an image stored in the storage unit 104, and the like. The display unit 103 may be installed outside the distance measuring apparatus 100 via the external input / output unit 105.

保存部104は、例えば、RAM(Ramdom Access Memory)などの主記憶装置およびハードディスクなどの補助記憶装置からなる。主記憶装置は、撮影画像データや画像処理結果を一時的に保持するために利用される。補助記憶装置には、撮影画像データ、画像処理結果、カメラキャリブレーションに利用するためのデータなど、ストレージとして長期的に保存するためのデータが格納される。   The storage unit 104 includes, for example, a main storage device such as a RAM (Random Access Memory) and an auxiliary storage device such as a hard disk. The main storage device is used to temporarily hold captured image data and image processing results. The auxiliary storage device stores data for long-term storage as storage, such as photographed image data, image processing results, and data used for camera calibration.

外部入出力部105は、USB(Universal Serial Bus)やHDMI(登録商標)(High Definition Multimedia Interface)などの入出力ポートを有し、外部からの撮影トリガの受信、撮影画像データや画像処理結果の送信などを行う。
撮影トリガは、例えば、被写体の通過を検出する通過センサから入力される。通過センサは、例えば、当該通過センサと距離測定装置100との位置関係に応じて、当該通過センサの計測範囲を被写体が通過したことを検出すると直ちに撮影トリガを送信するように構成することも可能であるし、当該通過センサの計測範囲を被写体が通過したことを検出してから所定時間経過後に撮影トリガを送信するように構成することも可能である。
The external input / output unit 105 has input / output ports such as USB (Universal Serial Bus) and HDMI (registered trademark) (High Definition Multimedia Interface), and receives external shooting triggers, receives shot image data and image processing results. Send and so on.
The shooting trigger is input from, for example, a passage sensor that detects passage of a subject. The passage sensor may be configured to transmit a shooting trigger immediately upon detecting that the subject has passed through the measurement range of the passage sensor, for example, according to the positional relationship between the passage sensor and the distance measuring device 100. In addition, it is also possible to configure so that a shooting trigger is transmitted after a predetermined time has elapsed since the subject has passed through the measurement range of the passage sensor.

制御部106は、CPU(Central Processing Unit)などによって構成され、撮像部101における撮像処理や画像処理部102における画像処理などの種々の命令・制御を行う。   The control unit 106 is configured by a CPU (Central Processing Unit) or the like, and performs various commands and controls such as imaging processing in the imaging unit 101 and image processing in the image processing unit 102.

データバス107は、各々のユニット間でのデータのやり取りを行うためのバスである。   The data bus 107 is a bus for exchanging data between the units.

以上の構成は、本実施の形態における全体の構成である。
続いて、本発明における画像処理部102の詳細な構成例および動作例について説明する。
本発明においては、同一の動被写体を複数回撮影し、予備撮影の計測結果を利用して、所望撮影における距離(3次元位置)の計測結果を補正することを特徴としている。予備撮影および所望撮影とは、例えば、2回撮影する条件の場合、1回目の撮影が予備撮影、2回目の撮影が所望撮影となる。なお、1回目および2回目の撮影結果を保存部104に保存することにより、予備撮影および所望撮影を入れ替えることもできるし、3回以上撮影して所望撮影以外の複数の撮影を予備撮影とすることで、所望撮影時の補正をするように構成することもできる。
以下、2回撮影する場合であって、1回目の撮影を予備撮影、2回目の撮影を所望撮影とした場合を例に説明する。
The above configuration is the entire configuration in the present embodiment.
Next, a detailed configuration example and operation example of the image processing unit 102 in the present invention will be described.
The present invention is characterized in that the same moving subject is photographed a plurality of times, and the measurement result of the distance (three-dimensional position) in the desired photographing is corrected using the preliminary photographing measurement result. Preliminary shooting and desired shooting are, for example, under the condition of shooting twice, the first shooting being the preliminary shooting and the second shooting being the desired shooting. In addition, by storing the first and second shooting results in the storage unit 104, the preliminary shooting and the desired shooting can be switched, and a plurality of shootings other than the desired shooting are set as the preliminary shooting by shooting three or more times. Thus, it can be configured to correct at the time of desired shooting.
Hereinafter, an example will be described in which shooting is performed twice, in which the first shooting is preliminary shooting and the second shooting is desired shooting.

本実施の形態における画像処理部102は、図2に示すように、撮像部101もしくは保存部104から受け取った撮影画像データから特徴点を検出する特徴点検出部201と、特徴点検出部201において検出された特徴点における視差を算出する視差算出部202と、視差算出部202において算出された視差と保存部104に保存される焦点距離や撮像装置間の基線長などの撮像部101の撮像パラメータ(カメラパラメータ)情報とに基づき、各特徴点に対する3次元位置および当該3次元位置における計測誤差(分解能)情報を算出する3次元位置情報算出部203と、特徴点検出部201、視差算出部202、および3次元位置情報算出部203からの処理情報をもとに、各特徴点に対する信頼度を算出する信頼度算出部204と、各特徴点に対する3次元位置情報および信頼度を一時的に保持する特徴点情報保持部205と、予備撮影時および所望撮影時における各々の特徴点情報(3次元位置情報および信頼度)を特徴点情報保持部205から受け取り、所望撮影時における各特徴点に対する3次元位置情報を補正する3次元位置確定部206と、から構成することができる。   As shown in FIG. 2, the image processing unit 102 according to the present embodiment includes a feature point detection unit 201 that detects feature points from captured image data received from the imaging unit 101 or the storage unit 104, and a feature point detection unit 201. The parallax calculation unit 202 that calculates the parallax at the detected feature point, and the imaging parameters of the imaging unit 101 such as the parallax calculated by the parallax calculation unit 202 and the focal length stored in the storage unit 104 and the baseline length between the imaging devices Based on (camera parameter) information, a three-dimensional position information calculation unit 203 that calculates a three-dimensional position for each feature point and measurement error (resolution) information at the three-dimensional position, a feature point detection unit 201, and a parallax calculation unit 202 And a reliability calculation unit 204 that calculates the reliability for each feature point based on the processing information from the three-dimensional position information calculation unit 203. A feature point information holding unit 205 that temporarily holds three-dimensional position information and reliability for each feature point, and feature point information (three-dimensional position information and reliability) at the time of preliminary shooting and desired shooting A three-dimensional position determination unit 206 that receives from the point information holding unit 205 and corrects the three-dimensional position information for each feature point at the time of desired photographing can be configured.

特徴点検出部201は、データバス107からステレオ画像データ(2台の撮像装置のうちの一方により撮像された撮影画像データおよび他方により撮像された撮影画像データ)を受け取り、撮影画像データの特徴点を検出する。ここで、特徴点とは、例えばエッジ情報であり、図3に示すようなSobelフィルタ(3×3)に対する反応強度がある閾値以上であった場合に、特徴点領域であると判定する。なお、エッジ検出手法は、Sobelフィルタに限定されず、PrewittフィルタやLaplacianフィルタ、Cannyフィルタ、SIFT(Scale−Invariant Feature Transform)と呼ばれる各種特徴点データのいずれかもしくは複数を使う構成にすることができる。
特徴点検出部201は、検出された特徴点の画像座標における位置情報および/もしくは特徴点画像データ、必要に応じて撮影画像データを視差算出部202に送信する。また、各特徴点座標における特徴点強度(反応強度)を信頼度算出部204に送る。
The feature point detector 201 receives stereo image data (captured image data captured by one of the two imaging devices and captured image data captured by the other) from the data bus 107, and features of the captured image data Is detected. Here, the feature point is, for example, edge information, and is determined to be a feature point region when the reaction intensity with respect to the Sobel filter (3 × 3) as shown in FIG. Note that the edge detection method is not limited to the Sobel filter, and can be configured to use any one or more of various feature point data called Prewitt filter, Laplacian filter, Canny filter, and SIFT (Scale-Invariant Feature Transform). .
The feature point detection unit 201 transmits position information and / or feature point image data of the detected feature point in the image coordinates, and, if necessary, captured image data to the parallax calculation unit 202. Also, the feature point strength (reaction strength) at each feature point coordinate is sent to the reliability calculation unit 204.

視差算出部202は、特徴点検出部201からの特徴点の画像座標における位置情報および/もしくは特徴点画像データを受け取り、ステレオマッチングを行う。
ここで、ステレオマッチングの一例について、図4を用いて説明する。本実施の形態における撮像装置が左右に並んで配設されている場合、まず、左画像(左側の撮像装置により撮像された撮影画像)の特徴点位置を基準に、探索窓の範囲の画像をテンプレートとして切り取る。ここで、探索窓の範囲は、例えば11×11とする。次に、左画像の特徴点位置に対応する右画像(右側の撮像装置により撮像された撮影画像)位置の探索窓範囲と、前記テンプレートとのマッチング評価値を求める。マッチング評価値は、例えば、[数2]に示すように、SAD(Sum of Absolute Difference)値として求められる。ここで、L(x,y)は画像座標(x,y)における左画像の探索窓、R(x,y)は画像座標(x,y)における右画像の探索窓の各画素の階調値を表している。
The parallax calculation unit 202 receives position information and / or feature point image data of the feature point image coordinates from the feature point detection unit 201, and performs stereo matching.
Here, an example of stereo matching will be described with reference to FIG. When the imaging devices in the present embodiment are arranged side by side, first, an image in the range of the search window is obtained based on the feature point position of the left image (the captured image captured by the left imaging device). Cut as a template. Here, the range of the search window is, for example, 11 × 11. Next, a matching evaluation value between the search window range of the right image (captured image captured by the right imaging device) corresponding to the feature point position of the left image and the template is obtained. The matching evaluation value is obtained as a SAD (Sum of Absolute Difference) value, for example, as shown in [Formula 2]. Here, L (x, y) is the search window of the left image at the image coordinates (x, y), and R (x, y) is the gradation of each pixel of the search window of the right image at the image coordinates (x, y). Represents a value.

マッチング評価値は、あらかじめ設定された探索範囲に対して、注目位置をずらしながら、それぞれの位置に対して算出される。SADにより算出する場合、マッチング評価値が最小となる位置がマッチング位置となり、右画像におけるマッチング位置と左画像における元の注目点(特徴点)位置との差が視差となる。
なお、マッチング評価値を算出する方法は、ステレオマッチングで用いられる種々の評価関数によって算出する方法でよく、SSD(Sum of Suquare Difference)などで算出するようにしてもよい。
視差算出部202は、各画素位置(各特徴点位置)に対する視差算出結果を、3次元位置情報算出部203に送る。また、各画素位置(各特徴点位置)に対するマッチング評価値を、信頼度算出部204に送る。
The matching evaluation value is calculated for each position while shifting the position of interest with respect to a preset search range. When calculating by SAD, the position where the matching evaluation value is minimum is the matching position, and the difference between the matching position in the right image and the original attention point (feature point) position in the left image is parallax.
Note that the method for calculating the matching evaluation value may be a method using various evaluation functions used in stereo matching, and may be calculated using SSD (Sum of Square Difference) or the like.
The parallax calculation unit 202 sends the parallax calculation result for each pixel position (each feature point position) to the three-dimensional position information calculation unit 203. The matching evaluation value for each pixel position (each feature point position) is sent to the reliability calculation unit 204.

3次元位置情報算出部203は、視差算出部202からの視差情報(視差算出結果)と、保存部104からの各種撮像パラメータ(カメラパラメータ)をもとに、[数1]によって距離Zを算出する。ここで、視差算出部202によって算出される視差は、画像座標系における視差であり、ピクセル値である。一方、[数1]における視差は、センサ座標系における視差(“mm”などのSI単位)である。そのため、保存部104からの画素ピッチ量P(mm/pixel)をパラメータとして、画像座標系からセンサ座標系に変換を行うことで、距離Zを算出することができる。なお、距離Zは、光軸をZ軸と平行とした場合のZの座標値に相当する。また、図5に示すように、距離Zおよび画像上の座標位置(x,y)から、被写体の3次元的な位置(X,Y,Z)を算出することができる。   The three-dimensional position information calculation unit 203 calculates the distance Z by [Equation 1] based on the parallax information (parallax calculation result) from the parallax calculation unit 202 and various imaging parameters (camera parameters) from the storage unit 104. To do. Here, the parallax calculated by the parallax calculation unit 202 is a parallax in the image coordinate system and is a pixel value. On the other hand, the parallax in [Equation 1] is a parallax (SI unit such as “mm”) in the sensor coordinate system. Therefore, the distance Z can be calculated by performing conversion from the image coordinate system to the sensor coordinate system using the pixel pitch amount P (mm / pixel) from the storage unit 104 as a parameter. The distance Z corresponds to a coordinate value of Z when the optical axis is parallel to the Z axis. Further, as shown in FIG. 5, the three-dimensional position (X, Y, Z) of the subject can be calculated from the distance Z and the coordinate position (x, y) on the image.

また、視差算出部202における視差計測精度(視差算出精度)に基づき、当該の特徴点位置における計測誤差を算出する。例えば、視差算出部202における視差計測精度Npがピクセルを1単位とする場合、[式3]によって算出できる。   Further, based on the parallax measurement accuracy (parallax calculation accuracy) in the parallax calculation unit 202, a measurement error at the feature point position is calculated. For example, when the parallax measurement accuracy Np in the parallax calculation unit 202 is a unit of pixels, it can be calculated by [Expression 3].

ここで、Eは計測誤差、Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離である。計測誤差Eは、距離Zに比例することがわかる。故に、撮像装置から被写体までの距離Zが遠くなるほど、計測誤差Eは大きな値となる。
3次元位置情報算出部203は、以上によって得られた被写体までの距離(3次元位置)情報および計測誤差情報を信頼度算出部204に送信する。
Here, E is the measurement error, P is the pixel pitch amount, Np is the parallax measurement accuracy, f is the focal length, and Z is the distance to the subject. It can be seen that the measurement error E is proportional to the distance Z. Therefore, the measurement error E increases as the distance Z from the imaging device to the subject increases.
The three-dimensional position information calculation unit 203 transmits the distance to the subject (three-dimensional position) information and measurement error information obtained as described above to the reliability calculation unit 204.

信頼度算出部204は、特徴点検出部201からの特徴点強度と、視差算出部202からのマッチング評価値と、3次元位置情報算出部203からの3次元位置情報および計測誤差情報と、をそれぞれ受け取り、信頼度を算出する。具体的には、信頼度算出部204は、例えば、特徴点強度に対する信頼度I_R、マッチング評価値に対する信頼度M_R、計測誤差情報に対する信頼度E_Rをそれぞれ算出し、これらの組み合わせによって総合的な信頼度S_Rを算出するように構成することができる。それぞれの信頼度の算出式について、[数4]〜[数7]に一例を示す。   The reliability calculation unit 204 includes the feature point intensity from the feature point detection unit 201, the matching evaluation value from the parallax calculation unit 202, and the three-dimensional position information and measurement error information from the three-dimensional position information calculation unit 203. Each is received and the reliability is calculated. Specifically, the reliability calculation unit 204 calculates, for example, the reliability I_R for the feature point strength, the reliability M_R for the matching evaluation value, and the reliability E_R for the measurement error information. The degree S_R can be calculated. Examples of the respective reliability calculation formulas are shown in [Formula 4] to [Formula 7].

[数4]は、特徴点信頼度I_Rの算出式の一例である。I_Bは特徴点強度、ISは特徴点検出フィルタの係数和である。例えば、撮影画像データに基づく画像が8ビット画像であり、Sobelフィルタ(3×3)によって特徴点を検出した場合、特徴点強度I_Bは最大で1020(=255+255×2+255)であり、フィルタ係数和ISは4(=1+2+1)である。したがって、特徴点信頼度I_Rは0〜255の値となり、255の時、特徴点信頼度が最大となる。   [Equation 4] is an example of an equation for calculating the feature point reliability I_R. I_B is the feature point intensity, and IS is the coefficient sum of the feature point detection filter. For example, when the image based on the photographed image data is an 8-bit image and the feature point is detected by the Sobel filter (3 × 3), the feature point intensity I_B is 1020 at the maximum (= 255 + 255 × 2 + 255), and the filter coefficient sum IS is 4 (= 1 + 2 + 1). Therefore, the feature point reliability I_R is a value from 0 to 255, and when it is 255, the feature point reliability is maximum.

[数5]は、マッチング信頼度M_Rの算出式の一例である。M_Bはマッチング評価値、Nは探索窓サイズである。前記例の通り、視差算出部202においてN=11のSADによって視差を算出した場合、マッチング評価値M_Bは、0〜30855の値となる。マッチング評価値M_Bを探索窓の総画素数であるN(=121)で除することにより、平均化マッチング評価値([数5]の右辺の第2項)は、0〜255の値となる。平均化マッチング評価値は、0に近いほどマッチングの評価が高いことを示す。特徴点信頼度I_Rと同様に255が最大値となるように、255から平均化マッチング評価値を減じた値をマッチング信頼度M_Rとして設定する。 [Equation 5] is an example of an expression for calculating the matching reliability M_R. M_B is a matching evaluation value, and N is a search window size. As described above, when the parallax calculation unit 202 calculates the parallax by SAD of N = 11, the matching evaluation value M_B is a value from 0 to 30855. By dividing the matching evaluation value M_B by N 2 (= 121) which is the total number of pixels of the search window, the averaged matching evaluation value (the second term on the right side of [Formula 5]) is a value between 0 and 255. Become. As the averaged matching evaluation value is closer to 0, the evaluation of matching is higher. Similarly to the feature point reliability I_R, a value obtained by subtracting the averaged matching evaluation value from 255 is set as the matching reliability M_R so that 255 becomes the maximum value.

[数6]は、計測誤差信頼度E_Rの算出式の一例である。Eは特徴点位置の計測誤差、E_minは計測範囲に指定した範囲のうち最小となる計測誤差、E_maxは計測範囲に指定した範囲のうち最大となる計測誤差である。例えば、仕様として計測できる範囲がZ=2000mm〜5000mmと設定され、焦点距離fが75mm、画素ピッチ量Pが0.0005mm/pixel、視差計測精度Npが1pixelの場合を考える。[数3]より、最小計測誤差E_min、最大計測誤差E_maxはそれぞれ0.133、0.333となる。計測誤差信頼度E_Rは、計測誤差Eが最小計測誤差E_minと等しいとき255の値となり、最大計測誤差E_maxと等しいとき0の値となる。   [Equation 6] is an example of an equation for calculating the measurement error reliability E_R. E is the measurement error of the feature point position, E_min is the smallest measurement error in the range designated as the measurement range, and E_max is the largest measurement error in the range designated as the measurement range. For example, consider a case where the range that can be measured as specifications is set to Z = 2000 mm to 5000 mm, the focal length f is 75 mm, the pixel pitch amount P is 0.0005 mm / pixel, and the parallax measurement accuracy Np is 1 pixel. From [Equation 3], the minimum measurement error E_min and the maximum measurement error E_max are 0.133 and 0.333, respectively. The measurement error reliability E_R is a value of 255 when the measurement error E is equal to the minimum measurement error E_min, and is a value of 0 when it is equal to the maximum measurement error E_max.

[数7]は、統合信頼度S_Rの算出式の一例である。CI、CM、CEはそれぞれ任意の加重平均係数となる。すなわち、統合信頼度S_Rは、特徴点信頼度I_R、マッチング信頼度M_R、および計測誤差信頼度E_Rの加重平均値となる。重み付けの値を外部入出力部105からユーザに入力させるようにし、その値を保存部104に保持するようにしておいてもよいし、各信頼度のうち、最小の信頼度を統合信頼度S_Rとして選択するような構成とすることもできる。なお、[数7]によって統合信頼度S_Rを算出する場合の重み付けは、CEの重みがCIおよびCMの重みよりも大きくなるように設定することが好適である。これは、特徴点信頼度I_Rおよびマッチング信頼度M_Rは被写体が前方に来るほど下がる傾向があり、逆に計測誤差信頼度E_Rは被写体が前方に来るほど上がる傾向がある。そのため「CI+CM」と「CE」のバランスをとるように設定することが望ましい。例えば、CI+CM=CE=0.5となるように設定する。   [Expression 7] is an example of a formula for calculating the integrated reliability S_R. CI, CM, and CE are arbitrary weighted average coefficients. That is, the integrated reliability S_R is a weighted average value of the feature point reliability I_R, the matching reliability M_R, and the measurement error reliability E_R. The weighting value may be input to the user from the external input / output unit 105, and the value may be stored in the storage unit 104. Among the reliability levels, the minimum reliability level is the integrated reliability level S_R. It can also be set as the structure selected as. Note that the weighting in the case of calculating the integrated reliability S_R by [Equation 7] is preferably set so that the CE weight is larger than the CI and CM weights. This is because the feature point reliability I_R and the matching reliability M_R tend to decrease as the subject moves forward, and conversely, the measurement error reliability E_R tends to increase as the subject moves forward. Therefore, it is desirable to set so that “CI + CM” and “CE” are balanced. For example, CI + CM = CE = 0.5 is set.

CI+CM=CE=0.5となるように設定すると、統合信頼度S_R(X,Y,Z)は0〜255の値となり、255に近づくほど、信頼度が高いことを示す。エッジの強度が高く、マッチング強度が高く、かつ特徴点位置の計測誤差が小さい位置ほど信頼度が高くなることになる。
信頼度算出部204は、特徴点の座標情報X,Y,Zと、以上によって算出された各座標に対する統合信頼度S_R(X,Y,Z)の値と、を特徴点情報保持部205に送る。
When setting so that CI + CM = CE = 0.5, the integrated reliability S_R (X, Y, Z) is a value of 0 to 255, and the closer to 255, the higher the reliability. The higher the edge strength, the higher the matching strength, and the smaller the measurement error of the feature point position, the higher the reliability.
The reliability calculation unit 204 stores the coordinate information X, Y, Z of the feature point and the value of the integrated reliability S_R (X, Y, Z) for each coordinate calculated as described above in the feature point information holding unit 205. send.

特徴点情報保持部205は、信頼度算出部204からの特徴点の座標情報X,Y,Zと統合信頼度S_R(X,Y,Z)とを一時的に保持し、次の撮影時に利用する。また、その都度の撮影に対する信頼度データとして、信頼度算出部204からの情報を保存部104に送り、データを逐次保存するように構成できる。   The feature point information holding unit 205 temporarily holds the feature point coordinate information X, Y, Z and the integrated reliability S_R (X, Y, Z) from the reliability calculation unit 204 and uses them at the next photographing. To do. In addition, as reliability data for each shooting, information from the reliability calculation unit 204 can be sent to the storage unit 104 and the data can be stored sequentially.

3次元位置確定部206は、予備撮影時には、特に処理をする必要はない。   The three-dimensional position determination unit 206 does not need to perform any particular processing during preliminary shooting.

以上のようにして、予備撮影時の画像処理が行われる。予備撮影時の画像処理結果(3次元位置測定の結果、信頼度、処理画像など)については、保存部104に保存されるが、表示部103において逐次表示したり、外部入出力部105を経由して外部装置に送信したりすることができる。   As described above, image processing at the time of preliminary shooting is performed. Image processing results at the time of preliminary photographing (results of three-dimensional position measurement, reliability, processed images, etc.) are stored in the storage unit 104, but are sequentially displayed on the display unit 103 or via the external input / output unit 105. Can be transmitted to an external device.

続いて、所望撮影時の画像処理について説明する。所望撮影時の画像処理に際して、画像処理部102が備える特徴点検出部201と視差算出部202と3次元位置情報算出部203と信頼度算出部204と特徴点情報保持部205とは、予備撮影時の画像処理と同様の処理を行うことで、所望撮影における各特徴点の座標情報X’,Y’,Z’と、各座標に対する統合信頼度S_R(X’,Y’,Z’)を得る。   Next, image processing during desired shooting will be described. In image processing at the time of desired shooting, the feature point detection unit 201, the parallax calculation unit 202, the three-dimensional position information calculation unit 203, the reliability calculation unit 204, and the feature point information holding unit 205 included in the image processing unit 102 are preliminarily shot. By performing the same processing as the image processing at that time, the coordinate information X ′, Y ′, Z ′ of each feature point in the desired photographing and the integrated reliability S_R (X ′, Y ′, Z ′) for each coordinate are obtained. obtain.

3次元位置確定部206は、特徴点情報保持部205から、予備撮影における特徴点の座標情報X,Y,Zと、その統合信頼度S_R(X,Y,Z)と、所望撮影における特徴点の座標情報X’,Y’,Z’と、その統合信頼度S_R(X’,Y’,Z’)と、を受け取り、3次元位置情報を確定する。   The three-dimensional position determination unit 206 receives coordinate information X, Y, and Z of feature points in preliminary shooting, their integrated reliability S_R (X, Y, Z), and feature points in desired shooting from the feature point information holding unit 205. Coordinate information X ′, Y ′, Z ′ and its integrated reliability S_R (X ′, Y ′, Z ′) are received, and the three-dimensional position information is determined.

予備撮影における特徴点の座標情報X,Y,Zと、所望撮影における特徴点の座標情報X’,Y’,Z’は、撮像装置座標系Cにおける座標データであり、このままでは特徴点同士を比較することができない。そこで、図6に示すように、[数8]〜[数11]を用いて、被写体座標系Lへの座標変換を行う。   The coordinate information X, Y, Z of the feature points in the preliminary shooting and the coordinate information X ′, Y ′, Z ′ of the feature points in the desired shooting are coordinate data in the image pickup apparatus coordinate system C. Cannot be compared. Therefore, as shown in FIG. 6, coordinate transformation to the subject coordinate system L is performed using [Equation 8] to [Equation 11].

ここで、XL1、YL1、ZL1は、予備撮影における被写体座標系Lでの座標値、XL2、YL2、ZL2は、所望撮影における被写体座標系Lでの座標値、r11、r12、r13、r21、r22、r23、r31、r32、r33は、予備撮影における被写体座標系Lへの回転行列係数、r11’、r12’、r13’、r21’、r22’、r23’、r31’、r32’、r33’は、所望撮影における被写体座標系Lへの回転行列係数、tx、ty、tzは、予備撮影における被写体座標系Lへの並進ベクトル係数、tx’、ty’、tz’は、所望撮影における被写体座標系Lへの並進ベクトル係数である。[数9]および[数11]におけるRTおよびRTは、撮像装置座標系Cから被写体座標系Lへの変換行列であり、[数12]および[数13]に示すように、その逆行列を用いることで、被写体座標系Lから撮像装置座標系Cへの逆変換を行うことができる。したがって、被写体座標系Lにおける座標値から、撮像装置座標系Cにおける被写体特徴点までの3次元位置情報を得ることができるため、被写体座標系Lにおける座標値を確定することによって、撮像装置座標系Cにおける被写体特徴点までの3次元位置情報も確定されることとなる。 Here, X L1 , Y L1 , and Z L1 are coordinate values in the subject coordinate system L in preliminary shooting, X L2 , Y L2 , and Z L2 are coordinate values in the subject coordinate system L in desired shooting, r 11 , r 12 , r 13 , r 21 , r 22 , r 23 , r 31 , r 32 , r 33 are rotation matrix coefficients to the subject coordinate system L in the preliminary shooting, r 11 ′, r 12 ′, r 13 ′, r 21 ′, r 22 ′, r 23 ′, r 31 ′, r 32 ′, r 33 ′ are rotation matrix coefficients to the subject coordinate system L in the desired shooting, and tx, ty, tz are the subject coordinates in the preliminary shooting. The translation vector coefficients tx ′, ty ′, and tz ′ to the system L are translation vector coefficients to the subject coordinate system L in the desired shooting. RT 1 and RT 2 in [Equation 9] and [Equation 11] are transformation matrices from the imaging apparatus coordinate system C to the subject coordinate system L, and vice versa as shown in [Equation 12] and [Equation 13]. By using the matrix, the inverse transformation from the subject coordinate system L to the imaging device coordinate system C can be performed. Therefore, since the three-dimensional position information from the coordinate value in the subject coordinate system L to the subject feature point in the imaging device coordinate system C can be obtained, by determining the coordinate value in the subject coordinate system L, the imaging device coordinate system The three-dimensional position information up to the subject feature point in C is also determined.

以上の変換によって得られた被写体座標系Lにおける夫々の座標値およびその統合信頼度S_Rを用いて、所望撮影における座標値を確定する。続いて、確定方法について説明する。   Using each coordinate value in the subject coordinate system L obtained by the above conversion and its integrated reliability S_R, a coordinate value in the desired shooting is determined. Next, the determination method will be described.

図7は、3次元位置確定部206における動作の一例を示すフローチャートである。
ステップS701においては、被写体座標系における特徴点(注目点)を選択する。注目点は、例えば、特徴点を信頼度の高い順に並べた注目点リストを作成しておき、信頼度の高い特徴点から注目点として指定する。このとき、注目点リストにリストアップする特徴点は、所望撮影時の特徴点のみであってもよいが、予備撮影時の特徴点も併せてリストアップしておくことで、所望撮影時には検出できなかった信頼度の高い特徴点を得ることができるため好適である。また、閾値を設定し、信頼度の低い特徴点(閾値未満の特徴点)はリストアップしないことで、一定の信頼度を持つ情報のみをユーザに提示するように構成することもできる。
FIG. 7 is a flowchart illustrating an example of the operation in the three-dimensional position determination unit 206.
In step S701, a feature point (attention point) in the subject coordinate system is selected. As the attention point, for example, an attention point list in which feature points are arranged in descending order of reliability is created, and the attention point is designated as the attention point from the feature points having high reliability. At this time, the feature points listed in the attention point list may be only the feature points at the time of desired shooting. However, if the feature points at the time of preliminary shooting are also listed, they can be detected at the time of desired shooting. Since it is possible to obtain feature points with high reliability that were not present, it is preferable. Further, by setting a threshold value and not listing feature points with low reliability (feature points less than the threshold value), it is also possible to present only information having a certain reliability level to the user.

ステップS702においては、予備撮影時の特徴点および所望撮影時の特徴点の中から、比較点を選択する。具体的には、ステップS701において選択された特徴点(注目点)から任意の3次元距離範囲内にある特徴点を比較対象(比較点)として選択する。例えば、図8(a)に示すように、特徴点P(注目点P)における任意の3次元距離範囲R内に含まれる特徴点Qを比較対象として選択する。図8(b)に示すように、3次元距離範囲R内に特徴点が存在しない場合は、“比較対象(比較点)なし”とする。図8(c)に示すように、3次元距離範囲R内に複数の特徴点が存在する場合は、複数の特徴点全て(図8(c)に示す例の場合、特徴点Q1と特徴点Q2との両方)を比較対象として選択する。ここで、3次元距離範囲Rは、例えば、距離測定装置100の測定精度範囲もしくは許容誤差に基づき設定する。例えば、測定精度が0.1mmであった場合、3次元距離範囲Rを0.1mmにすると、測定精度単位で、信頼度の高い特徴点座標データを得ることができるため、好適である。   In step S702, a comparison point is selected from the feature points at the time of preliminary shooting and the feature points at the time of desired shooting. Specifically, a feature point within an arbitrary three-dimensional distance range from the feature point (attention point) selected in step S701 is selected as a comparison target (comparison point). For example, as shown in FIG. 8A, a feature point Q included in an arbitrary three-dimensional distance range R at the feature point P (attention point P) is selected as a comparison target. As shown in FIG. 8B, when there is no feature point within the three-dimensional distance range R, “no comparison object (comparison point)” is set. As shown in FIG. 8C, when there are a plurality of feature points within the three-dimensional distance range R, all of the plurality of feature points (in the case of the example shown in FIG. 8C, the feature points Q1 and the feature points). Q2) and both) are selected for comparison. Here, the three-dimensional distance range R is set based on, for example, the measurement accuracy range or allowable error of the distance measuring device 100. For example, when the measurement accuracy is 0.1 mm, it is preferable to set the three-dimensional distance range R to 0.1 mm because highly reliable feature point coordinate data can be obtained in units of measurement accuracy.

ステップS703においては、ステップS701において選択された特徴点(注目点)と、ステップS702において選択された特徴点(比較点)と、の夫々の信頼度を比較する。
ステップS704においては、ステップS703における比較結果に基づき、特徴点(注目点)の座標値を確定する。
In step S703, the reliability of the feature point (attention point) selected in step S701 and the feature point (comparison point) selected in step S702 are compared.
In step S704, the coordinate value of the feature point (attention point) is determined based on the comparison result in step S703.

例えば、図8(a)のように、1つの比較対象(特徴点Q)が見つかった場合、特徴点Pにおける統合信頼度S_Rと特徴点Qにおける統合信頼度S_Rを比較し、信頼度の高い特徴点を、確定後特徴点P’とする。もしくは、[数14]、[数15]に示すように夫々の信頼度を重みとして確定後特徴点P’とその信頼度を求めるようにしてもよい。 For example, as shown in FIG. 8A, when one comparison target (feature point Q) is found, the integrated reliability S_RP at the feature point P and the integrated reliability S_RQ at the feature point Q are compared, and the reliability A feature point having a high value is defined as a post-determined feature point P ′. Alternatively, as shown in [Equation 14] and [Equation 15], the determined feature point P ′ and its reliability may be obtained using the respective reliability as weights.

ここで、Xp’,Yp’,Zp’は確定後特徴点P’の座標値、Xp,Yp,Zpは特徴点Pの座標値、Xq,Yq,Zqは特徴点Qの座標値、S_RP’は確定後特徴点P’に対する確定後信頼度(確定後統合信頼度)である。
また、例えば、図8(b)のように、“比較対象なし”の場合、P’=Pとし、特に確定を行わない。
また、例えば、図8(c)のように、複数の比較対象(特徴点Q1およびQ2)が見つかった場合は、図8(a)と同様にして、特徴点P、特徴点Q1、特徴点Q2のうち最も信頼度の高い特徴点を確定後特徴点P’としてもよいし、信頼度を重みとして確定後特徴点P’とその信頼度を求めるようにしてもよい。
Here, Xp ′, Yp ′, and Zp ′ are the coordinate values of the determined feature point P ′, Xp, Yp, and Zp are the coordinate values of the feature point P, Xq, Yq, and Zq are the coordinate values of the feature point Q, and S_R P ' Is the post-determining reliability (post-determined integrated reliability) for the post-determining feature point P'
Further, for example, as shown in FIG. 8B, in the case of “no comparison object”, P ′ = P and no particular determination is performed.
For example, as shown in FIG. 8C, when a plurality of comparison targets (feature points Q1 and Q2) are found, the feature point P, the feature point Q1, and the feature point are the same as in FIG. 8A. The feature point with the highest reliability in Q2 may be set as the feature point P ′ after determination, or the feature point P ′ after determination and the reliability thereof may be obtained using the reliability as a weight.

次いで、3次元位置確定部206は、求めた確定後特徴点P’の座標値とその信頼度S_RP’とを保存部104に送り、比較対象として選択された特徴点を注目点リストから削除する。
そして、3次元位置確定部206は、全ての注目点についてステップS701〜ステップS704の処理を行い、特徴点座標を確定する。
Next, the three-dimensional position determining unit 206 sends the obtained coordinate value of the post-determined feature point P ′ and its reliability S_RP to the storage unit 104, and deletes the feature point selected for comparison from the attention point list. To do.
Then, the three-dimensional position determination unit 206 performs the processing from step S701 to step S704 for all attention points to determine the feature point coordinates.

以上のように、被写体座標系Lにおける特徴点座標を保持することにより、距離測定装置100は、特徴点間の距離(被写体上の2点間の距離や、被写体間の距離など)を算出することができる。ここで、被写体上(被写体表面上)の2点間の距離とは、被写体の厚みや幅などである。また、距離測定装置100は、前述の通り[数13]に基づき撮像装置座標系Cへの座標変換を行うことによって、撮像装置からの距離に変換して、保存部104に送るように構成することで、撮像装置から被写体までの距離を算出することができる。   As described above, by holding the feature point coordinates in the subject coordinate system L, the distance measuring device 100 calculates the distance between feature points (the distance between two points on the subject, the distance between subjects, etc.). be able to. Here, the distance between two points on the subject (on the subject surface) is the thickness and width of the subject. Further, the distance measuring apparatus 100 is configured to convert the distance from the imaging apparatus by performing coordinate conversion to the imaging apparatus coordinate system C based on [Equation 13] as described above, and send the distance to the storage unit 104. Thus, the distance from the imaging device to the subject can be calculated.

なお、以上の説明においては、被写体が動いていることを想定して説明したが、被写体は静止した状態で距離測定装置100が動いた場合においても、相対的には移動が生じているため適応可能である。
また、以上の説明においては、2回撮影する場合について説明したが、予備撮影を複数回行うこともできるし、現在フレームにおける画像を所望撮影で得られた撮影画像、それよりも以前のフレームにおける画像を予備撮影で得られた撮影画像とみなして処理することにより、動画像において逐次距離測定するように構成することもできることは容易に想定することができる。
In the above description, the description is given on the assumption that the subject is moving. However, even when the distance measuring device 100 moves while the subject is stationary, the subject is adapted because the movement is relatively generated. Is possible.
In the above description, the case of shooting twice has been described. However, preliminary shooting can be performed a plurality of times, or an image in the current frame can be obtained in a desired image, and an earlier frame can be obtained. It can be easily assumed that a distance can be measured successively in a moving image by processing the image as a captured image obtained by preliminary shooting.

以上の構成によって、撮影空間中を動いている被写体を複数回撮影し、複数回の撮影で得られた撮影画像それぞれの特徴点座標およびその信頼度を求め、当該特徴点座標および信頼度に基づいて所望の撮影タイミングにおける撮影画像の特徴点座標を確定することで、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)と、その信頼度と、を測定することのできる距離測定装置および距離測定方法を提供することができる。   With the above configuration, the subject moving in the shooting space is shot a plurality of times, and the feature point coordinates and the reliability of each of the shot images obtained by the plurality of shootings are obtained, and based on the feature point coordinates and the reliability. By determining the feature point coordinates of the photographed image at a desired photographing timing, the distance (distance from the imaging device to the subject, the distance between two points on the subject, or the distance between subjects), and its reliability, It is possible to provide a distance measuring device and a distance measuring method capable of measuring the distance.

以上説明した第1の実施の形態の距離測定装置100によれば、経時的に複数の撮影画像を取得する撮像部101と、複数の撮影画像における被写体上の点を検出する被写体点検出部(特徴点検出部201)と、被写体上の点の3次元位置を算出する3次元位置算出部(3次元位置情報算出部203)と、を備えた距離測定装置であって、算出された3次元位置の信頼度(統合信頼度S_R)を算出する信頼度算出部204と、算出された3次元位置を確定する3次元位置確定部206と、を更に備え、3次元位置確定部206は、複数の撮影画像における被写体上の任意の注目点の3次元位置を、注目点から任意の範囲内に存在する、複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。そして、距離測定装置100は、3次元位置確定部206によって確定された3次元位置に基づいて距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出するように構成されている。   According to the distance measuring apparatus 100 of the first embodiment described above, the imaging unit 101 that acquires a plurality of photographed images over time, and a subject point detection unit that detects points on the subject in the plurality of photographed images ( A distance measuring device including a feature point detection unit 201) and a three-dimensional position calculation unit (three-dimensional position information calculation unit 203) that calculates a three-dimensional position of a point on the subject, the calculated three-dimensional A reliability calculation unit 204 that calculates position reliability (integrated reliability S_R), and a three-dimensional position determination unit 206 that determines the calculated three-dimensional position are further provided. Based on the three-dimensional position of an arbitrary comparison point on the subject in a plurality of captured images and the reliability thereof, the three-dimensional position of the arbitrary attention point on the subject in the captured image To confirm It is configured. Then, the distance measuring device 100 calculates a distance (a distance from the imaging device to the subject, a distance between two points on the subject, or a distance between subjects) based on the three-dimensional position determined by the three-dimensional position determining unit 206. It is configured to calculate.

したがって、確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。
ここで、経時的に取得される「複数の撮影画像」とは、予備撮影で得られた撮影画像および所望撮影で得られた撮影画像である。
なお、撮像部101が1回の撮影で取得する撮影画像は、左画像および右画像に限ることはなく、互いに視差を有する撮影画像であればよい。
Therefore, since the distance (distance from the imaging device to the subject, distance between two points on the subject, or distance between subjects) can be calculated based on the determined three-dimensional position, measurement with higher reliability can be performed. A distance result can be obtained.
Here, “a plurality of photographed images” acquired over time are a photographed image obtained by preliminary photographing and a photographed image obtained by desired photographing.
Note that the captured image acquired by the imaging unit 101 in one shooting is not limited to the left image and the right image, and may be any captured image having parallax.

また、第1の実施の形態の距離測定装置100によれば、比較点は複数点であり、かつ、少なくとも1点は、注目点の存在する撮影画像とは異なる画像から検出されたものであるように構成することが可能である。   Further, according to the distance measuring apparatus 100 of the first embodiment, there are a plurality of comparison points, and at least one point is detected from an image different from the captured image where the point of interest exists. It can be configured as follows.

このように構成することによって、より信頼度の高い測距結果を得ることができる。   With such a configuration, it is possible to obtain a distance measurement result with higher reliability.

また、第1の実施の形態の距離測定装置100によれば、信頼度(統合信頼度S_R)は、被写体までの距離による理論誤差に基づく信頼度であるように構成することができる。
具体的には、前述したように、特徴点信頼度I_Rおよびマッチング信頼度M_Rは被写体が前方に来るほど(すなわち、距離が近づくほど)下がる傾向があり、逆に計測誤差信頼度E_Rは被写体が前方に来るほど(すなわち、距離が近づくほど)上がる傾向がある。そして、統合信頼度S_Rは、特徴点信頼度I_R、マッチング信頼度M_R、および計測誤差信頼度E_Rに基づき算出されるので、被写体までの距離による理論誤差に基づく信頼度とすることができる。
Further, according to the distance measuring apparatus 100 of the first embodiment, the reliability (integrated reliability S_R) can be configured to be a reliability based on a theoretical error due to the distance to the subject.
Specifically, as described above, the feature point reliability I_R and the matching reliability M_R tend to decrease as the subject moves forward (that is, as the distance decreases), and conversely, the measurement error reliability E_R is determined by the subject. There is a tendency to go up as it moves forward (that is, as the distance gets closer). Since the integrated reliability S_R is calculated based on the feature point reliability I_R, the matching reliability M_R, and the measurement error reliability E_R, the integrated reliability S_R can be a reliability based on a theoretical error due to the distance to the subject.

このように構成することによって、被写体までの距離による理論誤差を考慮して確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。   With this configuration, the distance (the distance from the imaging device to the subject, the distance between two points on the subject, or the distance between subjects is determined based on the three-dimensional position determined in consideration of the theoretical error due to the distance to the subject. Distance) can be calculated, so that a more reliable distance measurement result can be obtained.

また、以上説明した第1の実施の形態における距離測定方法によれば、経時的に複数の撮影画像を取得する撮像部101によって被写体を撮影する撮影工程と、撮影画像における被写体上の点を検出する検出工程と、被写体上の点の3次元位置を算出する3次元位置算出工程と、算出された3次元位置の信頼度を算出する信頼度算出工程と、算出された3次元位置を確定する確定工程と、確定した3次元位置に基づいて、被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離を算出する算出工程と、を有し、確定工程では、複数の撮影画像における被写体上の任意の注目点の3次元位置を、注目点から任意の範囲内に存在する、複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。   In addition, according to the distance measuring method in the first embodiment described above, a photographing process of photographing a subject by the imaging unit 101 that acquires a plurality of photographed images over time, and a point on the subject in the photographed image is detected. A detecting step for calculating, a three-dimensional position calculating step for calculating a three-dimensional position of a point on the subject, a reliability calculating step for calculating a reliability of the calculated three-dimensional position, and a determined three-dimensional position. And a calculation step for calculating a distance to the subject, a distance between two points on the subject, or a distance between the subjects based on the determined three-dimensional position. The three-dimensional position of an arbitrary point of interest on the subject in the image is determined based on the three-dimensional position of an arbitrary comparison point on the subject in a plurality of photographed images that exists within an arbitrary range from the target point and its reliability. It is configured so that.

したがって、確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。   Therefore, since the distance (distance from the imaging device to the subject, distance between two points on the subject, or distance between subjects) can be calculated based on the determined three-dimensional position, measurement with higher reliability can be performed. A distance result can be obtained.

<第2の実施の形態>:動きボケの推定
本実施の形態においては、動きボケを考慮した特徴点検出フィルタの設定方法に関して説明する。具体的には、複数回の撮影で得られた撮影画像から、被写体速度を予測することで、所望撮影における動きボケを推定し、動きボケに応じて特徴点検出フィルタのサイズや形状を変更し、特徴点を適切に検出する方法について説明する。
Second Embodiment: Motion Blur Estimation In this embodiment, a feature point detection filter setting method that takes motion blur into account will be described. Specifically, by estimating the subject speed from captured images obtained by multiple shootings, the motion blur in the desired shooting is estimated, and the size and shape of the feature point detection filter are changed according to the motion blur. A method for appropriately detecting feature points will be described.

本実施の形態における画像処理部102は、図9に示すように、第1の実施の形態における構成(図2)に加え、複数回の撮影結果から動きボケを推定する動きボケ推定部901をさらに具備するように構成される。
動きボケ推定部901における動作の一例について、図10〜図12を用いて説明する。
As shown in FIG. 9, the image processing unit 102 in the present embodiment includes a motion blur estimation unit 901 that estimates motion blur from a plurality of shooting results in addition to the configuration in the first embodiment (FIG. 2). Furthermore, it comprises so that it may comprise.
An example of the operation in the motion blur estimation unit 901 will be described with reference to FIGS.

ステップS1001において、動きボケ推定部901は、複数回の撮影によって得られた夫々の特徴点位置から所望撮影時の速度を予測する。
ここで、具体的な一例として、1度の予備撮影の測定結果と所望撮影の暫定の測定結果とに基づき、速度を予測する方法について説明する。図11に示すように、任意の予備撮影3次元座標(X1,Y1,Z1)を選択し、その予備撮影3次元座標に対応する画像座標(u1,v1)を探索開始位置とし、例えば一般的な動きベクトル検出の手段と同様にして、所望撮影で得られた撮影画像における対応座標(画像座標(u2,v2))を探索する。画像座標(u2,v2)に対応する3次元座標(所望撮影3次元座標(X2,Y2,Z2))と予備撮影3次元座標(X1,Y1,Z1)のユークリッド距離および予備撮影と所望撮影との撮影時間間隔に基づいて、速度ベクトルを算出することができる。なお、3次元座標から画像座標への変換は、[数1]、[数12]、[数13]、および[数16]を利用することで変換できる。
In step S <b> 1001, the motion blur estimation unit 901 predicts a desired shooting speed from each feature point position obtained by multiple shootings.
Here, as a specific example, a method for predicting the speed based on the measurement result of one preliminary shooting and the provisional measurement result of desired shooting will be described. As shown in FIG. 11, an arbitrary preliminary photographing three-dimensional coordinate (X1, Y1, Z1) is selected, and the image coordinates (u1, v1) corresponding to the preliminary photographing three-dimensional coordinate are set as a search start position. In the same manner as the motion vector detection means, the corresponding coordinates (image coordinates (u2, v2)) in the captured image obtained by the desired imaging are searched. The three-dimensional coordinates (desired photographing three-dimensional coordinates (X2, Y2, Z2)) corresponding to the image coordinates (u2, v2) and the Euclidean distance of the preliminary photographing three-dimensional coordinates (X1, Y1, Z1), and the preliminary photographing and the desired photographing. The velocity vector can be calculated based on the shooting time interval. The conversion from the three-dimensional coordinates to the image coordinates can be performed by using [Equation 1], [Equation 12], [Equation 13], and [Equation 16].

ここで、(u,v)は画像座標、(X,Y,Z)は3次元座標、fは焦点距離、xo,yoは画像素子の中心座標から画像座標(0,0)に対応する画像素子座標のオフセット、pw,phは画像素子1画素の幅および高さである。   Here, (u, v) are image coordinates, (X, Y, Z) are three-dimensional coordinates, f is a focal length, xo, yo are images corresponding to image coordinates (0, 0) from the center coordinates of the image element. The element coordinate offsets pw and ph are the width and height of one pixel of the image element.

ステップS1002において、動きボケ推定部901は、ステップS1001において得られた速度ベクトル情報に基づき、動きボケベクトルを推定する。動きボケ推定部901は、保存部104から撮像装置のシャッター速度情報を受け取り、図12に示すように、所望撮影3次元座標(X2,Y2,Z2)がシャッター速度間に移動した後の3次元座標(X3,Y3,Z3)を算出する。3次元座標(X2,Y2,Z2)および(X3,Y3,Z3)を、それぞれに対応する画像座標(u2,v2)および(u3,v3)に座標変換し、画像座標(u2,v2)および(u3,v3)の距離から動きボケベクトルを推定する。   In step S1002, the motion blur estimation unit 901 estimates a motion blur vector based on the velocity vector information obtained in step S1001. The motion blur estimation unit 901 receives the shutter speed information of the imaging apparatus from the storage unit 104, and the three-dimensional after the desired shooting three-dimensional coordinates (X2, Y2, Z2) move between the shutter speeds as shown in FIG. The coordinates (X3, Y3, Z3) are calculated. Three-dimensional coordinates (X2, Y2, Z2) and (X3, Y3, Z3) are transformed into corresponding image coordinates (u2, v2) and (u3, v3), respectively, and image coordinates (u2, v2) and A motion blur vector is estimated from the distance (u3, v3).

ステップS1003において、動きボケ推定部901は、ステップS1002において得られた動きボケの情報に基づき、フィルタサイズの変更情報を生成し、特徴点検出部201に送る。例えば、動きボケのサイズ(2点間距離)が3画素であったとき、また、元の特徴点座標(所望撮影3次元座標(X2,Y2,Z2))は動きボケ範囲の中心であったと仮定すれば、動きボケの総量は6画素程度になっていることが考えられる。そこで、動きボケ範囲+周囲1画素として、フィルタサイズの変更情報として8×8画素の情報を生成し、特徴点検出部201に送信する。   In step S1003, the motion blur estimation unit 901 generates filter size change information based on the motion blur information obtained in step S1002, and sends the filter size change information to the feature point detection unit 201. For example, when the size of motion blur (distance between two points) is 3 pixels, the original feature point coordinates (desired shooting three-dimensional coordinates (X2, Y2, Z2)) are the center of the motion blur range. Assuming that the total amount of motion blur is about 6 pixels. Therefore, 8 × 8 pixel information is generated as change information of the filter size as the motion blur range + one surrounding pixel, and is transmitted to the feature point detection unit 201.

以上の方法は、特に動きボケベクトルの方向成分が、Z軸方向(撮像装置の光軸方向)に大きい場合に好適である。一方、動きボケベクトルの方向成分が、主にX軸方向に大きい場合、フィルタをX軸方向に変形(例えば、3×8)し、動きボケベクトルの方向成分が、主にY軸方向に大きい場合、フィルタをY軸方向に変形(例えば、8×3)するようにするとよい。例えば、X軸方向に大きく動きボケが発生していた場合、Y軸方向への特徴点の影響は少ないと想定することができる。したがって、このように、フィルタのサイズ変形(拡大)方向を制限することによって、計算量を削減することができる。   The above method is particularly suitable when the direction component of the motion blur vector is large in the Z-axis direction (the optical axis direction of the imaging device). On the other hand, when the direction component of the motion blur vector is mainly large in the X-axis direction, the filter is deformed in the X-axis direction (for example, 3 × 8), and the direction component of the motion blur vector is mainly large in the Y-axis direction. In this case, the filter may be deformed in the Y axis direction (for example, 8 × 3). For example, when a large motion blur occurs in the X-axis direction, it can be assumed that the influence of the feature points in the Y-axis direction is small. Therefore, the amount of calculation can be reduced by limiting the size deformation (enlargement) direction of the filter in this way.

以上においては、任意の3次元座標として1点を指定し、画像上のマッチング点から所望タイミングにおける例について説明したが、例えば、被写体の複数の特徴点の重心位置の移動量から速度を予測するようにしてもよい。しかしながら、動きボケを含む特徴点情報となるため、必ずしも精度の高い特徴点位置を検出できていない可能性があり、動きボケ方向が推定できているとは限らない。そこで、動きボケベクトルの大きさを無視し、動きボケベクトルの方向に応じて、任意のステップサイズ(例えば、1画素拡大)で、フィルタサイズの拡大や変形を行うように構成すると、判定処理のみで対応できるため、処理を単純化することができる。   In the above, one point is designated as an arbitrary three-dimensional coordinate, and the example at the desired timing from the matching point on the image has been described. For example, the speed is predicted from the movement amount of the center of gravity position of a plurality of feature points of the subject. You may do it. However, since the feature point information includes motion blur, there is a possibility that the feature point position with high accuracy is not necessarily detected, and the motion blur direction is not always estimated. Therefore, if the configuration is such that the size of the motion blur vector is ignored and the filter size is enlarged or deformed at an arbitrary step size (for example, enlargement of one pixel) according to the direction of the motion blur vector, only the determination process is performed. Can be handled, so the processing can be simplified.

特徴点検出部201は、フィルタサイズの変更情報を受け取り、再度、所望撮影で得られた撮影画像に対する特徴点を検出することで、より信頼度の高い特徴点情報を得ることができるようになる。   The feature point detection unit 201 receives the filter size change information, and again detects feature points with respect to the captured image obtained by the desired imaging, so that feature point information with higher reliability can be obtained. .

以上の説明においては、予備撮影と所望撮影の測定結果から、所望撮影の特徴点を再検出する構成であるが、例えば図13に示すように、予備撮影として2回撮影(予備撮影A、予備撮影B)しておき、予備撮影Bにおける速度ベクトルを算出し、当該の速度ベクトルと所望撮影までの撮影時間間隔に基づき、所望撮影時の3次元位置およびシャッター後の3次元位置を予測することで、動きボケを推定し、所望撮影時のフィルタサイズ・形状を予め設定しておくようにすることで、予備撮影Bの位置と等速度もしくは等加速度運動と仮定できる場合に、動きボケベクトルをより正確に推定することができる構成となる。   In the above description, the feature point of the desired shooting is re-detected from the measurement results of the preliminary shooting and the desired shooting. For example, as shown in FIG. Shooting B), calculating a velocity vector in preliminary shooting B, and predicting a three-dimensional position at the time of desired shooting and a three-dimensional position after the shutter based on the speed vector and a shooting time interval until the desired shooting. Thus, when the motion blur is estimated and the filter size and shape at the time of desired shooting are set in advance, the motion blur vector can be calculated when the position of the preliminary shooting B can be assumed to be equal to or the same acceleration motion. It becomes the structure which can be estimated more correctly.

以上の構成によって、複数回の撮影で得られた撮影画像から、被写体速度を予測することで、所望撮影における動きボケを推定し、動きボケに応じて特徴点検出フィルタのサイズや形状を変更することで、特徴点をより適切に検出して、撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離と、その信頼度と、を測定することのできる距離測定装置および距離測定方法を提供することができる。   With the above configuration, by estimating the subject speed from captured images obtained by multiple shootings, motion blur in desired shooting is estimated, and the size and shape of the feature point detection filter are changed according to the motion blur. Thus, it is possible to detect the feature point more appropriately and measure the distance from the imaging device to the subject, the distance between two points on the subject, or the distance between the subjects and the reliability thereof. An apparatus and a distance measurement method can be provided.

以上説明した第2の実施の形態の距離測定装置100によれば、複数の撮影画像(予備撮影で得られた撮影画像および所望撮影で得られた撮影画像)の各々に対応して算出された複数の3次元位置から撮像部101に対する被写体の移動方向を予測することで動きボケを推定する動きボケ推定部901を備え、動きボケ推定部901の推定結果に基づいて、注目点(特徴点)を検出する際に用いる注目点検出窓(特徴点検出フィルタ)のサイズおよび形状のうち、少なくとも一方を変更するように構成されている。   According to the distance measuring apparatus 100 of the second embodiment described above, calculation is performed corresponding to each of a plurality of photographed images (a photographed image obtained by preliminary photographing and a photographed image obtained by desired photographing). A motion blur estimation unit 901 that estimates motion blur by predicting the moving direction of the subject with respect to the imaging unit 101 from a plurality of three-dimensional positions, and based on the estimation result of the motion blur estimation unit 901, attention points (feature points) Is configured to change at least one of the size and shape of the target point detection window (feature point detection filter) used when detecting.

したがって、動きボケの影響を考慮して注目点を検出することができるので、注目点をより適切に検出することができ、より信頼度の高い測距結果を得ることができる。   Therefore, since the attention point can be detected in consideration of the influence of motion blur, the attention point can be detected more appropriately, and a ranging result with higher reliability can be obtained.

<第3の実施の形態>:ユーザによる指定
本実施の形態においては、ユーザが測定したい特徴点を指定するための表示手段および入力手段を有し、ユーザが指定した特徴点群のうち、各特徴点もしくはそれらの特徴点によってなされる直線、曲線、もしくは曲面(平面を含む)と、その誤差範囲と、に含まれる特徴点の計測結果のみを確定するように構成することで、計算量を削減する方法について説明する。また、信頼度の高い特徴点を強調表示(例えば、信頼度の高さに応じたサイズの丸印で囲む)することによって、ユーザに特徴点を指定しやすくさせるための表示方法について説明する。
<Third embodiment>: Specification by user In the present embodiment, each of the feature point groups designated by the user has a display means and an input means for designating a feature point that the user wants to measure. By configuring to determine only the measurement results of the feature points included in the feature points or the straight lines, curves, or curved surfaces (including planes) formed by those feature points and their error ranges, the amount of calculation is reduced. A method of reducing will be described. In addition, a display method for facilitating designation of feature points by the user by highlighting feature points with high reliability (for example, enclosing them with a circle having a size corresponding to the high reliability level) will be described.

本実施の形態における画像処理部102は、図14に示すように、第1の実施の形態における構成(図2)に加え、ユーザが特徴点を指定するための画像を生成する表示画像生成部1401と、ユーザの指定特徴点に基づき補正する特徴点群を選出する確定特徴点選出部1402と、をさらに具備するように構成される。
なお、第2の実施の形態における構成(図9)に加え、表示画像生成部1401と、確定特徴点選出部1402と、をさらに具備するように構成することも可能である。
As shown in FIG. 14, the image processing unit 102 according to the present embodiment has a display image generation unit that generates an image for the user to specify a feature point in addition to the configuration according to the first embodiment (FIG. 2). 1401 and a definite feature point selection unit 1402 that selects a feature point group to be corrected based on a user-specified feature point.
In addition to the configuration in the second embodiment (FIG. 9), a display image generation unit 1401 and a deterministic feature point selection unit 1402 can be further provided.

表示画像生成部1401は、ユーザが測定したい特徴点を指定するための画像を生成し、表示部103に送る。これにより、表示部103には、例えば図15に示すような画像が表示される。ここで、1501は撮影画像領域であり、1502が特徴点指定設定領域である。撮影画像領域1501には、撮影画像と、一定の信頼度以上となっている特徴点を囲む円と、が表示されている。ここでは、ユーザによって指定された特徴点を囲む円1504を実線で表し、一方、指定されていない特徴点を囲む円1503を破線で表している。また、円の大きさが大きいほど、信頼度の高い特徴点であることを示している。表示される特徴点の信頼度の閾値は、例えば、特徴点指定設定領域1502に表示されるGUI(例えば、スライドバー1505)によってユーザが指定することができる。さらに、ユーザは補間方法選択部1506によって補間方法を指定する。
そして、ユーザが計測ボタン1507を選択すると、ユーザに指定された特徴点およびそれらの特徴点によってなされる曲面等に接する特徴点の3次元位置の確定が行われる。
A display image generation unit 1401 generates an image for designating a feature point that the user wants to measure, and sends the generated image to the display unit 103. Thereby, for example, an image as shown in FIG. 15 is displayed on the display unit 103. Here, reference numeral 1501 denotes a captured image area, and reference numeral 1502 denotes a feature point designation setting area. In the photographed image area 1501, a photographed image and a circle surrounding a feature point having a certain reliability or higher are displayed. Here, a circle 1504 surrounding a feature point designated by the user is represented by a solid line, while a circle 1503 surrounding a feature point not designated is represented by a broken line. In addition, the larger the size of the circle, the higher the reliability of the feature point. The reliability threshold value of the feature point to be displayed can be designated by the user, for example, using a GUI (eg, slide bar 1505) displayed in the feature point designation setting area 1502. Further, the user designates an interpolation method using the interpolation method selection unit 1506.
When the user selects the measurement button 1507, the three-dimensional positions of the feature points specified by the user and the feature points in contact with the curved surface or the like formed by these feature points are determined.

確定特徴点選出部1402は、撮影画像領域1501において指定された特徴点と補間方法選択部1506によって指定された補間方法に基づき、直線推定、曲線推定、もしくは曲面(平面を含む)推定を行う。例えば図15に示す例の場合、指定された特徴点は3点(立方体の上面の4つの角のうちの3つ)であり、指定された補間方法は「平面」であるため、平面推定を行う。平面は、3点のうちの1つを原点とした場合になされる2つのベクトルの外積を算出することによって推定することができる。
続いて、確定特徴点選出部1402は、特徴点情報保持部205に保持された特徴点情報を参照して、推定した直線、曲線、もしくは曲面(平面を含む)に接する特徴点群を選出する。例えば平面推定を行った場合は、この平面に接する特徴点群を選出する。このとき、この平面から法線方向に一定の距離以内にある特徴点候補を選出する。この一定の距離とは、例えば、システムに要求される距離推定誤差範囲とし、例えば0.1mm以内に設定する。もしくは、距離が遠くなるほど、視差1ピクセルあたりの距離の推定誤差が大きくなるため、距離が遠くなるほど、範囲を広げるように構成すると好適である。
The definite feature point selection unit 1402 performs straight line estimation, curve estimation, or curved surface (including plane) estimation based on the feature points specified in the captured image region 1501 and the interpolation method specified by the interpolation method selection unit 1506. For example, in the case of the example shown in FIG. 15, the designated feature points are 3 points (3 out of 4 corners on the upper surface of the cube), and the designated interpolation method is “plane”. Do. The plane can be estimated by calculating the outer product of two vectors formed when one of the three points is the origin.
Subsequently, the definite feature point selection unit 1402 refers to the feature point information held in the feature point information holding unit 205 and selects a feature point group that touches the estimated straight line, curve, or curved surface (including a plane). . For example, when plane estimation is performed, a feature point group in contact with this plane is selected. At this time, feature point candidates within a certain distance in the normal direction from this plane are selected. The constant distance is, for example, a distance estimation error range required for the system, and is set within 0.1 mm, for example. Alternatively, since the estimation error of the distance per pixel of parallax increases as the distance increases, it is preferable that the range be expanded as the distance increases.

そして、このようにして選出された特徴点のみが3次元位置確定部206において確定され、その結果が特徴点情報保持部205に保持される。確定された特徴点情報は、例えば図16に示すように表示部103に表示される。図16における1601は、3次元位置が算出された平面を示している。ここで、この平面上であってユーザが測定したい特徴点を指定することによって、画像上にその3次元位置情報が表示されるようにする。また、この平面上にある領域(点)であって、特徴点ではない位置(点)が、ユーザによって指定された場合は、例えば、最も近い特徴点の情報を表示するようにしても良いし、例えば、指定位置の平面4方向の近傍特徴点それぞれの情報を用いて内挿した結果を表示するようにすることもできる。
以上の構成によって、ユーザに特徴点を指定しやすくさせるための表示方法を提供することができる。
Then, only the feature points selected in this way are determined by the three-dimensional position determination unit 206, and the result is stored in the feature point information storage unit 205. The confirmed feature point information is displayed on the display unit 103 as shown in FIG. 16, for example. In FIG. 16, reference numeral 1601 denotes a plane on which the three-dimensional position is calculated. Here, by designating a feature point that the user wants to measure on this plane, the three-dimensional position information is displayed on the image. Further, when a position (point) that is an area (point) on this plane and is not a feature point is designated by the user, for example, information on the closest feature point may be displayed. For example, it is also possible to display the result of interpolation using information on the neighboring feature points in the four directions of the specified position.
With the above configuration, it is possible to provide a display method that makes it easy for the user to specify feature points.

以上説明した第3の実施の形態の距離測定装置100によれば、注目点(特徴点)をユーザが指定可能であるように構成されている。   According to the distance measuring apparatus 100 of the third embodiment described above, the user can designate a point of interest (feature point).

したがって、ユーザが興味のある注目点が分かるため、その注目点の3次元位置のみを確定すればよく、計算量を削減することができる。
なお、ユーザによる特徴点の指定の仕方は適宜選択可能であり、例えば、ユーザが外部入出力部105に接続された操作部(マウス等)を操作して特徴点を指定できるように構成することも可能であるし、表示部103をタッチパネル式の表示部にしてもよい。
Therefore, since the point of interest that the user is interested in is known, it is only necessary to determine the three-dimensional position of the point of interest, and the amount of calculation can be reduced.
It should be noted that the method of designating the feature points by the user can be selected as appropriate. For example, the feature points can be designated by operating the operation unit (such as a mouse) connected to the external input / output unit 105 by the user. The display unit 103 may be a touch panel type display unit.

<第4の実施の形態>
以上の実施の形態(第1〜第3の実施の形態)によって説明した距離測定装置100は、例えば、車輛のパンタグラフのすり板部分の厚み測定に利用することができる。
<Fourth embodiment>
The distance measuring device 100 described in the above embodiments (first to third embodiments) can be used, for example, for measuring the thickness of a sliding plate portion of a pantograph of a vehicle.

具体的には、撮影範囲へのパンタグラフの侵入を検出した通過センサからの撮影トリガに応じて撮影した画像(無論、この画像にはパンタグラフが写っている)を使う。
もしくは、撮像装置で経時的に複数の画像を撮影しておき、この複数の画像のうちパンタグラフが写っている画像を使う。このとき、例えば、特徴的な部分のパターンマッチングで検出するようにしても良いし、例えば図17に示すように、架線領域をあらかじめ撮影しておくことで背景差分等を利用することで、架線領域の変異からパンタグラフが写っている画像を判断するように構成することができる。
Specifically, an image photographed in response to a photographing trigger from a passage sensor that has detected entry of a pantograph into the photographing range (of course, this image includes a pantograph) is used.
Alternatively, a plurality of images are photographed over time with an imaging device, and an image in which a pantograph is reflected is used among the plurality of images. At this time, for example, it may be detected by pattern matching of a characteristic part, or, for example, as shown in FIG. It can be configured to determine an image in which a pantograph is shown from the variation of the region.

基準は、固定部分を使う。直線検出し、すり板状の直線領域を使う。平面を定義し、その平面から、それぞれのすり板エッジ部分までの厚さをはかる。具体的には、まず、図18(a)に示すように、すり板長手方向への直線的なエッジを抽出する。次いで、図18(b)に示すように、基準となる面を定義する。その後、図18(c)に示すように、各位置までの距離(厚み)を算出する。
図19に示すように、予備撮影における厚さプロファイルと、所望撮影における厚さプロファイルと、をすり板長手方向にマッチング(例えば、相互相関係数等を求めることで、対応位置を算出)をして、位置を合わせて、そこから、比較を行うようにする。
The standard uses a fixed part. A straight line is detected, and a straight line area of a sliding plate is used. A plane is defined, and the thickness from the plane to each edge of the sliding plate is measured. Specifically, first, as shown in FIG. 18A, a straight edge in the longitudinal direction of the sliding plate is extracted. Next, as shown in FIG. 18B, a reference surface is defined. Then, as shown in FIG.18 (c), the distance (thickness) to each position is calculated.
As shown in FIG. 19, the thickness profile in the preliminary shooting and the thickness profile in the desired shooting are matched in the longitudinal direction of the sliding plate (for example, a corresponding position is calculated by obtaining a cross-correlation coefficient or the like). And adjust the position from there.

上記の各実施の形態において、添付図面に図示されている構成等については、あくまで一例であり、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In each of the above-described embodiments, the configuration and the like illustrated in the accompanying drawings are merely examples, and are not limited to these, and can be appropriately changed within the scope of the effects of the present invention. It is. In addition, various modifications can be made without departing from the scope of the object of the present invention.

100 距離測定装置
101 撮像部
201 特徴点検出部(被写体点検出部)
203 3次元位置情報算出部(3次元位置算出部)
204 信頼度算出部
206 3次元位置確定部
901 動きボケ推定部
DESCRIPTION OF SYMBOLS 100 Distance measuring device 101 Imaging part 201 Feature point detection part (Subject point detection part)
203 3D position information calculation unit (3D position calculation unit)
204 reliability calculation unit 206 three-dimensional position determination unit 901 motion blur estimation unit

Claims (6)

経時的に複数の撮影画像を取得する撮像部と、
前記撮影画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を算出する3次元位置算出部と、を備えた距離測定装置であって、
前記算出された3次元位置の信頼度を算出する信頼度算出部と、
前記算出された3次元位置を確定する3次元位置確定部と、を更に備え、
前記3次元位置確定部は、前記複数の撮影画像における被写体上の任意の注目点の3次元位置を、前記注目点から任意の範囲内に存在する、前記複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定することを特徴とした距離測定装置。
An imaging unit that acquires a plurality of captured images over time;
A subject point detector for detecting a point on the subject in the captured image;
A three-dimensional position calculation unit that calculates a three-dimensional position of a point on the subject,
A reliability calculation unit for calculating the reliability of the calculated three-dimensional position;
A three-dimensional position determining unit for determining the calculated three-dimensional position;
The three-dimensional position determining unit is configured to arbitrarily set a three-dimensional position of an arbitrary point of interest on the subject in the plurality of photographed images within an arbitrary range from the point of interest. A distance measuring apparatus characterized in that it is determined based on a three-dimensional position of a comparison point and its reliability.
前記比較点は複数点であり、かつ、少なくとも1点は、前記注目点の存在する撮影画像とは異なる画像から検出されたものであることを特徴とする請求項1に記載の距離測定装置。   The distance measuring apparatus according to claim 1, wherein the comparison points are a plurality of points, and at least one point is detected from an image different from a captured image in which the point of interest exists. 前記信頼度は、被写体までの距離による理論誤差に基づく信頼度であることを特徴とした請求項1または請求項2に記載の距離測定装置。   The distance measuring device according to claim 1, wherein the reliability is a reliability based on a theoretical error depending on a distance to a subject. 前記複数の撮影画像の各々に対応して算出された複数の前記3次元位置から前記撮像部に対する前記被写体の移動方向を予測することで動きボケを推定する動きボケ推定部を備え、
前記動きボケ推定部の推定結果に基づいて、前記注目点を検出する際に用いる注目点検出窓のサイズおよび形状のうち、少なくとも一方を変更することを特徴とした請求項1から請求項3の何れか一項に記載の距離測定装置。
A motion blur estimation unit that estimates motion blur by predicting a moving direction of the subject relative to the imaging unit from a plurality of the three-dimensional positions calculated corresponding to each of the plurality of captured images;
4. The method according to claim 1, wherein at least one of a size and a shape of an attention point detection window used when detecting the attention point is changed based on an estimation result of the motion blur estimation unit. The distance measuring device according to claim 1.
前記注目点をユーザが指定可能であることを特徴とした請求項1から請求項4の何れか一項に記載の距離測定装置。   The distance measuring device according to any one of claims 1 to 4, wherein a user can designate the attention point. 経時的に複数の撮影画像を取得する撮像部によって被写体を撮影する撮影工程と、
前記撮影画像における被写体上の点を検出する検出工程と、
前記被写体上の点の3次元位置を算出する3次元位置算出工程と、
前記算出された3次元位置の信頼度を算出する信頼度算出工程と、
前記算出された3次元位置を確定する確定工程と、を有し、
前記確定工程では、前記複数の撮影画像における被写体上の任意の注目点の3次元位置を、前記注目点から任意の範囲内に存在する、前記複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定することを特徴とした距離測定方法。
A shooting process of shooting a subject by an imaging unit that acquires a plurality of shot images over time;
A detection step of detecting a point on the subject in the captured image;
A three-dimensional position calculating step for calculating a three-dimensional position of a point on the subject;
A reliability calculation step of calculating the reliability of the calculated three-dimensional position;
Confirming the calculated three-dimensional position, and
In the determination step, a three-dimensional position of an arbitrary point of interest on the subject in the plurality of captured images is an arbitrary comparison point on the subject in the plurality of captured images that exists within an arbitrary range from the point of interest. A distance measuring method characterized in that it is determined based on a three-dimensional position and its reliability.
JP2015011446A 2015-01-23 2015-01-23 Distance measuring device Active JP6694234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015011446A JP6694234B2 (en) 2015-01-23 2015-01-23 Distance measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015011446A JP6694234B2 (en) 2015-01-23 2015-01-23 Distance measuring device

Publications (3)

Publication Number Publication Date
JP2016136112A true JP2016136112A (en) 2016-07-28
JP2016136112A5 JP2016136112A5 (en) 2018-03-08
JP6694234B2 JP6694234B2 (en) 2020-05-13

Family

ID=56512518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015011446A Active JP6694234B2 (en) 2015-01-23 2015-01-23 Distance measuring device

Country Status (1)

Country Link
JP (1) JP6694234B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111256662A (en) * 2018-11-30 2020-06-09 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
JP2020106966A (en) * 2018-12-26 2020-07-09 株式会社日立製作所 Object recognition device and object recognition method
CN112424566A (en) * 2018-07-18 2021-02-26 三美电机株式会社 Distance measuring camera
CN112449176A (en) * 2019-09-03 2021-03-05 浙江舜宇智能光学技术有限公司 Test method and test system of lifting type camera device
JP2021189156A (en) * 2020-05-29 2021-12-13 芯鼎科技股▲ふん▼有限公司 Velocity measuring apparatus and velocity measuring method using velocity measuring apparatus
CN116547714A (en) * 2020-12-11 2023-08-04 三菱电机株式会社 Reliability estimation device, position estimation device, and reliability estimation method
JP7533937B2 (en) 2020-10-14 2024-08-14 Necソリューションイノベータ株式会社 Image processing device, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04286905A (en) * 1991-03-15 1992-10-12 Nippon Telegr & Teleph Corp <Ntt> Determining method for position of observing point
JP2001280956A (en) * 2000-03-30 2001-10-10 Topcon Corp Stereoscopic image measuring instrument
JP2013114477A (en) * 2011-11-29 2013-06-10 Konica Minolta Inc Image processing device, image processing method and image processing program
JP2014096761A (en) * 2012-11-12 2014-05-22 Canon Inc Image processing apparatus, and control method and control program of the same
JP2014231301A (en) * 2013-05-29 2014-12-11 富士重工業株式会社 Image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04286905A (en) * 1991-03-15 1992-10-12 Nippon Telegr & Teleph Corp <Ntt> Determining method for position of observing point
JP2001280956A (en) * 2000-03-30 2001-10-10 Topcon Corp Stereoscopic image measuring instrument
JP2013114477A (en) * 2011-11-29 2013-06-10 Konica Minolta Inc Image processing device, image processing method and image processing program
JP2014096761A (en) * 2012-11-12 2014-05-22 Canon Inc Image processing apparatus, and control method and control program of the same
JP2014231301A (en) * 2013-05-29 2014-12-11 富士重工業株式会社 Image processor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112424566A (en) * 2018-07-18 2021-02-26 三美电机株式会社 Distance measuring camera
CN111256662A (en) * 2018-11-30 2020-06-09 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
US11361466B2 (en) 2018-11-30 2022-06-14 Casio Computer Co., Ltd. Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
US11816861B2 (en) 2018-11-30 2023-11-14 Casio Computer Co., Ltd. Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
JP2020106966A (en) * 2018-12-26 2020-07-09 株式会社日立製作所 Object recognition device and object recognition method
JP7049983B2 (en) 2018-12-26 2022-04-07 株式会社日立製作所 Object recognition device and object recognition method
CN112449176A (en) * 2019-09-03 2021-03-05 浙江舜宇智能光学技术有限公司 Test method and test system of lifting type camera device
JP2021189156A (en) * 2020-05-29 2021-12-13 芯鼎科技股▲ふん▼有限公司 Velocity measuring apparatus and velocity measuring method using velocity measuring apparatus
JP7533937B2 (en) 2020-10-14 2024-08-14 Necソリューションイノベータ株式会社 Image processing device, image processing method, and program
CN116547714A (en) * 2020-12-11 2023-08-04 三菱电机株式会社 Reliability estimation device, position estimation device, and reliability estimation method

Also Published As

Publication number Publication date
JP6694234B2 (en) 2020-05-13

Similar Documents

Publication Publication Date Title
JP6694234B2 (en) Distance measuring device
EP2824417B1 (en) Distance calculation device and distance calculation method
JP6168577B2 (en) System and method for adjusting a reference line of an imaging system having a microlens array
JP2008298685A (en) Measuring device and program
CN109840922B (en) Depth acquisition method and system based on binocular light field camera
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
JP2019190974A (en) Calibration device, calibration method and program
CN109661815B (en) Robust disparity estimation in the presence of significant intensity variations of the camera array
JP6694281B2 (en) Stereo camera and imaging system
WO2017112061A1 (en) Tracker for cursor navigation
JP6061770B2 (en) Camera posture estimation apparatus and program thereof
JP2015049200A (en) Measuring device, measuring method, and measuring program
JP3990271B2 (en) Simple stereo image input device, method, program, and recording medium
TWI571099B (en) Device and method for depth estimation
JP2016217944A (en) Measurement device and measurement method
JP5996233B2 (en) Imaging device
JP6305232B2 (en) Information processing apparatus, imaging apparatus, imaging system, information processing method, and program.
JP6602412B2 (en) Information processing apparatus and method, information processing system, and program.
WO2015159791A1 (en) Distance measuring device and distance measuring method
JP6734994B2 (en) Stereo measuring device and system
TW201935912A (en) Image processing method, electronic device, and non-transitory computer readable storage medium
JP6843552B2 (en) Image processing equipment, image processing methods and programs.
US20210035317A1 (en) Efficient sub-pixel disparity estimation for all sub-aperture images from densely sampled light field cameras
JP5272818B2 (en) Image processing apparatus and method, and program
JP2016072924A (en) Image processing system and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200417

R150 Certificate of patent or registration of utility model

Ref document number: 6694234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250