JP6694234B2 - Distance measuring device - Google Patents

Distance measuring device Download PDF

Info

Publication number
JP6694234B2
JP6694234B2 JP2015011446A JP2015011446A JP6694234B2 JP 6694234 B2 JP6694234 B2 JP 6694234B2 JP 2015011446 A JP2015011446 A JP 2015011446A JP 2015011446 A JP2015011446 A JP 2015011446A JP 6694234 B2 JP6694234 B2 JP 6694234B2
Authority
JP
Japan
Prior art keywords
distance
subject
point
reliability
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015011446A
Other languages
Japanese (ja)
Other versions
JP2016136112A5 (en
JP2016136112A (en
Inventor
幹生 瀬戸
幹生 瀬戸
徳井 圭
圭 徳井
潤一郎 三島
潤一郎 三島
芳光 杉浦
芳光 杉浦
剛 一木
剛 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
East Japan Railway Co
Original Assignee
Sharp Corp
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp, East Japan Railway Co filed Critical Sharp Corp
Priority to JP2015011446A priority Critical patent/JP6694234B2/en
Publication of JP2016136112A publication Critical patent/JP2016136112A/en
Publication of JP2016136112A5 publication Critical patent/JP2016136112A5/en
Application granted granted Critical
Publication of JP6694234B2 publication Critical patent/JP6694234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)

Description

本発明は、複数の画像を利用することにより、距離を出力することのできる距離測定装置に関する。 The present invention, by utilizing a plurality of images, relates to the distance measuring equipment capable of outputting a distance.

任意の被写体を複数の視点から撮影することのできる複数視点撮像装置は、立体映像の生成や自由視点映像の生成、また、それらを実現するために必要な奥行き画像(デプスマップ)の生成などに利用される。
このようなシステムにおいては、三角測量の原理に基づき、撮像装置のパラメータや各々撮像された画像の視差情報(ディスパリティ、デプスと表現されることもある)を用いることで、撮像装置から被写体までの距離や被写体間の距離を算出することもできる。撮像装置のパラメータと撮像装置から被写体までの距離の関係は、[数1]によってあらわすことができる。
A multi-viewpoint imaging device capable of shooting an arbitrary subject from a plurality of viewpoints is useful for generating a stereoscopic image, a free-viewpoint image, and a depth image (depth map) required to realize them. Used.
In such a system, based on the principle of triangulation, by using the parameters of the image pickup device and the disparity information (also sometimes referred to as disparity or depth) of each imaged image, from the image pickup device to the subject. It is also possible to calculate the distance between and the distance between the subjects. The relationship between the parameters of the imaging device and the distance from the imaging device to the subject can be expressed by [Equation 1].

ここで、dは視差、bは撮像装置間の基線長、fは撮像装置の焦点距離、Zは撮像装置から被写体までの距離である。[数1]は、撮像装置の光軸が平行に配置された場合の距離算出式に相当するが、撮像装置の光軸が角度を持って配置された場合には、カメラキャリブレーション等によりカメラパラメータを算出し、画像の平行化を施すことによって、同様に適用することができる。
さらに、画角やレンズ歪などの撮像装置のパラメータに基づき、3次元的な位置情報を算出することができる。光軸と投影点の角度や焦点距離f、距離Zを用いて、XY座標値も算出することができる。3次元的な位置情報を得ることができれば、撮影空間内の任意の2点の距離を算出することができる。
Here, d is parallax, b is the base length between the image pickup devices, f is the focal length of the image pickup device, and Z is the distance from the image pickup device to the subject. [Equation 1] is equivalent to the distance calculation formula when the optical axes of the image pickup apparatus are arranged in parallel, but when the optical axis of the image pickup apparatus is arranged at an angle, the camera calibration or the like is performed. The same can be applied by calculating the parameters and subjecting the images to parallelization.
Furthermore, three-dimensional position information can be calculated based on parameters of the image pickup device such as the angle of view and lens distortion. XY coordinate values can also be calculated using the angle between the optical axis and the projection point, the focal length f, and the distance Z. If three-dimensional position information can be obtained, the distance between any two points in the shooting space can be calculated.

以上のような視差は、画像間のステレオマッチング処理などにより求めることができる。ステレオマッチングとは、任意に定める一方の画像を基準画像、もう一方を評価画像とし、基準画像の注目領域(例えば、5×5などに設定)の部分画像をテンプレートとし、評価画像の対応点(対応領域)を評価関数(例えば、SAD:Sum of Absolute Difference)に基づき探索する方法であり、注目領域と対応領域との間の距離が視差に相当する。
本ステレオマッチングにおいては、前記部分画像内に特徴的な部分を含まない場合(例えば、同じ明るさで同じ色の平面の場合など)には、複数の領域でマッチングしてしまい、真の位置と必ずしもマッチングの尤度が最大化されない。すなわち、正しい視差が求まらないことがある。
一方、エッジのように特徴的な部分を含む部分画像の場合には、オクルージョンが発生している場合や繰り返し模様になっている場合を除き、比較的精度の高い視差情報を得ることができる。
The parallax as described above can be obtained by stereo matching processing between images. In stereo matching, one image arbitrarily determined is used as a reference image, the other is used as an evaluation image, a partial image of a region of interest of the reference image (for example, set to 5 × 5) is used as a template, and corresponding points of the evaluation image ( This is a method of searching the corresponding area) based on an evaluation function (for example, SAD: Sum of Absolute Difference), and the distance between the attention area and the corresponding area corresponds to the parallax.
In the present stereo matching, if the partial image does not include a characteristic part (for example, in the case of a plane having the same brightness and the same color), matching is performed in a plurality of regions and the true position is not detected. The likelihood of matching is not always maximized. That is, the correct parallax may not be obtained.
On the other hand, in the case of a partial image including a characteristic portion such as an edge, it is possible to obtain parallax information with relatively high accuracy, except when occlusion occurs or when a repetitive pattern is formed.

画像のエッジ部分を利用した測距システムとして、特許文献1が開示されている。
特許文献1では、複数視点の撮像装置から入力された2つの画像を元画像とし、そのうち一方の画像の画像サイズを変更したリサイズ画像を用意し、リサイズ画像中からエッジ(特徴端点)を抽出する。抽出されたエッジに対応した変形前の画像(元画像)の対応領域を任意サイズのマッチングパターンとし、もう一方の画像とステレオマッチングすることで視差および距離を算出するような構成としている。
以上の構成によって、斜めエッジを検出するためのエッジ検出カーネルを角度ごとに用意することなく、縦横エッジ検出カーネルを利用して、斜めエッジ部分の視差検出力を向上させることができる。
Patent Document 1 is disclosed as a distance measuring system using an edge portion of an image.
In Patent Document 1, two images input from a multi-viewpoint imaging device are used as original images, a resized image in which the image size of one of the images is changed is prepared, and edges (feature end points) are extracted from the resized image. .. The corresponding region of the image (original image) before deformation corresponding to the extracted edge is set as a matching pattern of arbitrary size, and the parallax and the distance are calculated by performing stereo matching with the other image.
With the above configuration, it is possible to improve parallax detection power of a diagonal edge portion by using the vertical and horizontal edge detection kernels without preparing an edge detection kernel for detecting a diagonal edge for each angle.

特開2003−98424号公報JP, 2003-98424, A

特許文献1に記載の発明においては、エッジを利用して測距することが可能である。しかしながら、特許文献1に対する課題として、動きボケの影響が考えられる。
(1)動きボケ自体の影響
被写体が動いている場合、エッジ付近には動きボケ(モーションブラー)が生じている。特に、被写体が高速で動いている場合には、画像上の複数ピクセルにわたり動きボケの影響が生じ、エッジ(特徴領域)として抽出できないため、測距ができなくなる。エッジ検出カーネルの設定によっては、エッジとして抽出できる可能性があるが、エッジとして抽出できた場合においても、ボケが生じなかった場合のエッジの真の位置であることは保証されない。そのため、測距結果の信頼度は低下すると考えられる。
(2)撮像装置と被写体の運動方向による影響
動きボケ量は、撮像装置の光軸と被写体の移動方向が直交する場合に最大となり、撮像装置の光軸と被写体の移動方向が平行である場合に最小となる。そのため、動きボケの影響を少なくするためには、撮像装置の光軸と被写体の移動方向が平行となる位置に撮像装置が設置されることが望ましい。すなわち、被写体が被写体正面方向に移動していると仮定すると、撮像装置を被写体の正面に置くことが望ましい。しかしながら、被写体の側面も撮影範囲としたいとき、必ずしも正面には置けない。
In the invention described in Patent Document 1, it is possible to measure the distance by using the edge. However, as a problem with respect to Patent Document 1, the influence of motion blur can be considered.
(1) Effect of motion blur itself When the subject is moving, motion blur occurs near the edge. In particular, when the subject is moving at high speed, motion blurring occurs over a plurality of pixels on the image, and it cannot be extracted as an edge (characteristic region), so that distance measurement cannot be performed. Depending on the setting of the edge detection kernel, it may be possible to extract as an edge, but even if it can be extracted as an edge, it is not guaranteed that it is the true position of the edge when no blur occurs. Therefore, it is considered that the reliability of the distance measurement result decreases.
(2) Influence of the moving direction of the image pickup device and the subject The amount of motion blur becomes maximum when the optical axis of the image pickup device and the moving direction of the subject are orthogonal to each other, and when the optical axis of the image pickup device and the moving direction of the subject are parallel to each other. Is the smallest. Therefore, in order to reduce the influence of motion blur, it is desirable to install the image pickup device at a position where the optical axis of the image pickup device and the moving direction of the subject are parallel to each other. That is, assuming that the subject is moving in the front direction of the subject, it is desirable to place the imaging device in front of the subject. However, when it is desired to set the side surface of the subject as the shooting range, the side surface of the object cannot always be placed in front.

本発明は、上記の課題を鑑みてなされたものであり、本発明の目的とするところは、より信頼度の高い測距結果を得ることのできる距離測定装置を提供することである。 The present invention has been made in view of the above problems, it is an object of the present invention is to provide a distance measuring equipment capable of obtaining a more reliable measurement result.

前記課題を解決するために、本発明の距離測定装置は、
複数の方向から撮影した複数の画像を取得する撮像部と、
前記画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力するように構成されている。
In order to solve the above problems, the distance measuring device of the present invention,
An imaging unit that acquires a plurality of images taken from a plurality of directions,
A subject point detection unit that detects a point on the subject in the image,
A three-dimensional position calculation unit that calculates a three-dimensional position of a point on the subject by parallax measurement of the plurality of images ,
Reliable based on the measurement error E = P · Np · Z / f (P is the pixel pitch amount, Np is the parallax measurement accuracy, f is the focal length, and Z is the distance to the subject) at the three-dimensional position of the point on the subject. Calculate the degree,
And the three-dimensional position, on the basis of the degrees of reliability, to determine the coordinates of a point on the object, and is configured to output a distance.

したがって、より信頼度の高い測距結果を得ることができる。 Therefore, it is possible to obtain a good Ri reliable distance measurement result.

あるいは、本発明の距離測定装置は、
経時的に撮影した複数の画像を取得する撮像部と、
前記画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力するように構成されている。
Alternatively, the distance measuring device of the present invention is
An imaging unit that acquires a plurality of images taken over time,
A subject point detection unit that detects a point on the subject in the image,
A three-dimensional position calculation unit that calculates a three-dimensional position of a point on the subject by parallax measurement of the plurality of images ,
Reliable based on the measurement error E = P · Np · Z / f (P is the pixel pitch amount, Np is the parallax measurement accuracy, f is the focal length, and Z is the distance to the subject) at the three-dimensional position of the point on the subject. Calculate the degree,
And the three-dimensional position, on the basis of the degrees of reliability, to determine the coordinates of a point on the object, and is configured to output a distance.

したがって、より信頼度の高い測距結果を得ることができる。 Therefore , a more reliable distance measurement result can be obtained.

好ましくは、
第1撮影時において複数の画像を元に視差計測で注目点の3次元位置の信頼度を算出し、第2撮影時において前記第1撮影時とは別の複数の画像を元に視差計測で比較点の3次元位置の信頼度を算出し、これらの信頼度の比較結果に基づいて、前記被写体上の点の座標値を確定し、距離を出力するように構成することが可能である。
Preferably,
The reliability of the three-dimensional position of the point of interest is calculated by parallax measurement based on the plurality of images during the first shooting, and the parallax measurement is performed based on the plurality of images different from the time during the first shooting during the second shooting. It is possible to calculate the reliability of the three-dimensional position of the comparison point , determine the coordinate value of the point on the subject based on the comparison result of these reliability, and output the distance.

このように構成することによって、より信頼度の高い測距結果を得ることができる。 According to such a constitution, it is possible to obtain a high measurement result of good Ri reliability.

また、好ましくは、
前記距離は、前記距離測定装置と前記被写体上の点との間の距離、前記被写体上の点と当該被写体上の他の点との間の距離、又は前記被写体上の点と前記画像における他の被写体上の点との間の距離であるように構成することが可能である。
Also, preferably,
The distance is a distance between the distance measuring device and a point on the object, a distance between a point on the object and another point on the object, or a point on the object and other points in the image. Can be configured to be the distance between points on the subject .

このように構成することによって、被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離を出力することができる。 With this configuration, it is possible to output the distance to the subject, the distance between two points on the subject, or the distance between the subjects .

また、好ましくは、
前記被写体上の点の前記信頼度を、当該信頼度の大小が分かるように表示するように構成することが可能である
Also, preferably ,
The reliability of the point on the object, it is possible to configure so as to display as the magnitude of the reliability is found.

このように構成することによって、ユーザは信頼度の大小が分かることとなる With this configuration, the user can know the degree of reliability .

本発明によれば、より信頼度の高い測距結果を得ることができる。   According to the present invention, it is possible to obtain a highly reliable distance measurement result.

第1の実施の形態における距離測定装置の一構成例を示す図である。It is a figure which shows one structural example of the distance measuring device in 1st Embodiment. 図1に示す距離測定装置が備える画像処理部の一構成例を示す図である。It is a figure which shows one structural example of the image processing part with which the distance measuring device shown in FIG. 1 is equipped. エッジ検出フィルタの一例を示す図である。It is a figure which shows an example of an edge detection filter. ステレオマッチングの一例を示す図である。It is a figure which shows an example of a stereo matching. 被写体の3次元位置の算出法の一例を示す図である。It is a figure which shows an example of the calculation method of a three-dimensional position of a to-be-photographed object. 撮像装置座標系Cから被写体座標系Lへの座標変換法の一例を示す図である。It is a figure which shows an example of the coordinate conversion method from the imaging device coordinate system C to the to-be-photographed coordinate system L. 3次元位置確定部における動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation in a three-dimensional position deciding part. 比較点の選択法の一例を示す図である。It is a figure which shows an example of the selection method of a comparison point. 第2の実施の形態における距離測定装置が備える画像処理部の一構成例を示す図である。It is a figure which shows one structural example of the image processing part with which the distance measuring device in 2nd Embodiment is equipped. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of operation | movement in a motion blur estimation part. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of operation | movement in a motion blur estimation part. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of operation | movement in a motion blur estimation part. 動きボケ推定部における動作の一例を示す図である。It is a figure which shows an example of operation | movement in a motion blur estimation part. 第3の実施の形態における距離測定装置が備える画像処理部の一構成例を示す図である。It is a figure which shows one structural example of the image processing part with which the distance measuring device in 3rd Embodiment is equipped. 表示部に表示された、ユーザが測定したい特徴点を指定するための画像の一例を示す図である。It is a figure which shows an example of the image for which the user designates the feature point which a user wants to measure displayed on the display part. 表示部に表示された、確定された特徴点情報の一例を示す図である。It is a figure which shows an example of the confirmed characteristic point information displayed on the display part. 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。It is a figure which shows an example of the measuring method of the thickness of the sliding plate part of the pantograph of a vehicle. 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。It is a figure which shows an example of the measuring method of the thickness of the sliding plate part of the pantograph of a vehicle. 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。It is a figure which shows an example of the measuring method of the thickness of the sliding plate part of the pantograph of a vehicle.

以下、本発明に係わる実施の形態について、図面を参照して説明する。   Embodiments according to the present invention will be described below with reference to the drawings.

<第1の実施の形態>:基本構成
本実施の形態においては、本発明における基本的な構成について説明する。
具体的には、撮影空間中を動いている被写体を複数回撮影し、複数回の撮影で得られた撮影画像それぞれの特徴点座標およびその信頼度を求め、当該特徴点座標および信頼度に基づいて所望の撮影タイミングにおける撮影画像の特徴点座標を補正することで、距離(被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)と、その信頼度と、を測定することのできる距離測定装置および距離測定方法について説明する。
<First Embodiment>: Basic Configuration In this embodiment, a basic configuration of the present invention will be described.
Specifically, a subject moving in the photographing space is photographed multiple times, the feature point coordinates and reliability of each of the photographed images obtained by the plurality of photographings are obtained, and based on the feature point coordinates and reliability. By correcting the characteristic point coordinates of the captured image at the desired capturing timing, the distance (distance to the subject, distance between two points on the subject, or distance between the subjects) and its reliability are measured. A distance measuring device and a distance measuring method that can be used will be described.

まず、本発明における全体の構成について説明する。
図1は、本実施の形態における距離測定装置の一構成例である。距離測定装置100は、本実施例における距離測定装置であり、被写体を撮像するための撮像部101と、撮像した撮影画像を処理するための画像処理部102と、撮影画像そのものや画像処理結果を出力表示するための表示部103と、撮影画像そのものや画像処理結果、画像処理に利用する種々のデータを保存する保存部104と、ユーザからの入力や外部装置へのデータ送信のための外部入出力部105と、距離測定装置100全体の制御を行うための制御部106と、各々のユニット間でのデータのやり取りを行うためのデータバス107と、から構成される。
First, the overall configuration of the present invention will be described.
FIG. 1 is a configuration example of a distance measuring device according to the present embodiment. The distance measuring device 100 is a distance measuring device according to the present embodiment, and includes an image capturing unit 101 for capturing an image of an object, an image processing unit 102 for processing a captured image that has been captured, a captured image itself and an image processing result. A display unit 103 for displaying an output, a storage unit 104 for storing a captured image itself, an image processing result, and various data used for image processing, and an external input for user input and data transmission to an external device. The output unit 105, a control unit 106 for controlling the distance measuring device 100 as a whole, and a data bus 107 for exchanging data between the respective units.

撮像部101は、撮影空間を距離測定装置100に取り込むための光学部品およびCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を複数具備するように構成され、光電変換によって得られた夫々の撮影画像データをデータバス107に出力する。複数の光学部品および撮像素子は一つの筐体内に配設されてもよいが、撮影位置が異なる複数の撮像装置として構成される。すなわち、撮像部101は、光学部品と撮像素子とを備える撮像装置を複数有しており、これらの撮像装置は、互いに視差を有する撮影画像が撮像できるような位置に配置されている。
撮影された情報は、生データのままデータバス107に出力されてもよいし、画像処理部102において処理しやすいように事前に画像処理(輝度画像化、ノイズ除去など)が施された画像データとしてデータバス107に出力されてもよく、また、その両方が出力されるような構成としてもよい。さらに、撮影時の絞り値や焦点距離などのカメラパラメータを、撮像部101から保存部104に送るように構成することもできる。
The image capturing unit 101 is configured to include a plurality of image capturing elements such as an optical component for capturing a capturing space in the distance measuring device 100 and a CMOS (Complementary Metal Oxide Semiconductor), and each captured image data obtained by photoelectric conversion. Is output to the data bus 107. Although the plurality of optical components and the image pickup device may be arranged in one housing, they are configured as a plurality of image pickup devices having different photographing positions. That is, the image pickup unit 101 has a plurality of image pickup devices each including an optical component and an image pickup element, and these image pickup devices are arranged at positions where picked-up images having a parallax with each other can be picked up.
The captured information may be output to the data bus 107 as raw data as it is, or image data that has been subjected to image processing (luminance imaging, noise removal, etc.) in advance so that it can be easily processed by the image processing unit 102. May be output to the data bus 107 or both of them may be output. Furthermore, the camera parameters such as the aperture value and the focal length at the time of shooting can be configured to be sent from the imaging unit 101 to the storage unit 104.

本発明における撮像部101は、動被写体に対し複数回撮影を行い、それぞれの撮影画像データを各部に送信する。本実施の形態においては、撮像部101が2台の撮像装置を備える場合を例に説明する。   The image capturing unit 101 according to the present invention captures a moving subject a plurality of times, and transmits each captured image data to each unit. In the present embodiment, a case where the image pickup unit 101 includes two image pickup devices will be described as an example.

画像処理部102は、FPGA(Field Programmable Gate Array)などによって構成され、撮像部101もしくは撮影画像データが保存された保存部104から撮影画像データを取得し、各種画像処理を行った結果をデータバス107に出力する。画像処理部102における詳細な説明については後述する。   The image processing unit 102 is configured by an FPGA (Field Programmable Gate Array) or the like, acquires captured image data from the image capturing unit 101 or a storage unit 104 in which captured image data is stored, and outputs the results of various image processing to a data bus. To 107. Detailed description of the image processing unit 102 will be described later.

表示部103は、LCD(Liquid Crystal Display)や有機ELディスプレイ(OELD:Organic ElectroLuminescence
Display)などによって構成され、画像処理部102から出力される画像処理結果や、保存部104に保存された画像などを表示する。なお、表示部103は、外部入出力部105を介して、距離測定装置100の外部に設置される構成としてもよい。
The display unit 103 is an LCD (Liquid Crystal Display) or an organic EL display (OELD: Organic Electro Luminescence).
Display), and displays the image processing result output from the image processing unit 102, the image saved in the saving unit 104, and the like. The display unit 103 may be installed outside the distance measuring device 100 via the external input / output unit 105.

保存部104は、例えば、RAM(Ramdom Access Memory)などの主記憶装置およびハードディスクなどの補助記憶装置からなる。主記憶装置は、撮影画像データや画像処理結果を一時的に保持するために利用される。補助記憶装置には、撮影画像データ、画像処理結果、カメラキャリブレーションに利用するためのデータなど、ストレージとして長期的に保存するためのデータが格納される。   The storage unit 104 is composed of, for example, a main storage device such as a RAM (Random Access Memory) and an auxiliary storage device such as a hard disk. The main storage device is used to temporarily hold captured image data and image processing results. The auxiliary storage device stores data for long-term storage as storage, such as captured image data, image processing results, and data used for camera calibration.

外部入出力部105は、USB(Universal Serial Bus)やHDMI(登録商標)(High Definition Multimedia Interface)などの入出力ポートを有し、外部からの撮影トリガの受信、撮影画像データや画像処理結果の送信などを行う。
撮影トリガは、例えば、被写体の通過を検出する通過センサから入力される。通過センサは、例えば、当該通過センサと距離測定装置100との位置関係に応じて、当該通過センサの計測範囲を被写体が通過したことを検出すると直ちに撮影トリガを送信するように構成することも可能であるし、当該通過センサの計測範囲を被写体が通過したことを検出してから所定時間経過後に撮影トリガを送信するように構成することも可能である。
The external input / output unit 105 has an input / output port such as a USB (Universal Serial Bus) or HDMI (registered trademark) (High Definition Multimedia Interface), and receives an external shooting trigger and receives captured image data and image processing results. Send, etc.
The shooting trigger is input from, for example, a passage sensor that detects passage of an object. The passage sensor may be configured to transmit an imaging trigger as soon as it detects that the subject has passed the measurement range of the passage sensor, for example, according to the positional relationship between the passage sensor and the distance measuring device 100. However, it is also possible to configure so that the photographing trigger is transmitted after a lapse of a predetermined time after detecting that the subject has passed the measurement range of the passage sensor.

制御部106は、CPU(Central Processing Unit)などによって構成され、撮像部101における撮像処理や画像処理部102における画像処理などの種々の命令・制御を行う。   The control unit 106 is configured by a CPU (Central Processing Unit) or the like, and performs various commands / controls such as imaging processing in the imaging unit 101 and image processing in the image processing unit 102.

データバス107は、各々のユニット間でのデータのやり取りを行うためのバスである。   The data bus 107 is a bus for exchanging data between the units.

以上の構成は、本実施の形態における全体の構成である。
続いて、本発明における画像処理部102の詳細な構成例および動作例について説明する。
本発明においては、同一の動被写体を複数回撮影し、予備撮影の計測結果を利用して、所望撮影における距離(3次元位置)の計測結果を補正することを特徴としている。予備撮影および所望撮影とは、例えば、2回撮影する条件の場合、1回目の撮影が予備撮影、2回目の撮影が所望撮影となる。なお、1回目および2回目の撮影結果を保存部104に保存することにより、予備撮影および所望撮影を入れ替えることもできるし、3回以上撮影して所望撮影以外の複数の撮影を予備撮影とすることで、所望撮影時の補正をするように構成することもできる。
以下、2回撮影する場合であって、1回目の撮影を予備撮影、2回目の撮影を所望撮影とした場合を例に説明する。
The above configuration is the overall configuration of the present embodiment.
Next, a detailed configuration example and operation example of the image processing unit 102 according to the present invention will be described.
The present invention is characterized in that the same moving subject is photographed a plurality of times and the measurement result of the preliminary photographing is used to correct the measurement result of the distance (three-dimensional position) in the desired photographing. Preliminary shooting and desired shooting are, for example, when the shooting is performed twice, the first shooting is the preliminary shooting and the second shooting is the desired shooting. By storing the first and second shooting results in the storage unit 104, the preliminary shooting and the desired shooting can be interchanged, or three or more shootings and a plurality of shootings other than the desired shooting are set as the preliminary shootings. By doing so, it is also possible to make a correction at the time of desired photographing.
In the following, an example will be described in which two shots are taken and the first shot is the preliminary shot and the second shot is the desired shot.

本実施の形態における画像処理部102は、図2に示すように、撮像部101もしくは保存部104から受け取った撮影画像データから特徴点を検出する特徴点検出部201と、特徴点検出部201において検出された特徴点における視差を算出する視差算出部202と、視差算出部202において算出された視差と保存部104に保存される焦点距離や撮像装置間の基線長などの撮像部101の撮像パラメータ(カメラパラメータ)情報とに基づき、各特徴点に対する3次元位置および当該3次元位置における計測誤差(分解能)情報を算出する3次元位置情報算出部203と、特徴点検出部201、視差算出部202、および3次元位置情報算出部203からの処理情報をもとに、各特徴点に対する信頼度を算出する信頼度算出部204と、各特徴点に対する3次元位置情報および信頼度を一時的に保持する特徴点情報保持部205と、予備撮影時および所望撮影時における各々の特徴点情報(3次元位置情報および信頼度)を特徴点情報保持部205から受け取り、所望撮影時における各特徴点に対する3次元位置情報を補正する3次元位置確定部206と、から構成することができる。   As shown in FIG. 2, the image processing unit 102 according to the present embodiment includes a feature point detection unit 201 that detects a feature point from captured image data received from the imaging unit 101 or the storage unit 104, and a feature point detection unit 201. A parallax calculation unit 202 that calculates the parallax at the detected feature points, and imaging parameters of the imaging unit 101 such as the parallax calculated by the parallax calculation unit 202 and the focal length stored in the storage unit 104 and the baseline length between the imaging devices. A three-dimensional position information calculation unit 203 that calculates a three-dimensional position for each feature point and measurement error (resolution) information at the three-dimensional position based on (camera parameter) information, a feature point detection unit 201, and a parallax calculation unit 202. , And the reliability calculation unit 204 that calculates the reliability for each feature point based on the processing information from the three-dimensional position information calculation unit 203. , A feature point information holding unit 205 that temporarily holds three-dimensional position information and reliability for each feature point, and features each feature point information (three-dimensional position information and reliability) at the time of preliminary shooting and desired shooting A three-dimensional position determination unit 206 that receives from the point information holding unit 205 and corrects the three-dimensional position information for each feature point at the time of desired imaging can be configured.

特徴点検出部201は、データバス107からステレオ画像データ(2台の撮像装置のうちの一方により撮像された撮影画像データおよび他方により撮像された撮影画像データ)を受け取り、撮影画像データの特徴点を検出する。ここで、特徴点とは、例えばエッジ情報であり、図3に示すようなSobelフィルタ(3×3)に対する反応強度がある閾値以上であった場合に、特徴点領域であると判定する。なお、エッジ検出手法は、Sobelフィルタに限定されず、PrewittフィルタやLaplacianフィルタ、Cannyフィルタ、SIFT(Scale−Invariant Feature Transform)と呼ばれる各種特徴点データのいずれかもしくは複数を使う構成にすることができる。
特徴点検出部201は、検出された特徴点の画像座標における位置情報および/もしくは特徴点画像データ、必要に応じて撮影画像データを視差算出部202に送信する。また、各特徴点座標における特徴点強度(反応強度)を信頼度算出部204に送る。
The feature point detection unit 201 receives stereo image data (captured image data captured by one of the two image capturing devices and captured image data captured by the other of the two image capturing devices) from the data bus 107, and the feature point of the captured image data is received. To detect. Here, the feature point is, for example, edge information, and is determined to be a feature point region when the reaction intensity with respect to the Sobel filter (3 × 3) as shown in FIG. The edge detection method is not limited to the Sobel filter, and may be configured to use any one or more of various feature point data called Prewitt filter, Laplacian filter, Canny filter, and SIFT (Scale-Invariant Feature Transform). ..
The feature point detection unit 201 transmits position information and / or feature point image data at the image coordinates of the detected feature point and, if necessary, captured image data to the parallax calculation unit 202. Further, the feature point strength (reaction strength) at each feature point coordinate is sent to the reliability calculation unit 204.

視差算出部202は、特徴点検出部201からの特徴点の画像座標における位置情報および/もしくは特徴点画像データを受け取り、ステレオマッチングを行う。
ここで、ステレオマッチングの一例について、図4を用いて説明する。本実施の形態における撮像装置が左右に並んで配設されている場合、まず、左画像(左側の撮像装置により撮像された撮影画像)の特徴点位置を基準に、探索窓の範囲の画像をテンプレートとして切り取る。ここで、探索窓の範囲は、例えば11×11とする。次に、左画像の特徴点位置に対応する右画像(右側の撮像装置により撮像された撮影画像)位置の探索窓範囲と、前記テンプレートとのマッチング評価値を求める。マッチング評価値は、例えば、[数2]に示すように、SAD(Sum of Absolute Difference)値として求められる。ここで、L(x,y)は画像座標(x,y)における左画像の探索窓、R(x,y)は画像座標(x,y)における右画像の探索窓の各画素の階調値を表している。
The parallax calculation unit 202 receives the position information and / or the feature point image data in the image coordinates of the feature point from the feature point detection unit 201 and performs stereo matching.
Here, an example of stereo matching will be described with reference to FIG. When the image pickup devices according to the present embodiment are arranged side by side, first, an image in the range of the search window is set based on the feature point position of the left image (the image captured by the left image pickup device). Cut out as a template. Here, the range of the search window is, for example, 11 × 11. Next, the matching evaluation value between the search window range of the position of the right image (the image captured by the imaging device on the right side) corresponding to the position of the characteristic point of the left image and the template is obtained. The matching evaluation value is obtained as a SAD (Sum of Absolute Difference) value, for example, as shown in [Equation 2]. Here, L (x, y) is the search window of the left image at the image coordinates (x, y), and R (x, y) is the gradation of each pixel of the search window of the right image at the image coordinates (x, y). Represents a value.

マッチング評価値は、あらかじめ設定された探索範囲に対して、注目位置をずらしながら、それぞれの位置に対して算出される。SADにより算出する場合、マッチング評価値が最小となる位置がマッチング位置となり、右画像におけるマッチング位置と左画像における元の注目点(特徴点)位置との差が視差となる。
なお、マッチング評価値を算出する方法は、ステレオマッチングで用いられる種々の評価関数によって算出する方法でよく、SSD(Sum of Suquare Difference)などで算出するようにしてもよい。
視差算出部202は、各画素位置(各特徴点位置)に対する視差算出結果を、3次元位置情報算出部203に送る。また、各画素位置(各特徴点位置)に対するマッチング評価値を、信頼度算出部204に送る。
The matching evaluation value is calculated for each position while shifting the attention position with respect to a preset search range. When calculated by SAD, the position where the matching evaluation value is the minimum is the matching position, and the difference between the matching position in the right image and the original target point (feature point) position in the left image is the parallax.
The matching evaluation value may be calculated by various evaluation functions used in stereo matching, and may be calculated by SSD (Sum of Square Difference) or the like.
The parallax calculation unit 202 sends the parallax calculation result for each pixel position (each characteristic point position) to the three-dimensional position information calculation unit 203. In addition, the matching evaluation value for each pixel position (each feature point position) is sent to the reliability calculation unit 204.

3次元位置情報算出部203は、視差算出部202からの視差情報(視差算出結果)と、保存部104からの各種撮像パラメータ(カメラパラメータ)をもとに、[数1]によって距離Zを算出する。ここで、視差算出部202によって算出される視差は、画像座標系における視差であり、ピクセル値である。一方、[数1]における視差は、センサ座標系における視差(“mm”などのSI単位)である。そのため、保存部104からの画素ピッチ量P(mm/pixel)をパラメータとして、画像座標系からセンサ座標系に変換を行うことで、距離Zを算出することができる。なお、距離Zは、光軸をZ軸と平行とした場合のZの座標値に相当する。また、図5に示すように、距離Zおよび画像上の座標位置(x,y)から、被写体の3次元的な位置(X,Y,Z)を算出することができる。   The three-dimensional position information calculation unit 203 calculates the distance Z by [Equation 1] based on the parallax information (parallax calculation result) from the parallax calculation unit 202 and various imaging parameters (camera parameters) from the storage unit 104. To do. Here, the parallax calculated by the parallax calculation unit 202 is a parallax in the image coordinate system and is a pixel value. On the other hand, the parallax in [Equation 1] is a parallax (SI unit such as “mm”) in the sensor coordinate system. Therefore, the distance Z can be calculated by converting from the image coordinate system to the sensor coordinate system using the pixel pitch amount P (mm / pixel) from the storage unit 104 as a parameter. The distance Z corresponds to the coordinate value of Z when the optical axis is parallel to the Z axis. Further, as shown in FIG. 5, the three-dimensional position (X, Y, Z) of the subject can be calculated from the distance Z and the coordinate position (x, y) on the image.

また、視差算出部202における視差計測精度(視差算出精度)に基づき、当該の特徴点位置における計測誤差を算出する。例えば、視差算出部202における視差計測精度Npがピクセルを1単位とする場合、[式3]によって算出できる。   Further, based on the parallax measurement accuracy (parallax calculation accuracy) in the parallax calculation unit 202, the measurement error at the feature point position is calculated. For example, when the parallax measurement accuracy Np in the parallax calculation unit 202 has one pixel as a unit, it can be calculated by [Equation 3].

ここで、Eは計測誤差、Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離である。計測誤差Eは、距離Zに比例することがわかる。故に、撮像装置から被写体までの距離Zが遠くなるほど、計測誤差Eは大きな値となる。
3次元位置情報算出部203は、以上によって得られた被写体までの距離(3次元位置)情報および計測誤差情報を信頼度算出部204に送信する。
Here, E is the measurement error, P is the pixel pitch amount, Np is the parallax measurement accuracy, f is the focal length, and Z is the distance to the subject. It can be seen that the measurement error E is proportional to the distance Z. Therefore, the measurement error E has a larger value as the distance Z from the image pickup device to the subject increases.
The three-dimensional position information calculation unit 203 transmits the distance (three-dimensional position) information to the subject and the measurement error information obtained as described above to the reliability calculation unit 204.

信頼度算出部204は、特徴点検出部201からの特徴点強度と、視差算出部202からのマッチング評価値と、3次元位置情報算出部203からの3次元位置情報および計測誤差情報と、をそれぞれ受け取り、信頼度を算出する。具体的には、信頼度算出部204は、例えば、特徴点強度に対する信頼度I_R、マッチング評価値に対する信頼度M_R、計測誤差情報に対する信頼度E_Rをそれぞれ算出し、これらの組み合わせによって総合的な信頼度S_Rを算出するように構成することができる。それぞれの信頼度の算出式について、[数4]〜[数7]に一例を示す。   The reliability calculation unit 204 calculates the feature point strength from the feature point detection unit 201, the matching evaluation value from the parallax calculation unit 202, the three-dimensional position information and the measurement error information from the three-dimensional position information calculation unit 203. Each is received and the reliability is calculated. Specifically, the reliability calculation unit 204 calculates, for example, the reliability I_R for the feature point strength, the reliability M_R for the matching evaluation value, and the reliability E_R for the measurement error information. It can be configured to calculate the degree S_R. An example of each reliability calculation formula is shown in [Equation 4] to [Equation 7].

[数4]は、特徴点信頼度I_Rの算出式の一例である。I_Bは特徴点強度、ISは特徴点検出フィルタの係数和である。例えば、撮影画像データに基づく画像が8ビット画像であり、Sobelフィルタ(3×3)によって特徴点を検出した場合、特徴点強度I_Bは最大で1020(=255+255×2+255)であり、フィルタ係数和ISは4(=1+2+1)である。したがって、特徴点信頼度I_Rは0〜255の値となり、255の時、特徴点信頼度が最大となる。   [Equation 4] is an example of a calculation formula of the feature point reliability I_R. I_B is the strength of the feature point, and IS is the sum of the coefficients of the feature point detection filter. For example, when the image based on the captured image data is an 8-bit image and the feature point is detected by the Sobel filter (3 × 3), the feature point intensity I_B is 1020 (= 255 + 255 × 2 + 255) at the maximum, and the sum of the filter coefficients is IS is 4 (= 1 + 2 + 1). Therefore, the feature point reliability I_R has a value of 0 to 255, and at 255, the feature point reliability becomes maximum.

[数5]は、マッチング信頼度M_Rの算出式の一例である。M_Bはマッチング評価値、Nは探索窓サイズである。前記例の通り、視差算出部202においてN=11のSADによって視差を算出した場合、マッチング評価値M_Bは、0〜30855の値となる。マッチング評価値M_Bを探索窓の総画素数であるN(=121)で除することにより、平均化マッチング評価値([数5]の右辺の第2項)は、0〜255の値となる。平均化マッチング評価値は、0に近いほどマッチングの評価が高いことを示す。特徴点信頼度I_Rと同様に255が最大値となるように、255から平均化マッチング評価値を減じた値をマッチング信頼度M_Rとして設定する。 [Equation 5] is an example of a calculation formula of the matching reliability M_R. M_B is a matching evaluation value, and N is a search window size. As described above, when the parallax calculation unit 202 calculates the parallax by the SAD of N = 11, the matching evaluation value M_B becomes a value of 0 to 30855. By dividing the matching evaluation value M_B by N 2 (= 121) which is the total number of pixels in the search window, the averaged matching evaluation value (the second term on the right side of [Equation 5]) becomes a value of 0 to 255. Become. The closer the averaged matching evaluation value is to 0, the higher the matching evaluation. Similar to the feature point reliability I_R, a value obtained by subtracting the averaged matching evaluation value from 255 is set as the matching reliability M_R so that 255 becomes the maximum value.

[数6]は、計測誤差信頼度E_Rの算出式の一例である。Eは特徴点位置の計測誤差、E_minは計測範囲に指定した範囲のうち最小となる計測誤差、E_maxは計測範囲に指定した範囲のうち最大となる計測誤差である。例えば、仕様として計測できる範囲がZ=2000mm〜5000mmと設定され、焦点距離fが75mm、画素ピッチ量Pが0.0005mm/pixel、視差計測精度Npが1pixelの場合を考える。[数3]より、最小計測誤差E_min、最大計測誤差E_maxはそれぞれ0.133、0.333となる。計測誤差信頼度E_Rは、計測誤差Eが最小計測誤差E_minと等しいとき255の値となり、最大計測誤差E_maxと等しいとき0の値となる。   [Equation 6] is an example of a calculation formula of the measurement error reliability E_R. E is the measurement error of the feature point position, E_min is the minimum measurement error in the range specified in the measurement range, and E_max is the maximum measurement error in the range specified in the measurement range. For example, let us consider a case where the measurable range is set as Z = 2000 mm to 5000 mm as specifications, the focal length f is 75 mm, the pixel pitch amount P is 0.0005 mm / pixel, and the parallax measurement accuracy Np is 1 pixel. From [Equation 3], the minimum measurement error E_min and the maximum measurement error E_max are 0.133 and 0.333, respectively. The measurement error reliability E_R has a value of 255 when the measurement error E is equal to the minimum measurement error E_min, and has a value of 0 when the measurement error E is equal to the maximum measurement error E_max.

[数7]は、統合信頼度S_Rの算出式の一例である。CI、CM、CEはそれぞれ任意の加重平均係数となる。すなわち、統合信頼度S_Rは、特徴点信頼度I_R、マッチング信頼度M_R、および計測誤差信頼度E_Rの加重平均値となる。重み付けの値を外部入出力部105からユーザに入力させるようにし、その値を保存部104に保持するようにしておいてもよいし、各信頼度のうち、最小の信頼度を統合信頼度S_Rとして選択するような構成とすることもできる。なお、[数7]によって統合信頼度S_Rを算出する場合の重み付けは、CEの重みがCIおよびCMの重みよりも大きくなるように設定することが好適である。これは、特徴点信頼度I_Rおよびマッチング信頼度M_Rは被写体が前方に来るほど下がる傾向があり、逆に計測誤差信頼度E_Rは被写体が前方に来るほど上がる傾向がある。そのため「CI+CM」と「CE」のバランスをとるように設定することが望ましい。例えば、CI+CM=CE=0.5となるように設定する。   [Equation 7] is an example of a formula for calculating the integrated reliability S_R. CI, CM, and CE are arbitrary weighted average coefficients. That is, the integrated reliability S_R is a weighted average value of the feature point reliability I_R, the matching reliability M_R, and the measurement error reliability E_R. The weighting value may be input by the user from the external input / output unit 105, and the value may be held in the storage unit 104. Of the reliability values, the minimum reliability value may be the integrated reliability S_R. It is also possible to adopt a configuration such that It is preferable that the weighting in the case of calculating the integrated reliability S_R by [Equation 7] is set so that the weight of CE is larger than the weight of CI and CM. This is because the feature point reliability I_R and the matching reliability M_R tend to decrease as the subject moves forward, and conversely, the measurement error reliability E_R tends to increase as the subject moves forward. Therefore, it is desirable to set the balance between "CI + CM" and "CE". For example, it is set so that CI + CM = CE = 0.5.

CI+CM=CE=0.5となるように設定すると、統合信頼度S_R(X,Y,Z)は0〜255の値となり、255に近づくほど、信頼度が高いことを示す。エッジの強度が高く、マッチング強度が高く、かつ特徴点位置の計測誤差が小さい位置ほど信頼度が高くなることになる。
信頼度算出部204は、特徴点の座標情報X,Y,Zと、以上によって算出された各座標に対する統合信頼度S_R(X,Y,Z)の値と、を特徴点情報保持部205に送る。
When CI + CM = CE = 0.5 is set, the integrated reliability S_R (X, Y, Z) takes a value of 0 to 255, and the closer it is to 255, the higher the reliability is. The higher the edge strength, the higher the matching strength, and the smaller the measurement error of the feature point position, the higher the reliability.
The reliability calculation unit 204 stores the coordinate information X, Y, Z of the feature point and the integrated reliability S_R (X, Y, Z) value for each coordinate calculated as described above in the feature point information holding unit 205. send.

特徴点情報保持部205は、信頼度算出部204からの特徴点の座標情報X,Y,Zと統合信頼度S_R(X,Y,Z)とを一時的に保持し、次の撮影時に利用する。また、その都度の撮影に対する信頼度データとして、信頼度算出部204からの情報を保存部104に送り、データを逐次保存するように構成できる。   The feature point information holding unit 205 temporarily holds the coordinate information X, Y, Z of the feature points and the integrated reliability S_R (X, Y, Z) from the reliability calculation unit 204, and uses them at the time of the next shooting. To do. Further, as the reliability data for each photographing, the information from the reliability calculation unit 204 can be sent to the storage unit 104, and the data can be sequentially stored.

3次元位置確定部206は、予備撮影時には、特に処理をする必要はない。   The three-dimensional position determination unit 206 does not need to perform any processing during the preliminary shooting.

以上のようにして、予備撮影時の画像処理が行われる。予備撮影時の画像処理結果(3次元位置測定の結果、信頼度、処理画像など)については、保存部104に保存されるが、表示部103において逐次表示したり、外部入出力部105を経由して外部装置に送信したりすることができる。   As described above, the image processing during the preliminary shooting is performed. The image processing result (three-dimensional position measurement result, reliability, processed image, etc.) at the time of preliminary shooting is stored in the storage unit 104, but is displayed sequentially on the display unit 103 or via the external input / output unit 105. Then, it can be sent to an external device.

続いて、所望撮影時の画像処理について説明する。所望撮影時の画像処理に際して、画像処理部102が備える特徴点検出部201と視差算出部202と3次元位置情報算出部203と信頼度算出部204と特徴点情報保持部205とは、予備撮影時の画像処理と同様の処理を行うことで、所望撮影における各特徴点の座標情報X’,Y’,Z’と、各座標に対する統合信頼度S_R(X’,Y’,Z’)を得る。   Next, image processing at the time of desired photographing will be described. At the time of image processing at the time of desired shooting, the feature point detection unit 201, the parallax calculation unit 202, the three-dimensional position information calculation unit 203, the reliability calculation unit 204, and the feature point information holding unit 205 included in the image processing unit 102 perform preliminary shooting. By performing the same processing as the image processing at the time, the coordinate information X ′, Y ′, Z ′ of each feature point in the desired shooting and the integrated reliability S_R (X ′, Y ′, Z ′) for each coordinate are obtained. obtain.

3次元位置確定部206は、特徴点情報保持部205から、予備撮影における特徴点の座標情報X,Y,Zと、その統合信頼度S_R(X,Y,Z)と、所望撮影における特徴点の座標情報X’,Y’,Z’と、その統合信頼度S_R(X’,Y’,Z’)と、を受け取り、3次元位置情報を確定する。   The three-dimensional position determination unit 206 receives, from the feature point information holding unit 205, coordinate information X, Y, Z of feature points in preliminary shooting, their integrated reliability S_R (X, Y, Z), and feature points in desired shooting. The coordinate information X ′, Y ′, Z ′ and the integrated reliability S_R (X ′, Y ′, Z ′) are received to determine the three-dimensional position information.

予備撮影における特徴点の座標情報X,Y,Zと、所望撮影における特徴点の座標情報X’,Y’,Z’は、撮像装置座標系Cにおける座標データであり、このままでは特徴点同士を比較することができない。そこで、図6に示すように、[数8]〜[数11]を用いて、被写体座標系Lへの座標変換を行う。   The coordinate information X, Y, Z of the characteristic points in the preliminary photographing and the coordinate information X ', Y', Z'of the characteristic points in the desired photographing are coordinate data in the image pickup apparatus coordinate system C, and the characteristic points are not changed as they are. Can't compare. Therefore, as shown in FIG. 6, coordinate conversion to the subject coordinate system L is performed using [Equation 8] to [Equation 11].

ここで、XL1、YL1、ZL1は、予備撮影における被写体座標系Lでの座標値、XL2、YL2、ZL2は、所望撮影における被写体座標系Lでの座標値、r11、r12、r13、r21、r22、r23、r31、r32、r33は、予備撮影における被写体座標系Lへの回転行列係数、r11’、r12’、r13’、r21’、r22’、r23’、r31’、r32’、r33’は、所望撮影における被写体座標系Lへの回転行列係数、tx、ty、tzは、予備撮影における被写体座標系Lへの並進ベクトル係数、tx’、ty’、tz’は、所望撮影における被写体座標系Lへの並進ベクトル係数である。[数9]および[数11]におけるRTおよびRTは、撮像装置座標系Cから被写体座標系Lへの変換行列であり、[数12]および[数13]に示すように、その逆行列を用いることで、被写体座標系Lから撮像装置座標系Cへの逆変換を行うことができる。したがって、被写体座標系Lにおける座標値から、撮像装置座標系Cにおける被写体特徴点までの3次元位置情報を得ることができるため、被写体座標系Lにおける座標値を確定することによって、撮像装置座標系Cにおける被写体特徴点までの3次元位置情報も確定されることとなる。 Here, X L1 , Y L1 , and Z L1 are coordinate values in the subject coordinate system L in preliminary shooting, and X L2 , Y L2 , and Z L2 are coordinate values in the subject coordinate system L in desired shooting, r 11 , r 12 , r 13 , r 21 , r 22 , r 23 , r 31 , r 32 , and r 33 are rotation matrix coefficients to the object coordinate system L in preliminary imaging, r 11 ′, r 12 ′, r 13 ′, r 21 ′, r 22 ′, r 23 ′, r 31 ′, r 32 ′, and r 33 ′ are rotation matrix coefficients for the subject coordinate system L in desired shooting, and tx, ty, and tz are subject coordinates in preliminary shooting. The translation vector coefficients tx ′, ty ′, and tz ′ to the system L are translation vector coefficients to the object coordinate system L in desired photographing. RT 1 and RT 2 in [Equation 9] and [Equation 11] are conversion matrices from the image pickup apparatus coordinate system C to the subject coordinate system L, and the inverses thereof are obtained as shown in [Equation 12] and [Equation 13]. By using the matrix, it is possible to perform the inverse transformation from the subject coordinate system L to the image pickup apparatus coordinate system C. Therefore, since the three-dimensional position information up to the subject feature point in the image capturing device coordinate system C can be obtained from the coordinate values in the subject coordinate system L, by determining the coordinate values in the subject coordinate system L, the image capturing device coordinate system is determined. The three-dimensional position information up to the subject feature point in C is also determined.

以上の変換によって得られた被写体座標系Lにおける夫々の座標値およびその統合信頼度S_Rを用いて、所望撮影における座標値を確定する。続いて、確定方法について説明する。   The coordinate value in the desired photographing is determined using each coordinate value in the subject coordinate system L obtained by the above conversion and its integrated reliability S_R. Next, the confirmation method will be described.

図7は、3次元位置確定部206における動作の一例を示すフローチャートである。
ステップS701においては、被写体座標系における特徴点(注目点)を選択する。注目点は、例えば、特徴点を信頼度の高い順に並べた注目点リストを作成しておき、信頼度の高い特徴点から注目点として指定する。このとき、注目点リストにリストアップする特徴点は、所望撮影時の特徴点のみであってもよいが、予備撮影時の特徴点も併せてリストアップしておくことで、所望撮影時には検出できなかった信頼度の高い特徴点を得ることができるため好適である。また、閾値を設定し、信頼度の低い特徴点(閾値未満の特徴点)はリストアップしないことで、一定の信頼度を持つ情報のみをユーザに提示するように構成することもできる。
FIG. 7 is a flowchart showing an example of the operation of the three-dimensional position determination unit 206.
In step S701, a feature point (point of interest) in the subject coordinate system is selected. As the attention point, for example, a attention point list in which the feature points are arranged in the order of high reliability is created, and the feature point having the highest reliability is designated as the attention point. At this time, the feature points to be listed in the point of interest list may be only the feature points at the time of desired shooting, but by listing the feature points at the time of preliminary shooting as well, the feature points can be detected at the time of desired shooting. This is preferable because it is possible to obtain feature points with high reliability that were not present. Further, by setting a threshold value and not listing feature points with low reliability (feature points below the threshold value), it is possible to present only information having a certain reliability to the user.

ステップS702においては、予備撮影時の特徴点および所望撮影時の特徴点の中から、比較点を選択する。具体的には、ステップS701において選択された特徴点(注目点)から任意の3次元距離範囲内にある特徴点を比較対象(比較点)として選択する。例えば、図8(a)に示すように、特徴点P(注目点P)における任意の3次元距離範囲R内に含まれる特徴点Qを比較対象として選択する。図8(b)に示すように、3次元距離範囲R内に特徴点が存在しない場合は、“比較対象(比較点)なし”とする。図8(c)に示すように、3次元距離範囲R内に複数の特徴点が存在する場合は、複数の特徴点全て(図8(c)に示す例の場合、特徴点Q1と特徴点Q2との両方)を比較対象として選択する。ここで、3次元距離範囲Rは、例えば、距離測定装置100の測定精度範囲もしくは許容誤差に基づき設定する。例えば、測定精度が0.1mmであった場合、3次元距離範囲Rを0.1mmにすると、測定精度単位で、信頼度の高い特徴点座標データを得ることができるため、好適である。   In step S702, a comparison point is selected from the feature points at the time of preliminary shooting and the feature points at the time of desired shooting. Specifically, feature points within an arbitrary three-dimensional distance range from the feature points (points of interest) selected in step S701 are selected as comparison targets (comparison points). For example, as shown in FIG. 8A, a feature point Q included in an arbitrary three-dimensional distance range R at the feature point P (point of interest P) is selected as a comparison target. As shown in FIG. 8B, when there is no feature point within the three-dimensional distance range R, it is determined that “no comparison target (comparison point)”. As shown in FIG. 8C, when a plurality of feature points exist within the three-dimensional distance range R, all the plurality of feature points (in the case of the example shown in FIG. 8C, the feature point Q1 and the feature point Both Q2) are selected for comparison. Here, the three-dimensional distance range R is set based on, for example, the measurement accuracy range or the tolerance of the distance measuring device 100. For example, when the measurement accuracy is 0.1 mm, it is preferable to set the three-dimensional distance range R to 0.1 mm because feature point coordinate data with high reliability can be obtained in units of measurement accuracy.

ステップS703においては、ステップS701において選択された特徴点(注目点)と、ステップS702において選択された特徴点(比較点)と、の夫々の信頼度を比較する。
ステップS704においては、ステップS703における比較結果に基づき、特徴点(注目点)の座標値を確定する。
In step S703, the reliability of each of the feature points (points of interest) selected in step S701 and the feature points (comparison points) selected in step S702 are compared.
In step S704, the coordinate value of the feature point (point of interest) is determined based on the comparison result in step S703.

例えば、図8(a)のように、1つの比較対象(特徴点Q)が見つかった場合、特徴点Pにおける統合信頼度S_Rと特徴点Qにおける統合信頼度S_Rを比較し、信頼度の高い特徴点を、確定後特徴点P’とする。もしくは、[数14]、[数15]に示すように夫々の信頼度を重みとして確定後特徴点P’とその信頼度を求めるようにしてもよい。 For example, as shown in FIG. 8A, when one comparison target (feature point Q) is found, the integrated reliability S_RP at the feature point P and the integrated reliability S_RQ at the feature point Q are compared, and the reliability is calculated. A feature point having a high value is defined as a determined feature point P ′. Alternatively, as shown in [Equation 14] and [Equation 15], the determined feature point P ′ and its reliability may be obtained using each reliability as a weight.

ここで、Xp’,Yp’,Zp’は確定後特徴点P’の座標値、Xp,Yp,Zpは特徴点Pの座標値、Xq,Yq,Zqは特徴点Qの座標値、S_RP’は確定後特徴点P’に対する確定後信頼度(確定後統合信頼度)である。
また、例えば、図8(b)のように、“比較対象なし”の場合、P’=Pとし、特に確定を行わない。
また、例えば、図8(c)のように、複数の比較対象(特徴点Q1およびQ2)が見つかった場合は、図8(a)と同様にして、特徴点P、特徴点Q1、特徴点Q2のうち最も信頼度の高い特徴点を確定後特徴点P’としてもよいし、信頼度を重みとして確定後特徴点P’とその信頼度を求めるようにしてもよい。
Here, Xp ′, Yp ′, Zp ′ are coordinate values of the determined feature point P ′, Xp, Yp, Zp are coordinate values of the feature point P, Xq, Yq, Zq are coordinate values of the feature point Q, and S_R P ' Is the post-determination reliability (post-determination integrated reliability) for the post-determination feature point P'.
Further, for example, as shown in FIG. 8B, in the case of “no comparison target”, P ′ = P is set and no particular determination is made.
Further, for example, when a plurality of comparison targets (feature points Q1 and Q2) are found as in FIG. 8C, the feature point P, the feature point Q1, and the feature point are similar to those in FIG. The feature point with the highest reliability of Q2 may be the determined feature point P ′, or the determined feature point P ′ and its reliability may be obtained using the reliability as a weight.

次いで、3次元位置確定部206は、求めた確定後特徴点P’の座標値とその信頼度S_RP’とを保存部104に送り、比較対象として選択された特徴点を注目点リストから削除する。
そして、3次元位置確定部206は、全ての注目点についてステップS701〜ステップS704の処理を行い、特徴点座標を確定する。
Next, the three-dimensional position determination unit 206 sends the obtained coordinate values of the determined feature point P ′ and its reliability S_RP to the storage unit 104, and deletes the feature point selected as the comparison target from the attention point list. To do.
Then, the three-dimensional position determination unit 206 performs the processing of steps S701 to S704 for all the points of interest to determine the feature point coordinates.

以上のように、被写体座標系Lにおける特徴点座標を保持することにより、距離測定装置100は、特徴点間の距離(被写体上の2点間の距離や、被写体間の距離など)を算出することができる。ここで、被写体上(被写体表面上)の2点間の距離とは、被写体の厚みや幅などである。また、距離測定装置100は、前述の通り[数13]に基づき撮像装置座標系Cへの座標変換を行うことによって、撮像装置からの距離に変換して、保存部104に送るように構成することで、撮像装置から被写体までの距離を算出することができる。   As described above, by holding the feature point coordinates in the subject coordinate system L, the distance measuring apparatus 100 calculates the distance between the feature points (distance between two points on the subject, distance between subjects, etc.). be able to. Here, the distance between two points on the subject (on the subject surface) is the thickness or width of the subject. Further, the distance measuring device 100 is configured to perform coordinate conversion to the image capturing device coordinate system C based on [Equation 13] as described above to convert the distance to the image capturing device and send the distance to the storage unit 104. Thus, the distance from the imaging device to the subject can be calculated.

なお、以上の説明においては、被写体が動いていることを想定して説明したが、被写体は静止した状態で距離測定装置100が動いた場合においても、相対的には移動が生じているため適応可能である。
また、以上の説明においては、2回撮影する場合について説明したが、予備撮影を複数回行うこともできるし、現在フレームにおける画像を所望撮影で得られた撮影画像、それよりも以前のフレームにおける画像を予備撮影で得られた撮影画像とみなして処理することにより、動画像において逐次距離測定するように構成することもできることは容易に想定することができる。
In the above description, it is assumed that the subject is moving. However, even when the distance measuring apparatus 100 moves while the subject is stationary, there is a relative movement, which is applicable. It is possible.
Further, in the above description, the case where the image capturing is performed twice has been described, but the preliminary image capturing may be performed a plurality of times, and the image in the current frame may be the captured image obtained by the desired image capturing, and the image in the frame before that. It can be easily assumed that the distance can be sequentially measured in the moving image by treating the image as a captured image obtained in the preliminary photographing.

以上の構成によって、撮影空間中を動いている被写体を複数回撮影し、複数回の撮影で得られた撮影画像それぞれの特徴点座標およびその信頼度を求め、当該特徴点座標および信頼度に基づいて所望の撮影タイミングにおける撮影画像の特徴点座標を確定することで、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)と、その信頼度と、を測定することのできる距離測定装置および距離測定方法を提供することができる。   With the above configuration, the object moving in the shooting space is photographed multiple times, the feature point coordinates and the reliability of each of the captured images obtained by the multiple shots are obtained, and based on the feature point coordinates and the reliability. By determining the feature point coordinates of the captured image at the desired capturing timing by using the distance (distance from the imaging device to the subject, distance between two points on the subject, or distance between subjects) and its reliability, It is possible to provide a distance measuring device and a distance measuring method capable of measuring the distance.

以上説明した第1の実施の形態の距離測定装置100によれば、経時的に複数の撮影画像を取得する撮像部101と、複数の撮影画像における被写体上の点を検出する被写体点検出部(特徴点検出部201)と、被写体上の点の3次元位置を算出する3次元位置算出部(3次元位置情報算出部203)と、を備えた距離測定装置であって、算出された3次元位置の信頼度(統合信頼度S_R)を算出する信頼度算出部204と、算出された3次元位置を確定する3次元位置確定部206と、を更に備え、3次元位置確定部206は、複数の撮影画像における被写体上の任意の注目点の3次元位置を、注目点から任意の範囲内に存在する、複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。そして、距離測定装置100は、3次元位置確定部206によって確定された3次元位置に基づいて距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出するように構成されている。   According to the distance measuring apparatus 100 of the first embodiment described above, the imaging unit 101 that acquires a plurality of captured images over time, and the subject point detection unit (which detects points on the subject in the plurality of captured images ( A feature point detection unit 201) and a three-dimensional position calculation unit (three-dimensional position information calculation unit 203) that calculates a three-dimensional position of a point on a subject. The three-dimensional position determination unit 206 further includes a reliability calculation unit 204 that calculates the position reliability (integrated reliability S_R) and a three-dimensional position determination unit 206 that determines the calculated three-dimensional position. Based on the three-dimensional position of an arbitrary comparison point on the subject in a plurality of captured images, which exists within an arbitrary range from the attention point, and the reliability thereof. , To confirm It is configured. Then, the distance measuring apparatus 100 determines the distance (distance from the imaging device to the subject, distance between two points on the subject, or distance between the subjects) based on the three-dimensional position determined by the three-dimensional position determining unit 206. Is configured to calculate.

したがって、確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。
ここで、経時的に取得される「複数の撮影画像」とは、予備撮影で得られた撮影画像および所望撮影で得られた撮影画像である。
なお、撮像部101が1回の撮影で取得する撮影画像は、左画像および右画像に限ることはなく、互いに視差を有する撮影画像であればよい。
Therefore, the distance (distance from the image pickup device to the subject, distance between two points on the subject, or distance between the subjects) can be calculated based on the determined three-dimensional position, so that the measurement can be performed with higher reliability. Distance results can be obtained.
Here, the "plurality of photographed images" acquired over time are the photographed images obtained by the preliminary photographing and the photographed images obtained by the desired photographing.
Note that the captured images acquired by the image capturing unit 101 in one capture are not limited to the left image and the right image, and may be captured images having parallax with each other.

また、第1の実施の形態の距離測定装置100によれば、比較点は複数点であり、かつ、少なくとも1点は、注目点の存在する撮影画像とは異なる画像から検出されたものであるように構成することが可能である。   Further, according to the distance measuring apparatus 100 of the first embodiment, there are a plurality of comparison points, and at least one point is detected from an image different from the captured image in which the point of interest exists. Can be configured as follows.

このように構成することによって、より信頼度の高い測距結果を得ることができる。   With this configuration, it is possible to obtain a highly reliable distance measurement result.

また、第1の実施の形態の距離測定装置100によれば、信頼度(統合信頼度S_R)は、被写体までの距離による理論誤差に基づく信頼度であるように構成することができる。
具体的には、前述したように、特徴点信頼度I_Rおよびマッチング信頼度M_Rは被写体が前方に来るほど(すなわち、距離が近づくほど)下がる傾向があり、逆に計測誤差信頼度E_Rは被写体が前方に来るほど(すなわち、距離が近づくほど)上がる傾向がある。そして、統合信頼度S_Rは、特徴点信頼度I_R、マッチング信頼度M_R、および計測誤差信頼度E_Rに基づき算出されるので、被写体までの距離による理論誤差に基づく信頼度とすることができる。
Further, according to the distance measuring apparatus 100 of the first embodiment, the reliability (integrated reliability S_R) can be configured to be the reliability based on the theoretical error due to the distance to the subject.
Specifically, as described above, the feature point reliability I_R and the matching reliability M_R tend to decrease as the subject moves forward (that is, as the distance decreases), and conversely, the measurement error reliability E_R varies depending on the subject. There is a tendency to go up toward the front (that is, closer to the distance). Since the integrated reliability S_R is calculated based on the feature point reliability I_R, the matching reliability M_R, and the measurement error reliability E_R, the integrated reliability S_R can be reliability based on a theoretical error due to the distance to the subject.

このように構成することによって、被写体までの距離による理論誤差を考慮して確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。   With this configuration, the distance (distance from the imaging device to the subject, distance between two points on the subject, or distance between the subjects, based on the three-dimensional position determined in consideration of the theoretical error due to the distance to the subject, Since the distance) can be calculated, a more reliable distance measurement result can be obtained.

また、以上説明した第1の実施の形態における距離測定方法によれば、経時的に複数の撮影画像を取得する撮像部101によって被写体を撮影する撮影工程と、撮影画像における被写体上の点を検出する検出工程と、被写体上の点の3次元位置を算出する3次元位置算出工程と、算出された3次元位置の信頼度を算出する信頼度算出工程と、算出された3次元位置を確定する確定工程と、確定した3次元位置に基づいて、被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離を算出する算出工程と、を有し、確定工程では、複数の撮影画像における被写体上の任意の注目点の3次元位置を、注目点から任意の範囲内に存在する、複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。   Further, according to the distance measuring method in the first embodiment described above, a photographing process of photographing a subject by the image capturing unit 101 that acquires a plurality of photographed images over time, and detecting a point on the subject in the photographed images. Detection step, a three-dimensional position calculation step of calculating a three-dimensional position of a point on the subject, a reliability calculation step of calculating a reliability of the calculated three-dimensional position, and a calculated three-dimensional position are determined. And a calculation step of calculating a distance to the subject, a distance between two points on the subject, or a distance between the subjects based on the determined three-dimensional position. The three-dimensional position of an arbitrary point of interest on the subject in the image is determined based on the three-dimensional position of an arbitrary comparison point on the subject in a plurality of captured images existing within an arbitrary range from the point of interest and its reliability. It is configured so that.

したがって、確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。   Therefore, the distance (distance from the image pickup device to the subject, distance between two points on the subject, or distance between the subjects) can be calculated based on the determined three-dimensional position, so that the measurement can be performed with higher reliability. Distance results can be obtained.

<第2の実施の形態>:動きボケの推定
本実施の形態においては、動きボケを考慮した特徴点検出フィルタの設定方法に関して説明する。具体的には、複数回の撮影で得られた撮影画像から、被写体速度を予測することで、所望撮影における動きボケを推定し、動きボケに応じて特徴点検出フィルタのサイズや形状を変更し、特徴点を適切に検出する方法について説明する。
<Second Embodiment>: Estimation of Motion Blur In the present embodiment, a method of setting a feature point detection filter in consideration of motion blur will be described. Specifically, by estimating the subject speed from the shot images obtained by multiple shots, the motion blur in the desired shooting is estimated, and the size and shape of the feature point detection filter are changed according to the motion blur. A method of appropriately detecting the feature points will be described.

本実施の形態における画像処理部102は、図9に示すように、第1の実施の形態における構成(図2)に加え、複数回の撮影結果から動きボケを推定する動きボケ推定部901をさらに具備するように構成される。
動きボケ推定部901における動作の一例について、図10〜図12を用いて説明する。
As shown in FIG. 9, the image processing unit 102 according to the present embodiment includes a motion blur estimation unit 901 that estimates motion blur from a plurality of shooting results, in addition to the configuration according to the first embodiment (FIG. 2). It is configured to further include.
An example of the operation of the motion blur estimation unit 901 will be described with reference to FIGS. 10 to 12.

ステップS1001において、動きボケ推定部901は、複数回の撮影によって得られた夫々の特徴点位置から所望撮影時の速度を予測する。
ここで、具体的な一例として、1度の予備撮影の測定結果と所望撮影の暫定の測定結果とに基づき、速度を予測する方法について説明する。図11に示すように、任意の予備撮影3次元座標(X1,Y1,Z1)を選択し、その予備撮影3次元座標に対応する画像座標(u1,v1)を探索開始位置とし、例えば一般的な動きベクトル検出の手段と同様にして、所望撮影で得られた撮影画像における対応座標(画像座標(u2,v2))を探索する。画像座標(u2,v2)に対応する3次元座標(所望撮影3次元座標(X2,Y2,Z2))と予備撮影3次元座標(X1,Y1,Z1)のユークリッド距離および予備撮影と所望撮影との撮影時間間隔に基づいて、速度ベクトルを算出することができる。なお、3次元座標から画像座標への変換は、[数1]、[数12]、[数13]、および[数16]を利用することで変換できる。
In step S1001, the motion blur estimation unit 901 predicts the speed at the time of desired shooting from the respective characteristic point positions obtained by a plurality of times of shooting.
Here, as a specific example, a method of predicting the speed based on the measurement result of one preliminary photographing and the provisional measurement result of the desired photographing will be described. As shown in FIG. 11, an arbitrary preliminary photographing three-dimensional coordinate (X1, Y1, Z1) is selected, and the image coordinate (u1, v1) corresponding to the preliminary photographing three-dimensional coordinate is set as a search start position. Similar to the motion vector detecting means, the corresponding coordinates (image coordinates (u2, v2)) in the photographed image obtained by the desired photographing are searched. Euclidean distance between three-dimensional coordinates (desired shooting three-dimensional coordinates (X2, Y2, Z2)) and preliminary shooting three-dimensional coordinates (X1, Y1, Z1) corresponding to image coordinates (u2, v2) and preliminary shooting and desired shooting The velocity vector can be calculated based on the shooting time interval of. The conversion from the three-dimensional coordinates to the image coordinates can be performed by using [Equation 1], [Equation 12], [Equation 13], and [Equation 16].

ここで、(u,v)は画像座標、(X,Y,Z)は3次元座標、fは焦点距離、xo,yoは画像素子の中心座標から画像座標(0,0)に対応する画像素子座標のオフセット、pw,phは画像素子1画素の幅および高さである。   Here, (u, v) are image coordinates, (X, Y, Z) are three-dimensional coordinates, f is a focal length, and xo and yo are images corresponding to image coordinates (0, 0) from the center coordinates of the image element. The element coordinate offsets pw and ph are the width and height of one pixel of the image element.

ステップS1002において、動きボケ推定部901は、ステップS1001において得られた速度ベクトル情報に基づき、動きボケベクトルを推定する。動きボケ推定部901は、保存部104から撮像装置のシャッター速度情報を受け取り、図12に示すように、所望撮影3次元座標(X2,Y2,Z2)がシャッター速度間に移動した後の3次元座標(X3,Y3,Z3)を算出する。3次元座標(X2,Y2,Z2)および(X3,Y3,Z3)を、それぞれに対応する画像座標(u2,v2)および(u3,v3)に座標変換し、画像座標(u2,v2)および(u3,v3)の距離から動きボケベクトルを推定する。   In step S1002, the motion blur estimation unit 901 estimates a motion blur vector based on the velocity vector information obtained in step S1001. The motion blur estimation unit 901 receives the shutter speed information of the imaging device from the storage unit 104, and as illustrated in FIG. 12, the three-dimensional image after the desired shooting three-dimensional coordinates (X2, Y2, Z2) move between the shutter speeds. The coordinates (X3, Y3, Z3) are calculated. The three-dimensional coordinates (X2, Y2, Z2) and (X3, Y3, Z3) are coordinate-converted into corresponding image coordinates (u2, v2) and (u3, v3), and image coordinates (u2, v2) and The motion blur vector is estimated from the distance of (u3, v3).

ステップS1003において、動きボケ推定部901は、ステップS1002において得られた動きボケの情報に基づき、フィルタサイズの変更情報を生成し、特徴点検出部201に送る。例えば、動きボケのサイズ(2点間距離)が3画素であったとき、また、元の特徴点座標(所望撮影3次元座標(X2,Y2,Z2))は動きボケ範囲の中心であったと仮定すれば、動きボケの総量は6画素程度になっていることが考えられる。そこで、動きボケ範囲+周囲1画素として、フィルタサイズの変更情報として8×8画素の情報を生成し、特徴点検出部201に送信する。   In step S1003, the motion blur estimation unit 901 generates filter size change information based on the motion blur information obtained in step S1002, and sends it to the feature point detection unit 201. For example, when the size of motion blur (distance between two points) is 3 pixels, and the original feature point coordinates (desired photographing three-dimensional coordinates (X2, Y2, Z2)) are the center of the motion blur range. Assuming that the total amount of motion blur is about 6 pixels. Therefore, the information of 8 × 8 pixels is generated as the filter size change information for the motion blur range + the surrounding one pixel, and the information is transmitted to the feature point detection unit 201.

以上の方法は、特に動きボケベクトルの方向成分が、Z軸方向(撮像装置の光軸方向)に大きい場合に好適である。一方、動きボケベクトルの方向成分が、主にX軸方向に大きい場合、フィルタをX軸方向に変形(例えば、3×8)し、動きボケベクトルの方向成分が、主にY軸方向に大きい場合、フィルタをY軸方向に変形(例えば、8×3)するようにするとよい。例えば、X軸方向に大きく動きボケが発生していた場合、Y軸方向への特徴点の影響は少ないと想定することができる。したがって、このように、フィルタのサイズ変形(拡大)方向を制限することによって、計算量を削減することができる。   The above method is particularly suitable when the direction component of the motion blur vector is large in the Z-axis direction (the optical axis direction of the imaging device). On the other hand, when the direction component of the motion blur vector is mainly large in the X axis direction, the filter is deformed in the X axis direction (for example, 3 × 8), and the direction component of the motion blur vector is mainly large in the Y axis direction. In this case, the filter may be deformed in the Y-axis direction (for example, 8 × 3). For example, when a large motion blur occurs in the X-axis direction, it can be assumed that the influence of the feature point in the Y-axis direction is small. Therefore, the amount of calculation can be reduced by thus limiting the size deformation (expansion) direction of the filter.

以上においては、任意の3次元座標として1点を指定し、画像上のマッチング点から所望タイミングにおける例について説明したが、例えば、被写体の複数の特徴点の重心位置の移動量から速度を予測するようにしてもよい。しかしながら、動きボケを含む特徴点情報となるため、必ずしも精度の高い特徴点位置を検出できていない可能性があり、動きボケ方向が推定できているとは限らない。そこで、動きボケベクトルの大きさを無視し、動きボケベクトルの方向に応じて、任意のステップサイズ(例えば、1画素拡大)で、フィルタサイズの拡大や変形を行うように構成すると、判定処理のみで対応できるため、処理を単純化することができる。   In the above description, an example is described in which one point is designated as an arbitrary three-dimensional coordinate and the matching point on the image is obtained at a desired timing. You may do it. However, since the feature point information includes motion blur, the feature point position may not always be detected with high accuracy, and the motion blur direction may not be estimated. Therefore, if the size of the motion blur vector is ignored and the filter size is enlarged or deformed at an arbitrary step size (for example, 1 pixel enlargement) according to the direction of the motion blur vector, only the determination process is performed. Since it can be dealt with, the process can be simplified.

特徴点検出部201は、フィルタサイズの変更情報を受け取り、再度、所望撮影で得られた撮影画像に対する特徴点を検出することで、より信頼度の高い特徴点情報を得ることができるようになる。   The feature point detection unit 201 receives the filter size change information, and again detects the feature point for the captured image obtained by the desired shooting, whereby the feature point information with higher reliability can be obtained. ..

以上の説明においては、予備撮影と所望撮影の測定結果から、所望撮影の特徴点を再検出する構成であるが、例えば図13に示すように、予備撮影として2回撮影(予備撮影A、予備撮影B)しておき、予備撮影Bにおける速度ベクトルを算出し、当該の速度ベクトルと所望撮影までの撮影時間間隔に基づき、所望撮影時の3次元位置およびシャッター後の3次元位置を予測することで、動きボケを推定し、所望撮影時のフィルタサイズ・形状を予め設定しておくようにすることで、予備撮影Bの位置と等速度もしくは等加速度運動と仮定できる場合に、動きボケベクトルをより正確に推定することができる構成となる。   In the above description, the characteristic point of the desired shooting is re-detected from the measurement results of the preliminary shooting and the desired shooting. However, as shown in FIG. 13, for example, the preliminary shooting is performed twice (preliminary shooting A, preliminary shooting). Shooting B), calculating the speed vector in the preliminary shooting B, and predicting the three-dimensional position at the desired shooting and the three-dimensional position after the shutter based on the speed vector and the shooting time interval until the desired shooting. By estimating the motion blur and presetting the filter size and shape at the time of desired photographing, the motion blur vector can be calculated when the position of the preliminary photographing B can be assumed to be the same velocity or the same acceleration motion. The configuration enables more accurate estimation.

以上の構成によって、複数回の撮影で得られた撮影画像から、被写体速度を予測することで、所望撮影における動きボケを推定し、動きボケに応じて特徴点検出フィルタのサイズや形状を変更することで、特徴点をより適切に検出して、撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離と、その信頼度と、を測定することのできる距離測定装置および距離測定方法を提供することができる。   With the above configuration, the motion blur in the desired shooting is estimated by predicting the subject speed from the captured images obtained by multiple shootings, and the size and shape of the feature point detection filter are changed according to the motion blur. In this way, the distance measurement capable of more appropriately detecting the feature points and measuring the distance from the imaging device to the subject, the distance between two points on the subject, or the distance between the subjects and their reliability. An apparatus and a distance measuring method can be provided.

以上説明した第2の実施の形態の距離測定装置100によれば、複数の撮影画像(予備撮影で得られた撮影画像および所望撮影で得られた撮影画像)の各々に対応して算出された複数の3次元位置から撮像部101に対する被写体の移動方向を予測することで動きボケを推定する動きボケ推定部901を備え、動きボケ推定部901の推定結果に基づいて、注目点(特徴点)を検出する際に用いる注目点検出窓(特徴点検出フィルタ)のサイズおよび形状のうち、少なくとも一方を変更するように構成されている。   According to the distance measuring apparatus 100 of the second embodiment described above, it is calculated corresponding to each of a plurality of captured images (captured image obtained by preliminary capture and captured image obtained by desired capture). A motion blur estimation unit 901 that estimates the motion blur by predicting the moving direction of the subject with respect to the imaging unit 101 from a plurality of three-dimensional positions is provided, and the point of interest (feature point) based on the estimation result of the motion blur estimation unit 901. It is configured to change at least one of the size and the shape of the point-of-interest detection window (feature point detection filter) used when detecting the.

したがって、動きボケの影響を考慮して注目点を検出することができるので、注目点をより適切に検出することができ、より信頼度の高い測距結果を得ることができる。   Therefore, the attention point can be detected in consideration of the influence of the motion blur, so that the attention point can be detected more appropriately and the distance measurement result with higher reliability can be obtained.

<第3の実施の形態>:ユーザによる指定
本実施の形態においては、ユーザが測定したい特徴点を指定するための表示手段および入力手段を有し、ユーザが指定した特徴点群のうち、各特徴点もしくはそれらの特徴点によってなされる直線、曲線、もしくは曲面(平面を含む)と、その誤差範囲と、に含まれる特徴点の計測結果のみを確定するように構成することで、計算量を削減する方法について説明する。また、信頼度の高い特徴点を強調表示(例えば、信頼度の高さに応じたサイズの丸印で囲む)することによって、ユーザに特徴点を指定しやすくさせるための表示方法について説明する。
<Third Embodiment>: Specification by User In the present embodiment, each of the feature point groups designated by the user has a display unit and an input unit for designating a feature point that the user wants to measure. The amount of calculation can be reduced by configuring only the measurement results of the feature points included in the feature points or the straight lines, curves, or curved surfaces (including planes) formed by those feature points and their error ranges. The method of reduction will be described. In addition, a display method for facilitating the user to specify a feature point by highlighting the feature point with high reliability (eg, enclosing it with a circle having a size corresponding to the high reliability) will be described.

本実施の形態における画像処理部102は、図14に示すように、第1の実施の形態における構成(図2)に加え、ユーザが特徴点を指定するための画像を生成する表示画像生成部1401と、ユーザの指定特徴点に基づき補正する特徴点群を選出する確定特徴点選出部1402と、をさらに具備するように構成される。
なお、第2の実施の形態における構成(図9)に加え、表示画像生成部1401と、確定特徴点選出部1402と、をさらに具備するように構成することも可能である。
As shown in FIG. 14, the image processing unit 102 according to the present embodiment includes a display image generation unit that generates an image for a user to specify a feature point, in addition to the configuration according to the first embodiment (FIG. 2). 1401 and a definite feature point selection unit 1402 that selects a feature point group to be corrected based on a user-specified feature point.
In addition to the configuration (FIG. 9) in the second embodiment, a display image generation unit 1401 and a fixed feature point selection unit 1402 may be further provided.

表示画像生成部1401は、ユーザが測定したい特徴点を指定するための画像を生成し、表示部103に送る。これにより、表示部103には、例えば図15に示すような画像が表示される。ここで、1501は撮影画像領域であり、1502が特徴点指定設定領域である。撮影画像領域1501には、撮影画像と、一定の信頼度以上となっている特徴点を囲む円と、が表示されている。ここでは、ユーザによって指定された特徴点を囲む円1504を実線で表し、一方、指定されていない特徴点を囲む円1503を破線で表している。また、円の大きさが大きいほど、信頼度の高い特徴点であることを示している。表示される特徴点の信頼度の閾値は、例えば、特徴点指定設定領域1502に表示されるGUI(例えば、スライドバー1505)によってユーザが指定することができる。さらに、ユーザは補間方法選択部1506によって補間方法を指定する。
そして、ユーザが計測ボタン1507を選択すると、ユーザに指定された特徴点およびそれらの特徴点によってなされる曲面等に接する特徴点の3次元位置の確定が行われる。
The display image generation unit 1401 generates an image for the user to specify a feature point to be measured and sends it to the display unit 103. As a result, an image as shown in FIG. 15, for example, is displayed on the display unit 103. Here, 1501 is a photographed image area, and 1502 is a feature point designation setting area. In the captured image area 1501, a captured image and a circle surrounding a feature point having a certain reliability or higher are displayed. Here, a circle 1504 surrounding the feature point designated by the user is represented by a solid line, while a circle 1503 surrounding a feature point not designated is represented by a broken line. In addition, the larger the size of the circle, the higher the reliability of the feature points. The threshold of the reliability of the displayed feature points can be specified by the user, for example, by the GUI (for example, the slide bar 1505) displayed in the feature point specification setting area 1502. Further, the user specifies the interpolation method by the interpolation method selection unit 1506.
Then, when the user selects the measurement button 1507, the three-dimensional positions of the feature points that are in contact with the feature points designated by the user and the curved surface formed by these feature points are determined.

確定特徴点選出部1402は、撮影画像領域1501において指定された特徴点と補間方法選択部1506によって指定された補間方法に基づき、直線推定、曲線推定、もしくは曲面(平面を含む)推定を行う。例えば図15に示す例の場合、指定された特徴点は3点(立方体の上面の4つの角のうちの3つ)であり、指定された補間方法は「平面」であるため、平面推定を行う。平面は、3点のうちの1つを原点とした場合になされる2つのベクトルの外積を算出することによって推定することができる。
続いて、確定特徴点選出部1402は、特徴点情報保持部205に保持された特徴点情報を参照して、推定した直線、曲線、もしくは曲面(平面を含む)に接する特徴点群を選出する。例えば平面推定を行った場合は、この平面に接する特徴点群を選出する。このとき、この平面から法線方向に一定の距離以内にある特徴点候補を選出する。この一定の距離とは、例えば、システムに要求される距離推定誤差範囲とし、例えば0.1mm以内に設定する。もしくは、距離が遠くなるほど、視差1ピクセルあたりの距離の推定誤差が大きくなるため、距離が遠くなるほど、範囲を広げるように構成すると好適である。
The fixed feature point selection unit 1402 performs straight line estimation, curve estimation, or curved surface (including plane) estimation based on the feature points designated in the captured image area 1501 and the interpolation method designated by the interpolation method selection unit 1506. For example, in the case of the example shown in FIG. 15, the specified feature points are three points (three of the four corners of the upper surface of the cube), and the specified interpolation method is “plane”. To do. The plane can be estimated by calculating the cross product of the two vectors made with one of the three points as the origin.
Subsequently, the definite feature point selection unit 1402 refers to the feature point information stored in the feature point information storage unit 205 and selects a feature point group that is in contact with the estimated straight line, curve, or curved surface (including plane). .. For example, when plane estimation is performed, a feature point group in contact with this plane is selected. At this time, feature point candidates within a certain distance from this plane in the normal direction are selected. This fixed distance is, for example, the range estimation error range required for the system, and is set within 0.1 mm, for example. Alternatively, since the estimation error of the distance per parallax pixel increases as the distance increases, it is preferable to configure the range to increase as the distance increases.

そして、このようにして選出された特徴点のみが3次元位置確定部206において確定され、その結果が特徴点情報保持部205に保持される。確定された特徴点情報は、例えば図16に示すように表示部103に表示される。図16における1601は、3次元位置が算出された平面を示している。ここで、この平面上であってユーザが測定したい特徴点を指定することによって、画像上にその3次元位置情報が表示されるようにする。また、この平面上にある領域(点)であって、特徴点ではない位置(点)が、ユーザによって指定された場合は、例えば、最も近い特徴点の情報を表示するようにしても良いし、例えば、指定位置の平面4方向の近傍特徴点それぞれの情報を用いて内挿した結果を表示するようにすることもできる。
以上の構成によって、ユーザに特徴点を指定しやすくさせるための表示方法を提供することができる。
Then, only the feature points selected in this way are determined by the three-dimensional position determination unit 206, and the result is stored in the feature point information storage unit 205. The confirmed feature point information is displayed on the display unit 103 as shown in FIG. 16, for example. Reference numeral 1601 in FIG. 16 indicates a plane on which the three-dimensional position is calculated. Here, by designating a feature point on the plane that the user wants to measure, the three-dimensional position information is displayed on the image. Further, when a position (point) which is an area (point) on this plane and is not a feature point is designated by the user, for example, information on the closest feature point may be displayed. For example, it is possible to display the interpolated result by using the information of each of the neighboring feature points of the designated position in the plane 4 direction.
With the above configuration, it is possible to provide a display method for making it easier for the user to specify the feature points.

以上説明した第3の実施の形態の距離測定装置100によれば、注目点(特徴点)をユーザが指定可能であるように構成されている。   The distance measuring apparatus 100 according to the third embodiment described above is configured so that the user can specify the point of interest (feature point).

したがって、ユーザが興味のある注目点が分かるため、その注目点の3次元位置のみを確定すればよく、計算量を削減することができる。
なお、ユーザによる特徴点の指定の仕方は適宜選択可能であり、例えば、ユーザが外部入出力部105に接続された操作部(マウス等)を操作して特徴点を指定できるように構成することも可能であるし、表示部103をタッチパネル式の表示部にしてもよい。
Therefore, since the user can recognize the attention point of interest, only the three-dimensional position of the attention point needs to be determined, and the amount of calculation can be reduced.
The method of designating the feature points by the user can be appropriately selected. For example, the user can operate the operation unit (mouse or the like) connected to the external input / output unit 105 to designate the feature points. Alternatively, the display unit 103 may be a touch panel type display unit.

<第4の実施の形態>
以上の実施の形態(第1〜第3の実施の形態)によって説明した距離測定装置100は、例えば、車輛のパンタグラフのすり板部分の厚み測定に利用することができる。
<Fourth Embodiment>
The distance measuring device 100 described in the above embodiments (first to third embodiments) can be used, for example, for measuring the thickness of the sliding plate portion of a vehicle pantograph.

具体的には、撮影範囲へのパンタグラフの侵入を検出した通過センサからの撮影トリガに応じて撮影した画像(無論、この画像にはパンタグラフが写っている)を使う。
もしくは、撮像装置で経時的に複数の画像を撮影しておき、この複数の画像のうちパンタグラフが写っている画像を使う。このとき、例えば、特徴的な部分のパターンマッチングで検出するようにしても良いし、例えば図17に示すように、架線領域をあらかじめ撮影しておくことで背景差分等を利用することで、架線領域の変異からパンタグラフが写っている画像を判断するように構成することができる。
Specifically, an image taken in response to a shooting trigger from a passage sensor that detects the entry of the pantograph into the shooting range (of course, the pantograph is shown in this image) is used.
Alternatively, a plurality of images are taken with an imaging device over time, and the image showing the pantograph is used from among the plurality of images. At this time, for example, it may be detected by pattern matching of a characteristic portion, or, for example, as shown in FIG. 17, by taking a background difference by taking an image of the overhead line area in advance, the overhead line can be used. It can be configured to determine the image in which the pantograph appears from the region variation.

基準は、固定部分を使う。直線検出し、すり板状の直線領域を使う。平面を定義し、その平面から、それぞれのすり板エッジ部分までの厚さをはかる。具体的には、まず、図18(a)に示すように、すり板長手方向への直線的なエッジを抽出する。次いで、図18(b)に示すように、基準となる面を定義する。その後、図18(c)に示すように、各位置までの距離(厚み)を算出する。
図19に示すように、予備撮影における厚さプロファイルと、所望撮影における厚さプロファイルと、をすり板長手方向にマッチング(例えば、相互相関係数等を求めることで、対応位置を算出)をして、位置を合わせて、そこから、比較を行うようにする。
The standard uses the fixed part. Detects a straight line and uses a straight line area in the shape of a strip. Define a plane and measure the thickness from that plane to the edge of each contact plate. Specifically, first, as shown in FIG. 18A, a straight edge in the longitudinal direction of the contact strip is extracted. Next, as shown in FIG. 18B, a reference surface is defined. Then, as shown in FIG. 18C, the distance (thickness) to each position is calculated.
As shown in FIG. 19, the thickness profile in the preliminary shooting and the thickness profile in the desired shooting are matched in the longitudinal direction of the strip (for example, the corresponding position is calculated by obtaining the cross-correlation coefficient or the like). Then, align the positions and start the comparison from there.

上記の各実施の形態において、添付図面に図示されている構成等については、あくまで一例であり、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In each of the above-described embodiments, the configurations and the like illustrated in the accompanying drawings are merely examples, and the present invention is not limited to these and can be appropriately changed within the scope of exerting the effects of the present invention. Is. Other than the above, the present invention can be appropriately modified and implemented without departing from the scope of the object of the present invention.

100 距離測定装置
101 撮像部
201 特徴点検出部(被写体点検出部)
203 3次元位置情報算出部(3次元位置算出部)
204 信頼度算出部
206 3次元位置確定部
901 動きボケ推定部
100 distance measuring device 101 imaging unit 201 feature point detection unit (subject point detection unit)
203 3D position information calculation unit (3D position calculation unit)
204 reliability calculation unit 206 three-dimensional position determination unit 901 motion blur estimation unit

Claims (5)

複数の方向から撮影した複数の画像を取得する撮像部と、
前記画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力することを特徴とする距離測定装置。
An imaging unit that acquires a plurality of images taken from a plurality of directions,
A subject point detection unit that detects a point on the subject in the image,
A three-dimensional position calculation unit that calculates a three-dimensional position of a point on the subject by parallax measurement of the plurality of images ,
Reliable based on the measurement error E = P · Np · Z / f (P is the pixel pitch amount, Np is the parallax measurement accuracy, f is the focal length, and Z is the distance to the subject) at the three-dimensional position of the point on the subject. Calculate the degree,
A distance measuring device, which determines a coordinate value of a point on the subject based on the three-dimensional position and the reliability and outputs a distance.
経時的に撮影した複数の画像を取得する撮像部と、
前記画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力することを特徴とする距離測定装置。
An imaging unit that acquires a plurality of images taken over time,
A subject point detection unit that detects a point on the subject in the image,
A three-dimensional position calculation unit that calculates a three-dimensional position of a point on the subject by parallax measurement of the plurality of images ,
Reliable based on the measurement error E = P · Np · Z / f (P is the pixel pitch amount, Np is the parallax measurement accuracy, f is the focal length, and Z is the distance to the subject) at the three-dimensional position of the point on the subject. Calculate the degree,
A distance measuring device, which determines a coordinate value of a point on the subject based on the three-dimensional position and the reliability and outputs a distance.
第1撮影時において複数の画像を元に視差計測で注目点の3次元位置の信頼度を算出し、第2撮影時において前記第1撮影時とは別の複数の画像を元に視差計測で比較点の3次元位置の信頼度を算出し、これらの信頼度の比較結果に基づいて、前記被写体上の点の座標値を確定し、距離を出力することを特徴とする請求項2に記載の距離測定装置。   The reliability of the three-dimensional position of the point of interest is calculated by parallax measurement based on the plurality of images during the first shooting, and the parallax measurement is performed based on the plurality of images different from the time during the first shooting during the second shooting. The reliability of a three-dimensional position of a comparison point is calculated, the coordinate value of the point on the subject is determined based on the comparison result of these reliability, and the distance is output. Distance measuring device. 前記距離は、前記距離測定装置と前記被写体上の点との間の距離、前記被写体上の点と当該被写体上の他の点との間の距離、又は前記被写体上の点と前記画像における他の被写体上の点との間の距離であることを特徴とする請求項1から請求項3のいずれか一項に記載の距離測定装置。   The distance is a distance between the distance measuring device and a point on the object, a distance between a point on the object and another point on the object, or a point on the object and other points in the image. The distance measuring apparatus according to any one of claims 1 to 3, wherein the distance is a distance to a point on the subject. 前記被写体上の点の前記信頼度を、当該信頼度の大小が分かるように表示することを特徴とする請求項1から請求項4のいずれか一項に記載の距離測定装置。   The distance measuring device according to claim 1, wherein the reliability of a point on the subject is displayed so that the magnitude of the reliability can be seen.
JP2015011446A 2015-01-23 2015-01-23 Distance measuring device Active JP6694234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015011446A JP6694234B2 (en) 2015-01-23 2015-01-23 Distance measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015011446A JP6694234B2 (en) 2015-01-23 2015-01-23 Distance measuring device

Publications (3)

Publication Number Publication Date
JP2016136112A JP2016136112A (en) 2016-07-28
JP2016136112A5 JP2016136112A5 (en) 2018-03-08
JP6694234B2 true JP6694234B2 (en) 2020-05-13

Family

ID=56512518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015011446A Active JP6694234B2 (en) 2015-01-23 2015-01-23 Distance measuring device

Country Status (1)

Country Link
JP (1) JP6694234B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7227454B2 (en) * 2018-07-18 2023-02-22 ミツミ電機株式会社 ranging camera
US11361466B2 (en) 2018-11-30 2022-06-14 Casio Computer Co., Ltd. Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
JP7049983B2 (en) * 2018-12-26 2022-04-07 株式会社日立製作所 Object recognition device and object recognition method
CN112449176B (en) * 2019-09-03 2023-05-26 浙江舜宇智能光学技术有限公司 Test method and test system of lifting type camera device
US11227402B2 (en) * 2020-05-29 2022-01-18 Icatch Technology, Inc. Velocity measuring device
JP7533937B2 (en) 2020-10-14 2024-08-14 Necソリューションイノベータ株式会社 Image processing device, image processing method, and program
JP7221469B2 (en) * 2020-12-11 2023-02-13 三菱電機株式会社 Reliability estimation device, position estimation device, and reliability estimation method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2923069B2 (en) * 1991-03-15 1999-07-26 日本電信電話株式会社 Viewpoint position determination method
JP4444440B2 (en) * 2000-03-30 2010-03-31 株式会社トプコン Stereo image measuring device
JP5747797B2 (en) * 2011-11-29 2015-07-15 コニカミノルタ株式会社 Image processing apparatus, image processing method, and image processing program
JP5925109B2 (en) * 2012-11-12 2016-05-25 キヤノン株式会社 Image processing apparatus, control method thereof, and control program
JP6227898B2 (en) * 2013-05-29 2017-11-08 株式会社Subaru Image processing device

Also Published As

Publication number Publication date
JP2016136112A (en) 2016-07-28

Similar Documents

Publication Publication Date Title
JP6694234B2 (en) Distance measuring device
JP4809291B2 (en) Measuring device and program
US9615081B2 (en) Method and multi-camera portable device for producing stereo images
KR100938195B1 (en) Method for distance estimation and apparatus for the same using a stereo matching
JP2007263669A (en) Three-dimensional coordinates acquisition system
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
JP2014092461A (en) Image processor and image processing method, image processing system, and program
JP6694281B2 (en) Stereo camera and imaging system
CN109661815B (en) Robust disparity estimation in the presence of significant intensity variations of the camera array
JP6282377B2 (en) Three-dimensional shape measurement system and measurement method thereof
JP2016217944A (en) Measurement device and measurement method
CN107077719B (en) Perspective correction based on depth map in digital photos
TWI571099B (en) Device and method for depth estimation
CN104641395B (en) Image processing equipment and image processing method
US20190313082A1 (en) Apparatus and method for measuring position of stereo camera
JP6622575B2 (en) Control device, control method, and program
US9538161B2 (en) System and method for stereoscopic photography
JP6305232B2 (en) Information processing apparatus, imaging apparatus, imaging system, information processing method, and program.
JP6602412B2 (en) Information processing apparatus and method, information processing system, and program.
EP2866446B1 (en) Method and multi-camera portable device for producing stereo images
WO2015159791A1 (en) Distance measuring device and distance measuring method
US10726528B2 (en) Image processing apparatus and image processing method for image picked up by two cameras
JP6734994B2 (en) Stereo measuring device and system
JP2016072924A (en) Image processing system and image processing method
CN110827230A (en) Method and device for improving RGB image quality by TOF

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200417

R150 Certificate of patent or registration of utility model

Ref document number: 6694234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250