JP5392198B2 - Ranging device and imaging device - Google Patents

Ranging device and imaging device Download PDF

Info

Publication number
JP5392198B2
JP5392198B2 JP2010154256A JP2010154256A JP5392198B2 JP 5392198 B2 JP5392198 B2 JP 5392198B2 JP 2010154256 A JP2010154256 A JP 2010154256A JP 2010154256 A JP2010154256 A JP 2010154256A JP 5392198 B2 JP5392198 B2 JP 5392198B2
Authority
JP
Japan
Prior art keywords
parallax
image
calculation
unit
parallax calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010154256A
Other languages
Japanese (ja)
Other versions
JP2012018014A (en
Inventor
聡一郎 横田
達敏 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010154256A priority Critical patent/JP5392198B2/en
Publication of JP2012018014A publication Critical patent/JP2012018014A/en
Application granted granted Critical
Publication of JP5392198B2 publication Critical patent/JP5392198B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)

Description

本発明は、測距装置及び撮像装置に関する。   The present invention relates to a distance measuring device and an imaging device.

近年、デジタルカメラや車載カメラなどのリアルタイム処理が要求される組み込み環境で、ステレオカメラのような測距装置を利用することが実用化されてきている。例えば、デジタルカメラにおいて、ステレオカメラを高速オートフォーカスに利用するという技術がある。   In recent years, it has become practical to use a distance measuring device such as a stereo camera in an embedded environment such as a digital camera or an in-vehicle camera that requires real-time processing. For example, there is a technique of using a stereo camera for high-speed autofocus in a digital camera.

従来のデジタルカメラのオートフォーカスにおいては、少しずつフォーカスを変えてそのたびに画像を取得し、それらの画像のコントラストを比較して、最も高いコントラストを持つフォーカス位置を最適のフォーカス位置に決定していた。   In conventional autofocus of digital cameras, the focus is changed little by little, and images are acquired each time. The contrast of these images is compared, and the focus position with the highest contrast is determined as the optimum focus position. It was.

しかしながら、前述した方法では、フォーカス位置を変えて多くの画像を撮像しなければならないため、処理時間がかかるという問題がある。これに対して、ステレオカメラを測距装置としてオートフォーカス用に利用し、一度の撮像で被写体までの距離を取得することで、その距離にあわせたフォーカス位置を算出する方法がある。この方法を用いると、一度の撮像処理で最適のフォーカス位置を算出できるために、高速なオートフォーカス処理が可能になる。   However, the above-described method has a problem that it takes a long processing time because many images must be taken by changing the focus position. On the other hand, there is a method in which a stereo camera is used as a distance measuring device for autofocusing, and a distance to a subject is acquired by one imaging to calculate a focus position according to the distance. When this method is used, the optimum focus position can be calculated by a single imaging process, so that a high-speed autofocus process is possible.

例えば、特許文献1(特開平7−225127)には、ステレオカメラとして測距精度を出しやすい縦に並んだ水平エッジ(以降、単に縦エッジと呼ぶ)を検出し、その縦エッジ部の視差データを算出する方法が開示されている。   For example, in Patent Document 1 (Japanese Patent Laid-Open No. 7-225127), vertical edges that are easy to obtain ranging accuracy as a stereo camera (hereinafter simply referred to as vertical edges) are detected, and the parallax data of the vertical edge portion is detected. A method of calculating is disclosed.

また、特許文献2(特開2009−14444)には、エッジ検出部が検出したエッジ情報を用いて、処理領域設定部が、物体が存在する可能性のある候補領域を切出し、その切出した候補領域に対して、対応領域探索部がPOC法などで視差を算出するという方法が開示されている。   Further, in Patent Document 2 (Japanese Patent Application Laid-Open No. 2009-14444), using the edge information detected by the edge detection unit, the processing region setting unit extracts a candidate region where an object may exist, and the extracted candidate A method is disclosed in which a corresponding area search unit calculates a parallax with respect to an area by a POC method or the like.

また、視差を算出する際に、画像を分割する技術もある。例えば、特許文献3(特開平11−14346号公報)には、ステレオカメラにおける一方の画像(基準画像)に対し、空などの区域を除いた所定域に所定サイズのウィンドウを設定し、そのウィンドウ単位で視差を算出する車載ステレオカメラが開示されている。   There is also a technique for dividing an image when calculating parallax. For example, in Patent Document 3 (Japanese Patent Laid-Open No. 11-14346), a window of a predetermined size is set in a predetermined area excluding an area such as the sky for one image (reference image) in a stereo camera. An in-vehicle stereo camera that calculates parallax in units is disclosed.

また、特許文献4(特開2006−322795号公報)には、ステレオカメラにおける一方の画像(基準画像)に対して、所定の物体に対応する領域とこの物体の種別とをまず識別し、その識別結果を参照して視差演算を行う演算範囲を設定するステレオカメラが開示されている。   Patent Document 4 (Japanese Patent Laid-Open No. 2006-32295) first identifies an area corresponding to a predetermined object and the type of the object for one image (reference image) in a stereo camera, A stereo camera that sets a calculation range for performing a parallax calculation with reference to an identification result is disclosed.

しかし、従来技術のように、ステレオカメラを用いる測距装置をデジタルカメラに適用すると、測距した結果でメインの撮像素子側を制御することになる。よって、デジタルカメラとしてのメインの撮像素子の撮像画角に、測距処理用の撮像画像の画角をあわせることが大きな課題になる。デジタルカメラでは、6°〜60°の大きな画角変動範囲をもつことが一般的である。このような画角変動(ズーム)は、筐体を動作させてレンズの焦点距離を動かす機械的な機構で実現される(光学ズーム)か、画像処理のような電子的処理によって実現される(電子ズーム)。   However, when a distance measuring device using a stereo camera as in the prior art is applied to a digital camera, the main image sensor side is controlled by the result of distance measurement. Therefore, it becomes a big problem to match the angle of view of the picked-up image for distance measurement processing with the angle of view of the main image pickup device as a digital camera. In general, a digital camera has a large field angle fluctuation range of 6 ° to 60 °. Such a variation in the angle of view (zoom) is realized by a mechanical mechanism that moves the focal length of the lens by operating the housing (optical zoom) or by electronic processing such as image processing ( Electronic zoom).

しかしながら、オートフォーカス用の測距装置側に対しても光学ズーム機構を持たせようとすると、大きなコストアップにつながり、また筐体におけるスペースも必要になる。電子ズーム機構の場合は、処理時間がかかること、高速で実現しようとするとコストアップにつながることが問題になる。   However, if an optical zoom mechanism is also provided on the autofocus distance measuring device side, this leads to a large cost increase and a space in the housing is also required. In the case of the electronic zoom mechanism, there are problems that processing time is required and that an increase in cost is realized if it is realized at high speed.

以上を踏まえると、オートフォーカス用の測距装置に対しては、ひとつの画角・焦点距離で、メインの撮像素子側の画角変動範囲全体をカバーできることが望ましい。ただし、そのような構成の場合、図1に示すように、メインの撮像画像のさまざまな画角に対して、対応するオートフォーカス撮像画像内の対応画像領域が大きく異なってしまう。   In view of the above, it is desirable that the autofocus range finder can cover the entire field angle fluctuation range on the main image sensor side with a single field angle and focal length. However, in such a configuration, as shown in FIG. 1, the corresponding image areas in the corresponding autofocus captured image are greatly different with respect to various angles of view of the main captured image.

図1は、オートフォーカス撮像画像内の対応画像領域が異なる例を示す図である。図1(A)は、オートフォーカス撮像画角<メイン撮像画角の場合のそれぞれの画像の例を示す。図1(A)に示すように、メイン撮像画角が大きい場合、つまり近傍撮影時には、メイン撮像画像は、オートフォーカス撮像画像の視差算出対象の対応画像よりも大きくなる。   FIG. 1 is a diagram illustrating an example in which the corresponding image areas in the autofocus captured image are different. FIG. 1A shows an example of each image when autofocus imaging angle of view <main imaging angle of view. As shown in FIG. 1A, when the main imaging angle of view is large, that is, at the time of close-up shooting, the main captured image is larger than the corresponding image that is the target for parallax calculation of the autofocus captured image.

図1(B)は、オートフォーカス撮像画角=メイン撮像画角の場合のそれぞれの画像の例を示す。図1(B)に示すように、オートフォーカス撮像画像とメイン撮像画像とは同じ画像サイズになる。   FIG. 1B shows an example of each image when autofocus imaging angle of view = main imaging angle of view. As shown in FIG. 1B, the autofocus captured image and the main captured image have the same image size.

図1(C)は、オートフォーカス撮像画角>メイン撮像画角の場合のそれぞれの画像の例を示す。図1(C)に示すように、メイン撮像画角が小さい場合、つまり望遠撮影時には、オートフォーカス撮像画像の視差算出対象の対応画像領域は小さくなる。   FIG. 1C shows an example of each image when autofocus imaging angle of view> main imaging angle of view. As shown in FIG. 1C, when the main imaging angle of view is small, that is, at the time of telephoto shooting, the corresponding image area for the parallax calculation target of the autofocus captured image is small.

オートフォーカスにステレオカメラを利用することを考えた場合、これらの任意のサイズの画像エリア全体に対して、視差を算出できることが望ましい。これは、デジタルカメラの場合、被写体としてさまざまなものが想定され、被写体の画像内でのサイズもさまざまであるからである。ただし、視差として無効な値は不必要である。このため、メインの撮像系に対応した画像領域で、画像領域のエリア全体の有効な視差のマップが検出できることが要求される。   In consideration of using a stereo camera for autofocus, it is desirable to be able to calculate parallax for the entire image area of any size. This is because in the case of a digital camera, various subjects are assumed, and the size of the subject in the image varies. However, an invalid value for parallax is unnecessary. For this reason, it is required that an effective parallax map of the entire area of the image area can be detected in the image area corresponding to the main imaging system.

一方、オートフォーカスでは、リアルタイム性が要求されるため、視差計算を高速化したいという要求もある。前述した特許文献3,4は、オートフォーカスに用いる技術ではないが、視差計算を実行する画像を、物体の有無によって画像を分割し、高速化を図る技術である。   On the other hand, since autofocus requires real-time performance, there is also a demand for speeding up parallax calculation. Patent Documents 3 and 4 described above are not techniques used for autofocusing, but are techniques for increasing the speed by dividing an image on which parallax calculation is performed according to the presence or absence of an object.

しかし、特許文献3,4では、視差計算を実施する前に、識別や認識処理を必要とするためにその分のオーバーヘッドがかかることや、識別処理の精度が問題となる。当然ながら、識別処理の精度を上げようとしたり、さまざまなシーンに対応したりすれば処理時間がかかるようになる。さらに、識別処理などを行う上では、識別する対象を想定することが必要となる。また、特許文献3には、撮像処理、識別処理、範囲設定処理、距離演算処理などをパイプラインで処理する方法が開示されているが、視差算出(距離演算処理の一部)自体にかかる処理を高速化する技術ではない。   However, in Patent Documents 3 and 4, since identification and recognition processing are required before the parallax calculation is performed, the corresponding overhead is required, and the accuracy of the identification processing is a problem. Of course, if it is attempted to increase the accuracy of the identification process or to deal with various scenes, it takes a long processing time. Furthermore, it is necessary to assume an object to be identified in performing the identification process. Further, Patent Document 3 discloses a method for processing an imaging process, an identification process, a range setting process, a distance calculation process, and the like in a pipeline, but a process related to parallax calculation (part of the distance calculation process) itself. It is not a technology to speed up.

また、例えば上述したように、ステレオカメラをデジタルカメラのオートフォーカスに適用する場合などには、そのカメラが見る対象やシーンにはさまざまなものが想定される。そのような状況においては、むしろ、画像内のある領域における視差がどのように分布されているかの情報の方が必要になることが多い。   Further, for example, as described above, when a stereo camera is applied to autofocus of a digital camera, various objects and scenes viewed by the camera are assumed. In such a situation, rather, information on how the parallax is distributed in a certain region in the image is often required.

図1に示すように、メイン撮像画像に対応したステレオカメラの画像サイズ内において、視差がどのように分布されているかが分かれば、オートフォーカスは可能になる。認識や識別などは、処理時間がかかっても許される場合が多く、そのため、算出された視差の分布と輝度情報とを用いて、別途行う方が効率的である。   As shown in FIG. 1, if it is known how the parallax is distributed within the image size of the stereo camera corresponding to the main captured image, autofocus is possible. Recognition and identification are often permitted even if processing time is required. Therefore, it is more efficient to separately perform recognition using the calculated disparity distribution and luminance information.

以上により、従来技術では、ステレオカメラをオートフォーカスに適用する場合、視差計算を高速に行うための認識処理やエッジ抽出処理に時間がかかってしまうという問題点があった。   As described above, in the case of applying a stereo camera to autofocus, there is a problem that it takes time for recognition processing and edge extraction processing for performing parallax calculation at high speed.

そこで、本発明は上記問題点に鑑みてなされたものであり、視差算出にかかる処理時間を高速化することができる測距装置及び撮像装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to provide a distance measuring device and an imaging device that can increase the processing time required for parallax calculation.

本発明の一観点における測距装置は、対象物までの距離を測定する測距装置であって、2つの撮像手段と、前記2つの撮像手段により撮像されたそれぞれの画像を複数の小画像に分割する分割手段と、前記2つの撮像手段のうち一方の撮像手段により撮像された画像の小画像に対し、視差算出画素を選択するためのテクスチャ検出処理、選択された視差算出画素と、他の撮像手段により撮像された画像のうち、前記選択された視差算出画素に対応する画素とを用いて視差データを算出する視差算出処理を少なくとも行う視差算出手段と、前記視差算出手段による前記テクスチャ検出処理、前記視差算出処理を前記小画像毎に並列して処理するよう制御する制御手段と、を備える。   A distance measuring apparatus according to an aspect of the present invention is a distance measuring apparatus that measures a distance to an object, and includes two imaging units and a plurality of small images that are captured by the two imaging units. A dividing unit for dividing, a texture detection process for selecting a parallax calculation pixel for a small image captured by one of the two imaging units, a selected parallax calculation pixel, and another A parallax calculation unit that performs at least a parallax calculation process that calculates parallax data using a pixel corresponding to the selected parallax calculation pixel among images captured by the imaging unit, and the texture detection process by the parallax calculation unit And control means for controlling the parallax calculation processing to be processed in parallel for each of the small images.

また、本発明の他の観点における撮像装置は、2つの撮像手段と、前記2つの撮像手段により撮像されたそれぞれの画像を複数の小画像に分割する分割手段と、前記2つの撮像手段のうち一方の撮像手段により撮像された画像の小画像に対し、視差算出画素を選択するためのテクスチャ検出処理、選択された視差算出画素と、他の撮像手段により撮像された画像のうち、前記選択された視差算出画素に対応する画素とを用いて視差データを算出する視差算出処理を少なくとも行う視差算出手段と、前記視差算出手段による前記テクスチャ検出処理、前記視差算出処理を前記小画像毎に並列して処理するよう制御する並列制御手段と、前記視差算出手段により算出された視差データに基づく距離を算出する距離算出手段と、前記距離算出手段により算出された距離に基づきオートフォーカスを制御するフォーカス制御手段と、を備える。   An imaging device according to another aspect of the present invention includes two imaging units, a dividing unit that divides each image captured by the two imaging units into a plurality of small images, and the two imaging units. A texture detection process for selecting a parallax calculation pixel, a selected parallax calculation pixel, and an image captured by another imaging unit are selected from the small image of the image captured by one imaging unit. A parallax calculation unit that performs at least a parallax calculation process that calculates parallax data using pixels corresponding to the parallax calculation pixel, the texture detection process by the parallax calculation unit, and the parallax calculation process in parallel for each small image. Parallel control means for controlling to process, distance calculation means for calculating a distance based on the parallax data calculated by the parallax calculation means, and the distance calculation means Ri includes a focus control means for controlling the autofocus based on the calculated distance, a.

本発明によれば、視差算出にかかる処理時間を高速化することができる。   According to the present invention, the processing time required for parallax calculation can be increased.

オートフォーカス撮像画像内の対応画像領域が異なる例を示す図。The figure which shows the example from which the corresponding image area | region in an autofocus captured image differs. 測距装置の原理図。The principle figure of a distance measuring device. 本発明における測距装置の構成の一例を示すブロック図。The block diagram which shows an example of a structure of the ranging device in this invention. 対象画像と小画像との関係を示す図。The figure which shows the relationship between a target image and a small image. 視差算出部の機能の一例を示すブロック図。The block diagram which shows an example of the function of a parallax calculation part. テクスチャ検出部の機能の一例を示すブロック図。The block diagram which shows an example of the function of a texture detection part. テクスチャ特性値(その1)を説明するための図。The figure for demonstrating a texture characteristic value (the 1). テクスチャ特性値(その2)を説明するための図。The figure for demonstrating a texture characteristic value (the 2). 相関の信頼度を説明するための図。The figure for demonstrating the reliability of correlation. パイプライン並列処理の処理タイミングフローの一例を示す図。The figure which shows an example of the processing timing flow of pipeline parallel processing. 処理ごとに異なるバッファサイズを説明するための図。The figure for demonstrating a different buffer size for every process. 実施例1における視差データ算出処理の一例を示すフローチャート。5 is a flowchart illustrating an example of parallax data calculation processing according to the first embodiment. 撮像装置の構成の一例を示すブロック図。1 is a block diagram illustrating an example of a configuration of an imaging device.

以下、添付図面を参照し、本発明の実施例について説明する。まず、測距装置における、画像内に含まれる対象物までの距離を検出する方法について説明する。測距装置は、例えばステレオカメラである。測距装置は、2つの撮像部により得られる2つの撮像画像に基づいて、撮像画像内に含まれる対象物までの距離を検出する装置である。   Embodiments of the present invention will be described below with reference to the accompanying drawings. First, a method for detecting a distance to an object included in an image in the distance measuring device will be described. The distance measuring device is, for example, a stereo camera. The distance measuring device is a device that detects a distance to an object included in a captured image based on two captured images obtained by two imaging units.

図2は、測距装置の原理図である。図2に示すように、測距装置は、撮像部1と撮像部2とを有する。撮像部1,2は、例えばカメラである。図2では、ピンホールカメラを例に挙げて説明する。基線長(撮像部1と撮像部2の距離)をB、2つの撮像部の焦点距離をf、撮像部1,2から測定対象物3までの距離をZとする。   FIG. 2 is a principle diagram of the distance measuring device. As shown in FIG. 2, the distance measuring apparatus includes an imaging unit 1 and an imaging unit 2. The imaging units 1 and 2 are, for example, cameras. In FIG. 2, a pinhole camera will be described as an example. The baseline length (distance between the imaging unit 1 and the imaging unit 2) is B, the focal length of the two imaging units is f, and the distance from the imaging units 1 and 2 to the measurement object 3 is Z.

2つの撮像部の光軸は、互いに平行であり、基線に対して垂直である。2つの撮像部の撮像面には測定対象物3がpだけずれた位置に映る。このpは、左右のカメラにおける対応する点間の距離であり視差と呼ぶ。視差の大きさは画素単位で表される事が多い。   The optical axes of the two imaging units are parallel to each other and perpendicular to the base line. The measurement object 3 appears on the imaging surfaces of the two imaging units at a position shifted by p. This p is the distance between corresponding points in the left and right cameras and is called parallax. The magnitude of parallax is often expressed in units of pixels.

これらZ、B、f、pの値を用いて三角形の相似の関係から式(1)で撮像部1,2から測定対象物3までの距離Zが求まる。
Z=B×f/p ・・・式(1)
このとき、視差pは、視差を算出する画素ごとに1画素ずつずらして相関値を計算し、それを比較することによって算出される。そのため、処理に膨大な時間がかかることが知られている。例えば、1画素ごとに視差pを探索するための画素をずらして探索する長さ(探索幅)が64画素だとすると、ある画像を処理するための処理時間は、1画素分の視差を探索するために1クロックサイクルかかるとしても、1画像を処理するために64倍の処理時間がかかってしまう。
Using these values of Z, B, f, and p, the distance Z from the imaging units 1 and 2 to the measurement object 3 can be obtained from the similarity relationship of the triangles using Equation (1).
Z = B × f / p (1)
At this time, the parallax p is calculated by calculating the correlation value by shifting one pixel at a time for each pixel for which the parallax is calculated, and comparing it. For this reason, it is known that the processing takes an enormous amount of time. For example, if the length (search width) for searching by shifting the pixel for searching the parallax p for each pixel is 64 pixels, the processing time for processing a certain image is to search for the parallax for one pixel. Even if it takes one clock cycle, it takes 64 times as much processing time to process one image.

一般に1画素分の相関値を計算するために1クロックサイクルで処理が実現されるということは不可能であり、これは相関をとるブロックサイズによって指数的にさらに増大する。このため、視差計算時間を短縮することは大きな課題となっている。この視差計算時間を算出する概算式を式(2)で表す。
1画像分の視差計算時間=視差算出画素数×(1画素の相関計算時間×探索幅)・・・式(2)
視差計算時間を減らす課題に対し、
・視差算出画素数を減らす
・1画素の相関計算時間を減らす
・探索幅を減らす
ことが考えられる。
In general, it is impossible to realize processing in one clock cycle in order to calculate a correlation value for one pixel, and this increases exponentially with the block size to be correlated. For this reason, reducing the parallax calculation time has become a major issue. An approximate expression for calculating the parallax calculation time is expressed by Expression (2).
Parallax calculation time for one image = number of parallax calculation pixels × (correlation calculation time for one pixel × search width) Expression (2)
For the problem of reducing parallax calculation time,
It is conceivable to reduce the number of parallax calculation pixels, reduce the correlation calculation time of one pixel, and reduce the search width.

探索幅は、ターゲットとなる測距範囲によって決定されるものである。1画素の相関計算時間は、短縮するためにハードウェアのリソースが大きく必要となるためコストが高くなる。相関計算時間のアルゴリズムを短縮した場合は、精度が劣化する傾向にある。   The search width is determined by the target ranging range. In order to shorten the correlation calculation time for one pixel, a large amount of hardware resources are required, which increases the cost. When the algorithm for the correlation calculation time is shortened, the accuracy tends to deteriorate.

そこで、本発明では、視差算出画素数を効率よく減らし(視差算出画素を効率よく選択し)つつ、視差算出にかかる処理時間を高速化することを目的とする。また、本発明では、視差算出に含まれる処理をパイプライン処理することで、視差算出にかかる処理時間の高速化を図る。視差算出画素を選択するための処理を、以下ではテクスチャ検出処理、そのためのアルゴリズムを、テクスチャ検出アルゴリズムと呼ぶ。   Therefore, an object of the present invention is to speed up the processing time for parallax calculation while efficiently reducing the number of parallax calculation pixels (selecting parallax calculation pixels efficiently). In the present invention, the processing included in the parallax calculation is pipelined to increase the processing time required for the parallax calculation. Hereinafter, the process for selecting the parallax calculation pixel is referred to as a texture detection process, and the algorithm for the process is referred to as a texture detection algorithm.

[実施例1]
<構成>
図3は、本発明における測距装置の構成の一例を示すブロック図である。図3に示す測距装置13は、撮像部1、撮像部2、画像取込部4、メモリ5、ステレオ処理部6、距離算出部12を含む。
[Example 1]
<Configuration>
FIG. 3 is a block diagram showing an example of the configuration of the distance measuring apparatus according to the present invention. A distance measuring device 13 illustrated in FIG. 3 includes an imaging unit 1, an imaging unit 2, an image capturing unit 4, a memory 5, a stereo processing unit 6, and a distance calculation unit 12.

撮像部1,2は、予め基線間隔がBだけ離間し、かつ光軸が相互に平行になるように配置される。撮像部1,2は例えばカメラである。   The imaging units 1 and 2 are arranged in advance such that the base line interval is spaced by B and the optical axes are parallel to each other. The imaging units 1 and 2 are, for example, cameras.

画像取込部4は、撮像部1,2により撮像された画像を取得し、メモリ5に出力する。メモリ5は、画像取込部4から入力された画像を記憶する。メモリ5は例えばRAM(Random Access Memory)などである。   The image capturing unit 4 acquires the images captured by the imaging units 1 and 2 and outputs them to the memory 5. The memory 5 stores the image input from the image capturing unit 4. The memory 5 is, for example, a RAM (Random Access Memory).

ステレオ処理部6は、2つの撮像部のうちの1つの撮像部により撮像された基準画像、他方の撮像部により撮像された比較画像に基づき、視差データを算出する。ステレオ処理部6は、分割部7、視差算出部10、並列制御部11を含む。   The stereo processing unit 6 calculates the parallax data based on the reference image captured by one of the two imaging units and the comparison image captured by the other imaging unit. The stereo processing unit 6 includes a dividing unit 7, a parallax calculating unit 10, and a parallel control unit 11.

分割部7は、基準画像のうち、視差算出の対象となる対象画像(以下、単に対象画像ともいう)を所定サイズの小画像に複数分割して取得し、バッファ8に記憶する。また、分割部7は、比較画像のうち、対象画像に対応する画像を所定サイズの小画像に複数分割して取得し、バッファ9に記憶する。   The dividing unit 7 acquires a target image (hereinafter, also simply referred to as a target image) that is a target of parallax calculation among the reference images by dividing it into small images of a predetermined size and stores them in the buffer 8. In addition, the dividing unit 7 acquires an image corresponding to the target image among the comparative images by dividing the image into a plurality of small images of a predetermined size, and stores them in the buffer 9.

図4は、対象画像と小画像との関係を示す図である。図4に示すように、対象画像15は、オートフォーカス撮像画像のうち、メイン撮像画像に対応する画像である。小画像16は、対象画像15が所定サイズに複数分割された画像である。所定サイズは例えば、64×42や64×64などである。   FIG. 4 is a diagram illustrating the relationship between the target image and the small image. As illustrated in FIG. 4, the target image 15 is an image corresponding to the main captured image among the autofocus captured images. The small image 16 is an image obtained by dividing the target image 15 into a plurality of predetermined sizes. The predetermined size is, for example, 64 × 42 or 64 × 64.

分割部7は、基準画像内の対象画像15の小画像16を1つずつメモリ5から読み出して、バッファ8に記憶する。また、分割部7は、比較画像内の対象画像15に対応する画像の小画像を1つずつメモリ5から読み出して、バッファ9に記憶する。   The dividing unit 7 reads out the small images 16 of the target image 15 in the reference image one by one from the memory 5 and stores them in the buffer 8. In addition, the dividing unit 7 reads out small images of images corresponding to the target image 15 in the comparison image one by one from the memory 5 and stores them in the buffer 9.

図3に戻り、視差算出部10は、基準画像と比較画像とに基づき視差データを算出する。視差算出部10の詳細は図5を用いて説明する。   Returning to FIG. 3, the parallax calculation unit 10 calculates parallax data based on the reference image and the comparison image. Details of the parallax calculation unit 10 will be described with reference to FIG.

図5は、視差算出部10の機能の一例を示すブロック図である。図5に示す視差算出部10は、幾何補正部21,22、バッファ23,24、テクスチャ検出部25、バッファ26、視差データ算出部27、バッファ28、信頼度算出部29を含む。   FIG. 5 is a block diagram illustrating an example of the function of the parallax calculation unit 10. The parallax calculation unit 10 illustrated in FIG. 5 includes geometric correction units 21 and 22, buffers 23 and 24, texture detection unit 25, buffer 26, parallax data calculation unit 27, buffer 28, and reliability calculation unit 29.

幾何補正部21は、バッファ8から取得した基準画像の小画像に対して画像ひずみ等を補正する。画像全体においては、樽型ひずみのように非線形である場合でも、小画像においては線形補正で十分な補正結果が得られる場合が多い。よって、幾何補正部21は、ルックアップテーブル用などのメモリ資源を節約することができる。幾何補正部21は、補正した小画像をバッファに23に出力する。   The geometric correction unit 21 corrects image distortion and the like for the small image of the reference image acquired from the buffer 8. Even when the entire image is nonlinear, such as barrel distortion, in a small image, a sufficient correction result is often obtained by linear correction. Therefore, the geometric correction unit 21 can save memory resources such as for a lookup table. The geometric correction unit 21 outputs the corrected small image to the buffer 23.

幾何補正部22は、バッファ9から取得した比較画像の小画像に対して画像ひずみ等を補正する。幾何補正部22は、基本的な機能は幾何補正部21と同様である。幾何補正部22は、補正した小画像をバッファ24に出力する。   The geometric correction unit 22 corrects image distortion or the like for the small image of the comparison image acquired from the buffer 9. The basic function of the geometric correction unit 22 is the same as that of the geometric correction unit 21. The geometric correction unit 22 outputs the corrected small image to the buffer 24.

バッファ23は、補正された小画像を、テクスチャ検出部25により読み出されるまで記憶する。   The buffer 23 stores the corrected small image until it is read by the texture detection unit 25.

バッファ24は、補正された小画像を、視差データ算出部27により読み出されるまで記憶する。   The buffer 24 stores the corrected small image until it is read out by the parallax data calculation unit 27.

テクスチャ検出部25は、バッファ23に記憶されている小画像を取得する。テクスチャ検出部25は、基準画像の視差算出に用いる対象画像などに基づき、視差算出画素を効率よく選択する。テクスチャ検出部25の詳細は、図6を用いて説明する。   The texture detection unit 25 acquires a small image stored in the buffer 23. The texture detection unit 25 efficiently selects a parallax calculation pixel based on a target image used for parallax calculation of a reference image. Details of the texture detection unit 25 will be described with reference to FIG.

図6は、テクスチャ検出部25の機能の一例を示すブロック図である。図6に示すテクスチャ検出部25は、決定部31、切替部32、第1検出処理部33、第2検出処理部34、選択部35を含む。   FIG. 6 is a block diagram illustrating an example of the function of the texture detection unit 25. The texture detection unit 25 illustrated in FIG. 6 includes a determination unit 31, a switching unit 32, a first detection processing unit 33, a second detection processing unit 34, and a selection unit 35.

決定部31は、視差を算出するための対象画像に基づき、視差を算出するための画素を選択するための処理(テクスチャ検出処理)を決定する。以下、視差を算出するための画素を視差算出画素という。決定部31は、対象画像のサイズについて、メモリ5から直接取得してもよい。また、決定部31は、最初の小画像に、対象画像のサイズが含まれる場合、小画像から対象画像のサイズを取得するようにしてもよい。   The determination unit 31 determines a process (texture detection process) for selecting a pixel for calculating the parallax based on the target image for calculating the parallax. Hereinafter, the pixel for calculating the parallax is referred to as a parallax calculation pixel. The determination unit 31 may directly acquire the size of the target image from the memory 5. Further, when the size of the target image is included in the first small image, the determination unit 31 may acquire the size of the target image from the small image.

決定部31は、視差を算出するための対象画像が所定のサイズ(サイズ閾値)よりも大きければ第1検出処理部33に決定し、対象画像が所定のサイズ以下であれば第2検出処理部34に決定する。サイズ閾値は、例えば200×100である。また、決定部31は、サイズ閾値を複数記憶し、3以上の検出処理部の中から1つの検出処理部を選択するようにしてもよい。   The determination unit 31 determines the first detection processing unit 33 if the target image for calculating the parallax is larger than a predetermined size (size threshold), and the second detection processing unit if the target image is equal to or smaller than the predetermined size. 34. The size threshold is 200 × 100, for example. Further, the determination unit 31 may store a plurality of size threshold values and select one detection processing unit from among three or more detection processing units.

決定部31は、視差算出画素数によりテクスチャ検出アルゴリズムを決定してもよい。例えば、決定部31は、視差算出にかかった過去の処理時間に基づく今回要求される処理時間(例えば数ミリセック)により視差算出画素数を決定し、この視差算出画素数が所定数(画素閾値)よりも大きければ第2検出処理部34、所定数以下であれば第1検出処理部33に決定してもよい。要求される処理時間は、アプリケーションとデバイスの処理能力により決まる。例えば、高速オートフォーカスによれば、0.1秒〜0.7秒の処理時間が要求され、そのうちの所定数の時間が視差算出にかかる処理時間として要求される。   The determination unit 31 may determine a texture detection algorithm based on the number of parallax calculation pixels. For example, the determination unit 31 determines the number of parallax calculation pixels based on the currently requested processing time (for example, several milliseconds) based on the past processing time taken for parallax calculation, and the number of parallax calculation pixels is a predetermined number (pixel threshold). If it is larger than that, the second detection processing unit 34 may be determined, and if it is equal to or less than a predetermined number, the first detection processing unit 33 may be determined. The required processing time depends on the processing capability of the application and device. For example, according to high-speed autofocus, a processing time of 0.1 to 0.7 seconds is required, and a predetermined number of times is required as a processing time for parallax calculation.

これは、視差算出画素数が所定数以下であれば、それだけ多くの画素を間引くことになるので第1検出処理部33を適用し、所定数よりも視差算出画素数が大きければ、それほど画素を間引く必要がないので第2検出処理部34を適用するという考えに基づく。   This is because if the number of parallax calculation pixels is equal to or less than the predetermined number, more pixels are thinned out, so the first detection processing unit 33 is applied. This is based on the idea that the second detection processing unit 34 is applied because there is no need for thinning.

また、決定部31は、対象画像のサイズと、決定される視差算出画素数とに基づいて、対象画像から多くの画素を間引く必要があると判断すれば第1検出処理部33に決定し、対象画像から画素を間引く数が少ないと判断すれば第2検出処理部34に決定してもよい。   If the determination unit 31 determines that it is necessary to thin out many pixels from the target image based on the size of the target image and the determined number of parallax calculation pixels, the determination unit 31 determines the first detection processing unit 33. If it is determined that the number of pixels to be thinned out from the target image is small, the second detection processing unit 34 may determine.

切替部32は、決定部31の決定内容により、いずれかの検出処理部に接続する。この切替部32は、説明の便宜上ハードウェア的に説明するが、プログラムの条件分岐による切り替えを行うソフトウェアで実装してもよい。   The switching unit 32 is connected to one of the detection processing units according to the determination content of the determination unit 31. The switching unit 32 is described as hardware for convenience of explanation, but may be implemented by software that performs switching by conditional branching of a program.

第1検出処理部33は、視差を算出するための対象画像が大きい場合に適用されるテクスチャ特性の検出処理である。第1検出処理部33は、バッファ8から取得した小画像に対し、高度なテクスチャ検出アルゴリズムを適用し、テクスチャ特性値を算出する。   The first detection processing unit 33 is a texture characteristic detection process applied when the target image for calculating the parallax is large. The first detection processing unit 33 calculates a texture characteristic value by applying an advanced texture detection algorithm to the small image acquired from the buffer 8.

図7は、テクスチャ特性値(その1)を説明するための図である。図7に示す例では、視差計算を行うブロックサイズを9×9とした場合、テクスチャを検出するブロックサイズも9×9とした例である。なお、図7に示すテクスチャを検出するブロックサイズは、説明の便宜上9×9とするが、実際は小画像のサイズに合わせて小さくすると良い。   FIG. 7 is a diagram for explaining a texture characteristic value (No. 1). In the example illustrated in FIG. 7, when the block size for performing the parallax calculation is 9 × 9, the block size for detecting the texture is also 9 × 9. Note that the block size for detecting the texture shown in FIG. 7 is 9 × 9 for convenience of explanation, but in practice it may be reduced to match the size of the small image.

第1検出処理部33は、図7に示す例によれば、テクスチャ特性値を式(3)により算出する。   According to the example illustrated in FIG. 7, the first detection processing unit 33 calculates the texture characteristic value using Expression (3).

Figure 0005392198
ただし、(i,j):画素位置
x(i,j):(i,j)の輝度値
a:水平5TAP係数、a(0)が中心の係数とする
b:5×3ブロックフィルタ係数、b(0,0)が中心の係数とする
ω1:水平5TAP計算用重み係数
ω2:5×3ブロックフィルタ用重み係数
図7に示すテクスチャ特性値のテクスチャ検出アルゴリズムは、視差計算を行うブロック(9×9の画素ブロック)内で、水平エッジがどれくらい含まれているかという情報と、視差計算を行う中心の画素のまわりに縦ラインがどれくらい続くか(水平エッジがどれくらい縦に続いているか)という情報によって、テクスチャレベルを評価するアルゴリズムである。
Figure 0005392198
However, (i, j): Pixel position x (i, j): Luminance value at (i, j) a: Horizontal 5TAP coefficient, b: 5 × 3 block filter coefficient with a (0) as a center coefficient, ω1: Horizontal 5TAP calculation weighting coefficient ω2: 5 × 3 block filter weighting coefficient b (0, 0) as a center coefficient The texture characteristic value texture detection algorithm shown in FIG. 7 is a block (9 Information on how many horizontal edges are included in a pixel block of × 9) and how long a vertical line continues around the central pixel for which the parallax calculation is performed (how long the horizontal edge continues) Is an algorithm for evaluating the texture level.

このアルゴリズムでは、たとえば5×3のブロックフィルタのパタンを変えることによって、縦エッジだけでなく、斜め線など、さまざまなパタンに対応することができる。対象画像のサイズが大きい場合は、多くの画素を間引く必要があるので、このようなアルゴリズムを使って、精度の高いテクスチャ特性値が算出される。これにより、視差算出を行うのに、精度の高いテクスチャ特性値に基づく理想的な画素を選択することができる。第1検出処理部33は、算出したテクスチャ特性値を小画像と共に選択部35に出力する。   In this algorithm, for example, by changing the pattern of a 5 × 3 block filter, it is possible to deal with various patterns such as diagonal lines as well as vertical edges. When the size of the target image is large, it is necessary to thin out a large number of pixels. Therefore, a highly accurate texture characteristic value is calculated using such an algorithm. Thereby, it is possible to select an ideal pixel based on a texture characteristic value with high accuracy for performing parallax calculation. The first detection processing unit 33 outputs the calculated texture characteristic value to the selection unit 35 together with the small image.

第2検出処理部34は、視差を算出するための対象画像のサイズが小さい場合に適用されるテクスチャ特性の検出処理である。第2検出処理部34は、バッファ9から取得した小画像に対し、処理速度優先の簡易的なテクスチャ検出アルゴリズムを適用し、テクスチャ特性値を算出する。   The second detection processing unit 34 is a texture characteristic detection process applied when the size of the target image for calculating the parallax is small. The second detection processing unit 34 applies a simple texture detection algorithm giving priority to the processing speed to the small image acquired from the buffer 9 and calculates a texture characteristic value.

図8は、テクスチャ特性値(その2)を説明するための図である。図8に示す例では、対象画像の中の画素に対し、シンプルなテクスチャ検出アルゴリズムでテクスチャ特性値を算出する。   FIG. 8 is a diagram for explaining the texture characteristic value (No. 2). In the example shown in FIG. 8, the texture characteristic value is calculated with a simple texture detection algorithm for the pixels in the target image.

第2検出処理部34は、図8に示す例によれば、テクスチャ特性値を式(4)により算出する。   According to the example shown in FIG. 8, the second detection processing unit 34 calculates the texture characteristic value using the equation (4).

Figure 0005392198
ただし、(i,j):画素位置
x(i,j):(i,j)の輝度値
図8に示す例では、隣接する画素の輝度値の差分の絶対値を算出してテクスチャ特性値とする。対象画像のサイズが小さい場合には、それほど画素を間引く必要がないので、処理速度を優先して簡易的にテクスチャ特性値が算出される。第2検出処理部34は、算出したテクスチャ特性値を小画像と共に選択部35に出力する。
Figure 0005392198
However, (i, j): luminance value of pixel position x (i, j): (i, j) In the example shown in FIG. 8, the absolute value of the difference between the luminance values of adjacent pixels is calculated to determine the texture characteristic value. And When the size of the target image is small, it is not necessary to thin out pixels so much, and the texture characteristic value is simply calculated giving priority to the processing speed. The second detection processing unit 34 outputs the calculated texture characteristic value to the selection unit 35 together with the small image.

第1検出処理部33、第2検出処理部34は、1つの検出処理部36として構成されてもよい。この検出処理部36は、3つ以上の検出処理を備えてもよい。   The first detection processing unit 33 and the second detection processing unit 34 may be configured as one detection processing unit 36. The detection processing unit 36 may include three or more detection processes.

選択部35は、第1検出処理部33や第2検出処理部34により取得したテクスチャ特性値に基づいて、小画像から視差算出画素を選択する。選択部35は、例えば、第1検出処理部33からテクスチャ特性値を取得した場合、取得したテクスチャ特性値が第1閾値(テクスチャ閾値)以上であれば、そのテクスチャ特性値に対応する画素を視差算出画素として選択する。選択されなかった画素は間引かれることになる。   The selection unit 35 selects a parallax calculation pixel from the small image based on the texture characteristic value acquired by the first detection processing unit 33 or the second detection processing unit 34. For example, when the selection unit 35 acquires a texture characteristic value from the first detection processing unit 33, if the acquired texture characteristic value is equal to or greater than the first threshold (texture threshold), the pixel corresponding to the texture characteristic value is parallaxed. Select as a calculation pixel. Pixels that are not selected are thinned out.

選択部35は、例えば、第2検出処理部34からテクスチャ特性値を取得した場合、取得したテクスチャ特性値が第2閾値(テクスチャ特性値)以上であれば、そのテクスチャ特性値に対応する画素を視差算出画素として選択する。選択されなかった画素は間引かれることになる。   For example, if the texture characteristic value is acquired from the second detection processing unit 34 and the acquired texture characteristic value is equal to or greater than the second threshold value (texture characteristic value), the selection unit 35 selects a pixel corresponding to the texture characteristic value. Select as a parallax calculation pixel. Pixels that are not selected are thinned out.

選択部35は、第1閾値と第2閾値とをそれぞれに適するように異ならせてもよい。また、第1閾値及び第2閾値は、それぞれの小画像または直前の対象画像の輝度のヒストグラムに応じて適宜変更してもよい。小画像が明るめの画像であれば閾値は高くなり、暗めの小画像であれば閾値は低く設定される。この閾値は実験により最適な値に設定される。選択部35は、選択した視差算出画素(又はその輝度値)をバッファ26に出力する。   The selection unit 35 may change the first threshold value and the second threshold value so as to be suitable for each. Further, the first threshold value and the second threshold value may be appropriately changed according to the luminance histogram of each small image or the immediately preceding target image. If the small image is a bright image, the threshold is set high, and if the small image is a dark small image, the threshold is set low. This threshold is set to an optimum value by experiment. The selection unit 35 outputs the selected parallax calculation pixel (or its luminance value) to the buffer 26.

図5に戻り、バッファ26は、視差データ算出部27により読み出されるまで、選択された視差算出画素を記憶する。   Returning to FIG. 5, the buffer 26 stores the selected parallax calculation pixels until read by the parallax data calculation unit 27.

視差データ算出部27は、テクスチャ検出部25により選択された視差算出画素をバッファ26から取得する。視差データ算出部27は、取得した視差算出画素に対応する画素である、比較画像の画素をバッファ24から取得する。   The parallax data calculation unit 27 acquires the parallax calculation pixel selected by the texture detection unit 25 from the buffer 26. The parallax data calculation unit 27 acquires the pixels of the comparison image, which are pixels corresponding to the acquired parallax calculation pixels, from the buffer 24.

視差データ算出部27は、基準画像の視差算出画素と、比較画像の視差算出画素に対応する画素とに基づいて、視差データを算出する。視差データ算出部27は、式(5)により視差データを算出する。式(5)では、図7に示す例に合わせて、視差計算を行うブロックサイズを9×9として視差データが算出される。   The parallax data calculation unit 27 calculates parallax data based on the parallax calculation pixels of the reference image and the pixels corresponding to the parallax calculation pixels of the comparison image. The parallax data calculation unit 27 calculates the parallax data according to the equation (5). In Expression (5), in accordance with the example illustrated in FIG. 7, the parallax data is calculated by setting the block size for performing the parallax calculation to 9 × 9.

Figure 0005392198
ただし、I(i,j):視差算出画素の輝度値
C(i,j):視差算出画素に対応する比較画像の画素の輝度値
なお、視差データ算出部27は、視差データ算出に用いるアルゴリズムは式(5)に示すようにSAD(Sum of Absolute Difference)に限らず、2つの画素ブロックの相関を比較するものであれば適用できる。視差データ算出部27は、算出した視差データ及び小画像をバッファ28に出力する。
Figure 0005392198
However, I (i, j): luminance value of the parallax calculation pixel C (i, j): luminance value of the pixel of the comparison image corresponding to the parallax calculation pixel Note that the parallax data calculation unit 27 is an algorithm used for calculating the parallax data. Is not limited to SAD (Sum of Absolute Difference), as shown in Equation (5), and can be applied as long as the correlation between two pixel blocks is compared. The parallax data calculation unit 27 outputs the calculated parallax data and the small image to the buffer 28.

バッファ28は、信頼度算出部29により読み出されるまで視差データ及び小画像を記憶する。   The buffer 28 stores the parallax data and the small image until read by the reliability calculation unit 29.

信頼度算出部29は、バッファ28から視差データ及び小画像を取得し、視差データの算出に用いた相関の画素の位置が、信頼できるか否かを判定する。ここで、信頼ができない場合とは、例えば、基準画像におけるあるテクスチャ有効画素位置について、上記式(5)によって、比較画像との相関値を探索幅分、計算していった結果、すべての相関値が似ていた場合、などである。   The reliability calculation unit 29 acquires the parallax data and the small image from the buffer 28 and determines whether or not the position of the correlation pixel used for the calculation of the parallax data is reliable. Here, the case where the reliability is not possible means, for example, that the correlation value with the comparison image is calculated by the search width for a certain texture effective pixel position in the reference image by the above equation (5). If the values are similar, etc.

図9は、相関の信頼度を説明するための図である。図9に示す横軸が探索幅、縦軸が相関計算値(例えばSAD値)を示す。信頼度算出部29により小画像の探索幅分、SAD値を計算した結果、式(5)によって計算された相関値が最も低かった値の部分が視差相当位置になる。   FIG. 9 is a diagram for explaining the reliability of correlation. The horizontal axis shown in FIG. 9 indicates the search width, and the vertical axis indicates the correlation calculation value (for example, SAD value). As a result of calculating the SAD value for the search width of the small image by the reliability calculation unit 29, the portion of the value with the lowest correlation value calculated by the equation (5) becomes the parallax equivalent position.

一方、この視差相当位置の相関計算値(Min)と、相関計算最大値(Max)との差分(以下、相関差分ともいう)が、図9に示す例では閾値に達していない。この閾値は、相関値差の閾値(相関値差閾値)である。つまり、探索幅において、基準画像側の画素ブロックと、似たようなブロックがならんでいることを意味しており、視差としてはあまり信用できるとはいえないことになる。   On the other hand, the difference between the correlation calculation value (Min) at the parallax equivalent position and the correlation calculation maximum value (Max) (hereinafter also referred to as correlation difference) does not reach the threshold in the example shown in FIG. This threshold value is a correlation value difference threshold value (correlation value difference threshold value). That is, in the search width, it means that similar blocks are aligned with the pixel block on the reference image side, and it cannot be said that the parallax is very reliable.

よって、信頼度算出部29は、前述したように、相関差分が相関値差閾値を超えた場合、その視差相当位置を用いて算出した視差データを距離計算部12に出力する。   Therefore, as described above, when the correlation difference exceeds the correlation value difference threshold, the reliability calculation unit 29 outputs the parallax data calculated using the parallax equivalent position to the distance calculation unit 12.

図3に戻り、並列制御部11は、分割部7、視差算出部10の各処理を並列パイプライン処理するよう制御する。   Returning to FIG. 3, the parallel control unit 11 controls each process of the dividing unit 7 and the parallax calculating unit 10 to perform parallel pipeline processing.

距離算出部12は、信頼度算出部29から取得した視差データを視差pとし、式(1)により、距離Zを求める。この距離Zが、対象物までの距離を示す。   The distance calculation unit 12 uses the parallax data acquired from the reliability calculation unit 29 as the parallax p, and obtains the distance Z by Expression (1). This distance Z indicates the distance to the object.

<パイプライン処理>
本発明では、以上のようなステレオ処理部6における各処理を、パイプライン処理として、高速に並列計算することで、視差算出処理にかかる時間を高速化する。
<Pipeline processing>
In the present invention, each process in the stereo processing unit 6 as described above is performed as a pipeline process in parallel at high speed, thereby speeding up the time required for the parallax calculation process.

図10は、パイプライン並列処理の処理タイミングフローの一例を示す図である。図10に示す各エリア番号は、図4において分割された各小画像16に対応する。図10に示すように、テクスチャ検出や視差計算などの種々の処理を実施しても、視差算出結果としてはエリアごとに連続して出力され続けていることが分かる。   FIG. 10 is a diagram illustrating an example of a processing timing flow of pipeline parallel processing. Each area number shown in FIG. 10 corresponds to each small image 16 divided in FIG. As shown in FIG. 10, it can be seen that even when various processes such as texture detection and parallax calculation are performed, the parallax calculation result is continuously output for each area.

また、図10に示す例では、処理ごとにバッファに処理結果が格納される様子を示す。図10に示すように、パイプライン処理を行うために、パイプラインステージごとに用意される。ただし、それぞれの処理ごとのバッファは、エリアごとに上書きされる。また、幾何補正までが、基準画像用、比較画像用で2系統必要であるが、他の処理については、1系統のバッファのみで十分である。   Further, the example shown in FIG. 10 shows a state in which the processing result is stored in the buffer for each processing. As shown in FIG. 10, a pipeline process is prepared for each pipeline stage. However, the buffer for each process is overwritten for each area. In addition, two systems are required for the geometric image correction for the reference image and the comparison image, but only one system buffer is sufficient for the other processes.

また、各バッファのサイズは、図11に示すように、処理ごとに、異なったサイズでもよい。図11は、処理ごとに異なるバッファサイズを説明するための図である。図11に示すように、幾何補正に使用される画像41は、幾何補正を行うために余裕しろが必要である。   The size of each buffer may be different for each process as shown in FIG. FIG. 11 is a diagram for explaining different buffer sizes for each process. As shown in FIG. 11, an image 41 used for geometric correction needs a margin for performing geometric correction.

図11に示すように、テクスチャ検出、視差算出に使用される画像42は、サブエリア内の端画素について、テクスチャ検出、及び視差算出用のブロックの余裕しろが必要になる。   As shown in FIG. 11, the image 42 used for texture detection and parallax calculation needs a margin for a block for texture detection and parallax calculation for the end pixels in the sub-area.

図11に示すように、視差算出の対象となる画像43は、最大で、この領域の全画素について、視差データを算出できるようになっている。図11に示すように、
幾何補正用の余裕しろ>テクスチャ検出、及び視差算出用の余裕しろ
の関係が成り立つ。
As shown in FIG. 11, parallax data can be calculated for an image 43 that is a target of parallax calculation at the maximum for all the pixels in this region. As shown in FIG.
The relationship of allowance for geometric correction> allowance for texture detection and parallax calculation is established.

以上より、最初に小画像をメモリ5からリードする場合には、余裕しろをもつために、最大のサイズでリードしてくる必要がある。   From the above, when reading a small image from the memory 5 for the first time, it is necessary to read the maximum size in order to have a margin.

なお、これらのパイプラインステージは、並列に実行させていくために、処理タイミングを同じにコントロールする必要がある。そのため、最も時間がかかると考えられる視差算出処理のサイクルに応じて、並列制御部11は、他の処理の処理時間をウェイト制御する。例えば、並列制御部11では、視差計算のブロックサイズや探索幅を入力として、いくつかの処理時間テーブルを設けておく。並列制御部11は、この処理時間テーブルに応じて、他の処理ステージ部のウェイトをコントロールする。   In addition, since these pipeline stages are executed in parallel, it is necessary to control the processing timing to be the same. Therefore, the parallel control unit 11 performs weight control on the processing time of other processes according to the parallax calculation processing cycle that is considered to take the longest. For example, in the parallel control unit 11, several processing time tables are provided with the block size and search width of parallax calculation being input. The parallel control unit 11 controls the weights of other processing stage units according to the processing time table.

<動作>
次に、実施例1における測距装置13の動作について説明する。図12は、実施例1における視差データ算出処理の一例を示すフローチャートである。図12に示す例は、一つの小画像を処理する例である。
<Operation>
Next, the operation of the distance measuring device 13 in the first embodiment will be described. FIG. 12 is a flowchart illustrating an example of parallax data calculation processing according to the first embodiment. The example shown in FIG. 12 is an example of processing one small image.

図12に示すステップS101で、分割部7は、基準画像の対象画像を小画像、比較画像を小画像に分割する。   In step S101 shown in FIG. 12, the dividing unit 7 divides the target image of the reference image into small images and the comparison image into small images.

ステップS102で、幾何補正部21、22は、それぞれの小画像に対して幾何補正を行う。   In step S102, the geometric correction units 21 and 22 perform geometric correction on each small image.

ステップS103で、決定部31は、視差算出画素数及び/又は対象画像のサイズを取得し、取得した対象画像のサイズ及び/又は視差算出画素数からテクスチャ検出アルゴリズムを決定する。決定の仕方は前述した通りである。   In step S103, the determination unit 31 acquires the number of parallax calculation pixels and / or the size of the target image, and determines a texture detection algorithm from the acquired size of the target image and / or the number of parallax calculation pixels. The method of determination is as described above.

ステップS104で、検出処理部36は、決定されたテクスチャ検出アルゴリズムによりテクスチャ特性値を算出する。例えば、テクスチャ特性値は、式(3)や式(4)により算出される。   In step S104, the detection processing unit 36 calculates a texture characteristic value using the determined texture detection algorithm. For example, the texture characteristic value is calculated by Expression (3) or Expression (4).

ステップS105で、選択部35は、算出されたテクスチャ特性値に基づき、視差算出画素を選択する。例えば、選択部35は、対象画像のサイズが大きければ、多くの画素を間引くようにして視差算出画素を選択する。このとき用いるテクスチャ特性値は精度の高いアルゴリズムにより求められた値である。また、選択部35は、対象画像のサイズが小さければ、間引く画素を少なくして視差算出画素を選択する。このとき用いるテクスチャ特性値は処理時間を優先した簡易的なアルゴリズムにより求められた値である。   In step S105, the selection unit 35 selects a parallax calculation pixel based on the calculated texture characteristic value. For example, if the size of the target image is large, the selection unit 35 selects the parallax calculation pixel so as to thin out many pixels. The texture characteristic value used at this time is a value obtained by a highly accurate algorithm. In addition, if the size of the target image is small, the selection unit 35 selects the parallax calculation pixel with fewer pixels to be thinned out. The texture characteristic value used at this time is a value obtained by a simple algorithm giving priority to the processing time.

ステップS106で、視差データ算出部27は、選択された視差算出画素の輝度値と、比較画像のうち、視差算出画素に対応する画素の輝度とを用いて、視差データを算出する。   In step S106, the parallax data calculation unit 27 calculates parallax data using the luminance value of the selected parallax calculation pixel and the luminance of the pixel corresponding to the parallax calculation pixel in the comparison image.

ステップS107で、信頼度算出部29は、視差データを求めた画素が、相関計算をする場合に信頼できる画素か否かを判定する。信頼度算出については、前述した通りである。   In step S107, the reliability calculation unit 29 determines whether or not the pixel for which the parallax data is obtained is a reliable pixel when performing correlation calculation. The reliability calculation is as described above.

なお、信頼度算出処理として、テクスチャ検出処理を流用することも考えられる。テクスチャ検出処理では、大きな対象画像に対して多く画素を間引く場合には、テクスチャ検出処理として時間がかかるが精度の高い手法を適用し、小さな対象画像に対してはほとんど画素を間引かないためにシンプルな手法でテクスチャ検出を行う。   It is also conceivable to use the texture detection process as the reliability calculation process. In texture detection processing, when many pixels are thinned out for a large target image, it takes time as texture detection processing, but a high-accuracy technique is applied, and few pixels are thinned out for small target images. Texture detection is performed by a simple method.

ここで、小さな対象画像に対してほとんど画素を間引かずに視差計算を実施することになった場合、視差算出を行っている最中に、その画素に対して精度の高いテクスチャ検出方法を適用し、その結果を信頼度のひとつとして算出してもよい。   Here, when parallax calculation is to be performed on a small target image with almost no pixels thinned out, a highly accurate texture detection method is applied to the pixel during parallax calculation. The result may be calculated as one of the reliability levels.

上述したように、本処理においては、視差算出処理が処理時間において最も支配的と考えられるため、本発明のようなパイプライン処理を実現することで、その画素における高精度なテクスチャ検出処理を実施することも可能になる。つまり、画像エリア全体に対して高精度なテクスチャ検出処理を実行したのでは処理が重くなってしまうが、シンプルな方法で視差計算実施を決定した画素に対しては、視差計算を実施している間に、その画素における高精度なテクスチャ検出処理も計算することが可能になるのである。   As described above, in this processing, the parallax calculation processing is considered to be the most dominant in processing time, so by implementing the pipeline processing as in the present invention, highly accurate texture detection processing is performed on the pixel. It is also possible to do. In other words, if high-precision texture detection processing is performed on the entire image area, the processing becomes heavy, but parallax calculation is performed for pixels that have been determined to perform parallax calculation by a simple method. In the meantime, it is possible to calculate a highly accurate texture detection process for the pixel.

信頼度算出部29は、高精度なテクスチャ検出処理を行って算出したテクスチャ特性値が所定の閾値以上であれば、その視差データは信頼できると判定すればよい。   The reliability calculation unit 29 may determine that the parallax data is reliable if the texture characteristic value calculated by performing high-precision texture detection processing is equal to or greater than a predetermined threshold.

以上、実施例1によれば、視差算出の対象となる任意のサイズの対象画像に対して、小画像に分割し、その小画像に対して、幾何補正、テクスチャ検出、視差算出、信頼度算出、といった視差算出を行う上で実施する処理をパイプライン処理で実行させる。   As described above, according to the first embodiment, a target image of an arbitrary size that is a target of parallax calculation is divided into small images, and geometric correction, texture detection, parallax calculation, and reliability calculation are performed on the small image. The processing executed in performing the parallax calculation such as is executed by pipeline processing.

これにより、対象画像における有効な視差の算出を高速化することができる。また、小画像の単位で処理が可能になるため、視差計算ハードウェアの内部に大きなラインメモリを持つ必要がなくなり、コスト削減が可能になる。   Thereby, the calculation of the effective parallax in the target image can be speeded up. Further, since processing can be performed in units of small images, it is not necessary to have a large line memory inside the parallax calculation hardware, and cost can be reduced.

なお、幾何補正処理、信頼度算出処理は、必ずしも必要な処理ではなく、少なくともテクスチャ検出処理、視差算出処理があれば視差データを算出できる。よって、本発明は、テクスチャ検出処理、視差算出処理をパイプライン処理すれば、本発明の目的を達成できる。   Note that the geometric correction process and the reliability calculation process are not necessarily required processes, and the parallax data can be calculated if there is at least a texture detection process and a parallax calculation process. Therefore, the present invention can achieve the object of the present invention by pipeline processing the texture detection process and the parallax calculation process.

さらに、任意の画像サイズに対して視差計算を実施する上で、小画像を単位にしてその倍数的な処理で実現できるために、さまざまな画像サイズごとに視差演算の制御を変更する必要がなくなり、シンプルな処理で実装することが可能になる。   Furthermore, when performing parallax calculation for an arbitrary image size, it can be realized by multiple processing of small images as a unit, so there is no need to change control of parallax calculation for various image sizes. It becomes possible to implement with simple processing.

また、実施例1によれば、シーンや対象物に依存せず、安定して高速な視差計算を実現することができるようになる。   Further, according to the first embodiment, it is possible to realize a high-speed parallax calculation stably without depending on a scene or an object.

また、実施例1は、テクスチャ検出処理について、既知のテクスチャ検出処理を用いてもよい。前述したテクスチャ検出処理を行えば、利用する対象画像サイズに応じて(対応画角)、適用するテクスチャ検出アルゴリズムを切り替えることができるため、光学ズームや電子ズームなしで広い画角範囲に対応する視差算出を効率的に実行することが可能になる。   In the first embodiment, a known texture detection process may be used for the texture detection process. If the texture detection process described above is performed, the texture detection algorithm to be applied can be switched according to the target image size to be used (corresponding field angle), so parallax corresponding to a wide field angle range without optical zoom or electronic zoom Calculation can be executed efficiently.

さらに、前述したテクスチャ検出処理を行えば、対象画像のサイズごとに、適用するテクスチャ検出アルゴリズムをあらかじめ規定しておくため、画像サイズが大きい場合には、数多くの画素を間引くことになり、テクスチャ検出アルゴリズムとして検出精度の高いアルゴリズムを採用することができる。一方、対象画像のサイズが小さい場合には、ほとんど画素を間引く必要がないため、シンプルなテクスチャ検出アルゴリズムで、すぐに視差計算の実効処理に移行することができる。   Furthermore, if the texture detection process described above is performed, the texture detection algorithm to be applied is defined in advance for each size of the target image, so if the image size is large, a large number of pixels are thinned out, and texture detection is performed. An algorithm with high detection accuracy can be used as the algorithm. On the other hand, when the size of the target image is small, there is almost no need to thin out pixels, so that it is possible to immediately shift to an effective process of parallax calculation with a simple texture detection algorithm.

また、実施例1では、光学ズームや電子ズームなしで広い画角範囲に対応する視差算出を利用可能にするとともに、その視差計算の処理速度、コスト削減、距離検出精度を考慮したステレオカメラを利用したオートフォーカス制御を可能とする。   In the first embodiment, parallax calculation corresponding to a wide range of angle of view can be used without optical zoom or electronic zoom, and a stereo camera is used in consideration of the processing speed of the parallax calculation, cost reduction, and distance detection accuracy. Auto focus control is possible.

なお、分割部7、視差算出部10及び距離算出部12は、測距装置13内の例えば演算回路又はプロセッサ及び一時保存メモリにより実現され、並列制御部11は例えばプロセッサにより実現されうる。   The dividing unit 7, the parallax calculating unit 10, and the distance calculating unit 12 are realized by, for example, an arithmetic circuit or a processor and a temporary storage memory in the distance measuring device 13, and the parallel control unit 11 can be realized by, for example, a processor.

[実施例2]
次に、実施例2における撮像装置について説明する。実施例2における撮像装置は、実施例1における測距装置13を内蔵する撮像装置である。
[Example 2]
Next, an image pickup apparatus in Embodiment 2 will be described. The imaging device according to the second embodiment is an imaging device including the distance measuring device 13 according to the first embodiment.

<構成>
図13は、撮像装置50の構成の一例を示すブロック図である。図13に示す撮像装置50は、例えばデジタルカメラである。撮像装置50は、電源51、被写体52を撮像する撮影光学系53、撮像手段54、プロセッサ55、測距装置13、制御手段57、オートフォーカス手段58、フォーカス駆動手段59を有する。
<Configuration>
FIG. 13 is a block diagram illustrating an example of the configuration of the imaging device 50. An imaging device 50 illustrated in FIG. 13 is, for example, a digital camera. The imaging device 50 includes a power source 51, an imaging optical system 53 that images the subject 52, an imaging unit 54, a processor 55, a distance measuring device 13, a control unit 57, an autofocus unit 58, and a focus driving unit 59.

撮像手段54は、撮影光学系53により撮像された被写体像を像形成信号に変換してプロセッサ55とオートフォーカス手段58とに向けて出力する。   The image pickup means 54 converts the subject image picked up by the photographing optical system 53 into an image formation signal and outputs it to the processor 55 and the autofocus means 58.

プロセッサ55は、撮像手段54からの像形成信号に所定の処理を行って、モニターに出力する。測距装置13は、実施例1で説明したように、被写体52までの距離を三角測距の原理に基づき測定する。   The processor 55 performs predetermined processing on the image forming signal from the imaging unit 54 and outputs the processed signal to the monitor. As described in the first embodiment, the distance measuring device 13 measures the distance to the subject 52 based on the principle of triangulation.

制御手段57は、測距装置13の測距結果に基づいて後述する制御を行う。オートフォーカス手段58は、撮像手段54の像形成信号に基づき後述する制御を行う。   The control means 57 performs control to be described later based on the distance measurement result of the distance measuring device 13. The autofocus unit 58 performs control to be described later based on the image forming signal from the imaging unit 54.

フォーカス駆動手段59は、撮影光学系53の一部を光軸方向に移動させて撮像手段54に形成される被写体像のピント状態を変化させる。   The focus driving unit 59 moves a part of the photographing optical system 53 in the optical axis direction to change the focus state of the subject image formed on the imaging unit 54.

オートフォーカス手段58は、フォーカス駆動手段59を制御してピント状態を順次変化させつつ、ピント状態ごとに得られた像形成信号を逐次評価し、この評価値に基づいて所定のピント状態を得る。   The autofocus unit 58 controls the focus driving unit 59 to sequentially change the focus state, sequentially evaluates the image forming signal obtained for each focus state, and obtains a predetermined focus state based on the evaluation value.

制御手段57は、測距装置13によって得られた距離に対応するピント状態の近傍のピント範囲で評価を行うようにオートフォーカス手段58を制御する。   The control means 57 controls the autofocus means 58 so that the evaluation is performed in the focus range near the focus state corresponding to the distance obtained by the distance measuring device 13.

測距装置13は、実施例1で説明したように、視差算出の対象となる対象画像のサイズなどに応じて、テクスチャ検出アルゴリズムを決定する。測距装置13は、決定したテクスチャ検出アルゴリズムに基づいて画素を間引き、視差算出画素に基づいて視差データを算出し、視差データに基づき距離を算出する。測距装置13は、このアルゴリズムの決定、及び間引き処理を含むテクスチャ検出処理、視差算出処理をパイプライン処理で実行する。また、測距装置13は、小画像読出処理、幾何補正処理、信頼度算出処理をテクスチャ検出処理、視差算出処理に加えて、これらの処理をパイプライン処理で実行するようにしてもよい。   As described in the first embodiment, the distance measuring device 13 determines a texture detection algorithm according to the size of a target image that is a target of parallax calculation. The distance measuring device 13 thins out pixels based on the determined texture detection algorithm, calculates parallax data based on the parallax calculation pixels, and calculates a distance based on the parallax data. The distance measuring device 13 executes the algorithm determination, texture detection processing including thinning-out processing, and parallax calculation processing by pipeline processing. In addition, the distance measuring device 13 may execute these processes by pipeline processing in addition to the small image reading process, the geometric correction process, and the reliability calculation process in addition to the texture detection process and the parallax calculation process.

オートフォーカス手段58は、撮影光学系53のフォーカスレンズ群を可動させてズーム全域を走査範囲として移動させつつ、各フォーカスレンズ群の各レンズ位置における被写体像のコントラストを算出し、全域走査後に最大のコントラストが得られる位置を最適ピント状態の位置すなわち最適焦点位置(合焦位置)として決定している。   The autofocus means 58 calculates the contrast of the subject image at each lens position of each focus lens group while moving the entire zoom range as the scanning range by moving the focus lens group of the photographing optical system 53, and the maximum after the entire area scan. The position where the contrast is obtained is determined as the optimum focus position, that is, the optimum focus position (focus position).

この方法は、コントラストAF方式又は山登りAF方式と呼ばれ、実際に被写体像を見ながらフォーカス合わせを行うため、高精度で正確なフォーカス検出を行うことができる。   This method is called a contrast AF method or a hill-climbing AF method, and focusing is performed while actually looking at the subject image, so that highly accurate and accurate focus detection can be performed.

しかし、その反面、全域走査後に最適ピント位置(合焦位置)を求めるため、合焦するまでに時間がかかるという欠点がある。とりわけ、高倍率のズーム機能を持つ撮像装置50においてはフォーカスが合焦するまでに時間がかかる。   However, on the other hand, since the optimum focus position (focus position) is obtained after scanning the entire area, there is a drawback that it takes time to focus. In particular, in the imaging device 50 having a high-magnification zoom function, it takes time to focus.

そこで、制御手段57は、測距装置13によって得られた被写体52までの距離に対応するフォーカスレンズ群のレンズ位置Aを算出し、そのレンズ位置を中心として±ΔBの走査範囲(A−ΔB〜A+ΔB)を近傍のピント範囲に設定し、この近傍のピント範囲を走査範囲とするように、オートフォーカス手段58を制御する。すなわち、制御手段57は、距離に対応するレンズ位置を含む近傍が合焦検出の走査範囲となるようにオートフォーカス手段58を制御する。   Therefore, the control means 57 calculates the lens position A of the focus lens group corresponding to the distance to the subject 52 obtained by the distance measuring device 13, and ±± B scanning range (A−ΔB˜) with the lens position as the center. A + ΔB) is set to the near focus range, and the autofocus means 58 is controlled so that the near focus range is the scan range. That is, the control unit 57 controls the autofocus unit 58 so that the vicinity including the lens position corresponding to the distance is the focus detection scanning range.

これにより、フォーカスが合うまでの時間が短縮され、かつ正確なフォーカス合わせも実現する。もちろん、測距装置13の測距情報(距離)だけでフォーカスレンズ群を可動させ、コントラストAFを行わずにフォーカス合わせを行っても良い。   This shortens the time until focusing is achieved, and also realizes accurate focusing. Of course, the focus lens group may be moved only by the distance measurement information (distance) of the distance measuring device 13 and focus adjustment may be performed without performing contrast AF.

また、実施例2に係る測距装置を用いた撮像装置では、小型でかつ低コスト化を図ることができ、しかも、高速で高精度にフォーカス合わせを行うことができることになり、シャッターチャンスを逃すことなく画像を取り込むことができる。   In addition, in the imaging apparatus using the distance measuring apparatus according to the second embodiment, it is possible to reduce the size and cost, and to perform focusing at high speed with high accuracy, thereby missing a photo opportunity. Images can be captured without any problems.

本発明の測距装置13は、車載用測距装置やビデオカメラの測距装置、携帯機器搭載用カメラや3次元デジタルカメラや監視用カメラ等の用途に応用することが可能である。   The distance measuring device 13 of the present invention can be applied to uses such as a vehicle-mounted distance measuring device, a video camera distance measuring device, a portable device mounted camera, a three-dimensional digital camera, and a surveillance camera.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、実施例以外にも種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to the specific Example which concerns, In the range of the summary of this invention described in the claim, in addition to an Example Various modifications and changes are possible.

1、2 撮像部
4 画像取込部
5 メモリ
6 ステレオ処理部
7 分割部
8、9 バッファ
10 視差算出部
11 距離算出部
13 測距装置
21、22 幾何補正部
23、24、26、28 バッファ
25 テクスチャ検出部
27 視差データ算出部
29 信頼度算出部
31 決定部
32 切替部
33 第1検出処理部
34 第2検出処理部
35 選択部
36 検出処理部
50 撮像装置
55 プロセッサ
57 制御手段
58 オートフォーカス手段
59 フォーカス駆動手段
DESCRIPTION OF SYMBOLS 1, 2 Image pick-up part 4 Image acquisition part 5 Memory 6 Stereo processing part 7 Dividing part 8, 9 Buffer 10 Parallax calculation part 11 Distance calculation part 13 Distance measuring device 21, 22 Geometric correction part 23, 24, 26, 28 Buffer 25 Texture detection unit 27 Parallax data calculation unit 29 Reliability calculation unit 31 Determination unit 32 Switching unit 33 First detection processing unit 34 Second detection processing unit 35 Selection unit 36 Detection processing unit 50 Imaging device 55 Processor 57 Control unit 58 Autofocus unit 59 Focus drive means

特開平7−225127号公報JP 7-225127 A 特開2009−14444号公報JP 2009-14444 A 特開平11−14346号公報Japanese Patent Laid-Open No. 11-14346 特開2006−322795号公報JP 2006-322795 A

Claims (7)

対象物までの距離を測定する測距装置であって、
2つの撮像手段と、
前記2つの撮像手段により撮像されたそれぞれの画像を複数の小画像に分割する分割手段と、
前記2つの撮像手段のうち一方の撮像手段により撮像された画像の小画像に対し、視差算出画素を選択するためのテクスチャ検出処理、選択された視差算出画素と、他の撮像手段により撮像された画像のうち、前記選択された視差算出画素に対応する画素とを用いて視差データを算出する視差算出処理を少なくとも行う視差算出手段と、
前記視差算出手段による前記テクスチャ検出処理、前記視差算出処理を前記小画像毎に並列して処理するよう制御する制御手段と、
を備える測距装置。
A distance measuring device for measuring a distance to an object,
Two imaging means;
A dividing unit that divides each image captured by the two imaging units into a plurality of small images;
A texture detection process for selecting a parallax calculation pixel, a selected parallax calculation pixel, and a small image of an image captured by one of the two imaging units, and the other imaging unit. Disparity calculating means for performing at least a disparity calculating process for calculating disparity data using a pixel corresponding to the selected disparity calculating pixel in the image;
Control means for controlling the texture detection processing by the parallax calculation means and the parallax calculation processing to be processed in parallel for each of the small images;
Ranging device comprising.
前記視差算出手段は、
前記それぞれの画像の小画像に対し、幾何補正を行う幾何補正処理と、前記視差データの信頼度を算出する信頼度算出処理とを有し、前記テクスチャ検出処理は幾何補正された小画像に対して行われ、
前記制御手段は、
前記幾何補正処理、前記テクスチャ検出処理、前記視差算出処理、及び前記信頼度算出処理を前記小画像毎に並列して処理するよう制御する請求項1記載の測距装置。
The parallax calculation means includes
A geometric correction process for performing geometric correction on the small images of the respective images, and a reliability calculation process for calculating the reliability of the parallax data, and the texture detection process is performed on the geometrically corrected small images. Done,
The control means includes
The distance measuring apparatus according to claim 1, wherein the geometric correction process, the texture detection process, the parallax calculation process, and the reliability calculation process are controlled in parallel for each of the small images.
前記テクスチャ検出処理は、
前記画像のうち、視差算出の対象画像のサイズに応じて、視差算出画素を選択するために、精度の高いテクスチャ特性を検出する第1検出処理、又は簡易的なテクスチャ特性を検出する第2検出処理のいずれか1つを決定し、決定された処理の検出結果に基づき、前記対象画像から視差算出画素を選択する請求項1又は2記載の測距装置。
The texture detection process
A first detection process for detecting a texture characteristic with high accuracy or a second detection for detecting a simple texture characteristic in order to select a parallax calculation pixel in accordance with the size of a target image for parallax calculation among the images. The distance measuring apparatus according to claim 1, wherein any one of the processes is determined, and a parallax calculation pixel is selected from the target image based on a detection result of the determined process.
前記信頼度算出処理は、
前記テクスチャ検出処理で、前記第2検出処理が決定された場合、前記選択された視差算出画素に対して前記第1検出処理を行って、前記第1検出処理の結果に基づいて前記信頼度を算出する請求項3記載の測距装置。
The reliability calculation process includes:
When the second detection process is determined in the texture detection process, the first detection process is performed on the selected parallax calculation pixel, and the reliability is determined based on a result of the first detection process. The distance measuring device according to claim 3 to calculate.
前記視差算出手段に含まれる各処理に対して設けられる、処理されたデータを保持する各バッファは、メモリサイズがそれぞれ異なる請求項1乃至4いずれか一項に記載の測距装置。   5. The distance measuring device according to claim 1, wherein each buffer that holds processed data provided for each process included in the parallax calculating unit has a different memory size. 前記制御手段は、
前記視差算出手段に含まれる各処理の処理開始タイミングを同じにするように制御する請求項1乃至5いずれか一項に記載の測距装置。
The control means includes
The distance measuring device according to any one of claims 1 to 5, wherein control is performed so that processing start timings of the respective processes included in the parallax calculation unit are the same.
2つの撮像手段と、
前記2つの撮像手段により撮像されたそれぞれの画像を複数の小画像に分割する分割手段と、
前記2つの撮像手段のうち一方の撮像手段により撮像された画像の小画像に対し、視差算出画素を選択するためのテクスチャ検出処理、選択された視差算出画素と、他の撮像手段により撮像された画像のうち、前記選択された視差算出画素に対応する画素とを用いて視差データを算出する視差算出処理を少なくとも行う視差算出手段と、
前記視差算出手段による前記テクスチャ検出処理、前記視差算出処理を前記小画像毎に並列して処理するよう制御する並列制御手段と、
前記視差算出手段により算出された視差データに基づく距離を算出する距離算出手段と、
前記距離算出手段により算出された距離に基づきオートフォーカスを制御するフォーカス制御手段と、
を備える撮像装置。
Two imaging means;
A dividing unit that divides each image captured by the two imaging units into a plurality of small images;
A texture detection process for selecting a parallax calculation pixel, a selected parallax calculation pixel, and a small image of an image captured by one of the two imaging units, and the other imaging unit. Disparity calculating means for performing at least a disparity calculating process for calculating disparity data using a pixel corresponding to the selected disparity calculating pixel in the image;
Parallel control means for controlling the texture detection processing by the parallax calculation means and the parallax calculation processing to be processed in parallel for each of the small images;
Distance calculating means for calculating a distance based on the parallax data calculated by the parallax calculating means;
Focus control means for controlling autofocus based on the distance calculated by the distance calculation means;
An imaging apparatus comprising:
JP2010154256A 2010-07-06 2010-07-06 Ranging device and imaging device Expired - Fee Related JP5392198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010154256A JP5392198B2 (en) 2010-07-06 2010-07-06 Ranging device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010154256A JP5392198B2 (en) 2010-07-06 2010-07-06 Ranging device and imaging device

Publications (2)

Publication Number Publication Date
JP2012018014A JP2012018014A (en) 2012-01-26
JP5392198B2 true JP5392198B2 (en) 2014-01-22

Family

ID=45603381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010154256A Expired - Fee Related JP5392198B2 (en) 2010-07-06 2010-07-06 Ranging device and imaging device

Country Status (1)

Country Link
JP (1) JP5392198B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5867207B2 (en) * 2012-03-16 2016-02-24 株式会社リコー Image processing apparatus, image processing system, and image processing method
JP6429101B2 (en) * 2014-03-18 2018-11-28 株式会社リコー Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object
JP6561511B2 (en) 2014-03-20 2019-08-21 株式会社リコー Parallax value deriving device, moving body, robot, parallax value production deriving method, parallax value producing method and program
JP7036423B2 (en) * 2016-02-01 2022-03-15 ソニーグループ株式会社 Controls, control methods and control programs
JP6811244B2 (en) * 2016-08-23 2021-01-13 株式会社日立製作所 Image processing device, stereo camera device and image processing method
JP6838725B2 (en) 2016-10-20 2021-03-03 日立Astemo株式会社 Camera device
EP3428683B1 (en) 2017-07-11 2019-08-28 Sick Ag Optoelectronic sensor and method for measuring a distance
JP7136507B2 (en) * 2018-08-30 2022-09-13 ヴェオ ロボティクス, インコーポレイテッド Depth sensing computer vision system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006322795A (en) * 2005-05-18 2006-11-30 Olympus Corp Image processing device, image processing method and image processing program
JP2008082870A (en) * 2006-09-27 2008-04-10 Setsunan Univ Image processing program, and road surface state measuring system using this
JP5071865B2 (en) * 2008-06-03 2012-11-14 富士フイルム株式会社 Distance measuring device, method and program

Also Published As

Publication number Publication date
JP2012018014A (en) 2012-01-26

Similar Documents

Publication Publication Date Title
JP5392198B2 (en) Ranging device and imaging device
US10848680B2 (en) Zooming control apparatus, image capturing apparatus and control methods thereof
US9325899B1 (en) Image capturing device and digital zooming method thereof
KR102032882B1 (en) Autofocus method, device and electronic apparatus
US5877809A (en) Method of automatic object detection in image
US8233078B2 (en) Auto focus speed enhancement using object recognition and resolution
US9542754B2 (en) Device and method for detecting moving objects
KR101616422B1 (en) Method and apparatus for processing the digital image by using fast AF
US20120075492A1 (en) Continuous Autofocus Based on Face Detection and Tracking
US7725019B2 (en) Apparatus and method for deciding in-focus position of imaging lens
WO2012132486A1 (en) Imaging device, imaging method, program, and program storage medium
JP5374119B2 (en) Distance information acquisition device, imaging device, and program
US8391699B2 (en) Focus adjusting apparatus and focus adjusting method
CN101964919A (en) Imaging device and imaging method
US7957633B2 (en) Focus adjusting apparatus and focus adjusting method
CN100492088C (en) Automatic focusing method
KR101038815B1 (en) Image capture system capable of fast auto focus
JP5454392B2 (en) Ranging device and imaging device
US9357124B2 (en) Focusing control device and controlling method of the same
JP6564284B2 (en) Image processing apparatus and image processing method
JP2007328360A (en) Automatic focusing camera and photographing method
JP2019168479A (en) Controller, imaging device, method for control, program, and, and storage medium
JP5720488B2 (en) Imaging apparatus and distance information acquisition method
US11375110B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130930

R151 Written notification of patent or utility model registration

Ref document number: 5392198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees