JP2017084259A - Corresponding point search method and distance measuring device - Google Patents

Corresponding point search method and distance measuring device Download PDF

Info

Publication number
JP2017084259A
JP2017084259A JP2015214460A JP2015214460A JP2017084259A JP 2017084259 A JP2017084259 A JP 2017084259A JP 2015214460 A JP2015214460 A JP 2015214460A JP 2015214460 A JP2015214460 A JP 2015214460A JP 2017084259 A JP2017084259 A JP 2017084259A
Authority
JP
Japan
Prior art keywords
pixel
corresponding point
images
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015214460A
Other languages
Japanese (ja)
Other versions
JP6571492B2 (en
Inventor
和寿 石丸
Kazuhisa Ishimaru
和寿 石丸
白井 孝昌
Takamasa Shirai
孝昌 白井
チャン ロン
Qian Long
チャン ロン
誠一 三田
Seiichi Mita
誠一 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Toyota Gauken
Original Assignee
Denso Corp
Nippon Soken Inc
Toyota Gauken
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc, Toyota Gauken filed Critical Denso Corp
Priority to JP2015214460A priority Critical patent/JP6571492B2/en
Publication of JP2017084259A publication Critical patent/JP2017084259A/en
Application granted granted Critical
Publication of JP6571492B2 publication Critical patent/JP6571492B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To allow a processing load to be reduced when a corresponding point is searched for in a corresponding point search method for searching for a corresponding point among a plurality of images with a parallax error.SOLUTION: In a corresponding point search method, at a particular area extraction step, an area indicating at least one of a road area indicating a road and an empty area indicating emptiness in pixels included in a plurality of images is extracted as a particular area (S40 and S50). At a normal search step, regarding a normal area excluding the particular area from the plurality of images, a corresponding point among the plurality of images for each pixel in a reference image of the plurality of images is searched for (S60). In addition, at a particular search step, regarding the particular area, a corresponding point among the plurality of images is searched for by narrowing down a search range in comparison with when a corresponding point is searched for in the normal area (S60).SELECTED DRAWING: Figure 2

Description

本発明は、視差を有する複数の画像間における対応点を探索する対応点探索方法、および距離測定装置に関する。   The present invention relates to a corresponding point search method and a distance measuring device for searching for corresponding points between a plurality of images having parallax.

上記の対応点探索方法として、基準となる画像の全ての画素について同様の処理にて対応点を探索するものが知られている(例えば、特許文献1参照)。   As said corresponding point search method, what searches for a corresponding point is known by the same process about all the pixels of the image used as a reference | standard (for example, refer patent document 1).

特開2015−114269号公報JP 2015-114269 A

しかしながら、上記対応点探索方法では、全ての画素について同様の処理を行っているが、対応点を探索する際の処理負荷を軽減することに対する要求がある。そこで、視差を有する複数の画像間における対応点を探索する対応点探索方法において、対応点を探索する際の処理負荷を軽減できるようにすることを本発明の目的とする。   However, in the corresponding point search method, similar processing is performed for all pixels, but there is a demand for reducing the processing load when searching for corresponding points. Accordingly, it is an object of the present invention to reduce the processing load when searching for corresponding points in a corresponding point searching method for searching for corresponding points between a plurality of images having parallax.

本発明の一側面の対応点探索方法において、特定領域抽出工程では、複数の画像に含まれる画素において道路を示す道路領域および空を示す空領域のうちの少なくとも一方を示す領域を特定領域として抽出する。また、通常探索工程では、複数の画像から特定領域を除外した通常領域について、複数の画像のうちの基準画像中の画素毎に複数の画像間の対応点を探索する。また、特定探索工程では、特定領域について、通常領域において対応点を探索するときよりも探索範囲を狭くして複数の画像間の対応点を探索する。   In the corresponding point search method according to one aspect of the present invention, in the specific area extraction step, an area indicating at least one of a road area indicating a road and an empty area indicating sky is extracted as a specific area in pixels included in the plurality of images. To do. Further, in the normal search step, corresponding points between the plurality of images are searched for each pixel in the reference image of the plurality of images with respect to the normal region excluding the specific region from the plurality of images. In the specific search step, for a specific area, the search range is narrower than when searching for corresponding points in the normal area, and corresponding points between a plurality of images are searched.

このような対応点探索方法によれば、道路や空を示す特定領域において対応点を探索する際に通常領域よりも探索範囲を狭くするので、対応点を探索する際の処理負荷を軽減することができる。   According to such a corresponding point search method, when searching for a corresponding point in a specific area indicating a road or the sky, the search range is narrower than the normal area, so that the processing load when searching for the corresponding point is reduced. Can do.

なお、各請求項の記載は、可能な限りにおいて任意に組み合わせることができる。この際、一部構成を除外してもよい。   In addition, description of each claim can be arbitrarily combined as much as possible. At this time, a part of the configuration may be excluded.

本発明が適用された距離検出装置1の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the distance detection apparatus 1 to which this invention was applied. 処理部10(CPU11)が実行する距離演算処理を示すフローチャートである。It is a flowchart which shows the distance calculation process which the process part 10 (CPU11) performs. 空領域および道路領域の一例を示す画像図である。It is an image figure which shows an example of an empty area | region and a road area | region. 距離演算処理のうちの空領域抽出処理を示すフローチャートである。It is a flowchart which shows the empty area | region extraction process among distance calculation processes. 道路領域の概念を示す側面図である。It is a side view which shows the concept of a road area | region. 距離演算処理のうちの道路面抽出処理を示すフローチャートである。It is a flowchart which shows the road surface extraction process among distance calculation processes. 距離演算処理のうちの対応点探索処理を示すフローチャートである。It is a flowchart which shows the corresponding point search process among distance calculation processes. 左右方向におけるコスト演算の概略を示す説明図である。It is explanatory drawing which shows the outline of the cost calculation in the left-right direction. コスト演算の際に探索範囲に制限を加える処理の一例を示す説明図である。It is explanatory drawing which shows an example of the process which adds a restriction | limiting to a search range in the case of cost calculation. 実施形態による効果を示す距離画像である。It is a distance image which shows the effect by embodiment.

以下に本発明にかかる実施の形態を図面と共に説明する。
[本実施形態の構成]
本発明が適用された距離検出装置1は、複数の撮像画像の視差を検出することによって撮像画像中の各点(物体)までの距離を検出する装置である。なお、視差とは、同一の物体を見る場所によって見える方向が異なることを示す。特に、本実施形態では、異なる位置にて撮像された物体が撮像画像中において撮像される位置が異なること、またこの際の位置のずれを視差という。
Embodiments according to the present invention will be described below with reference to the drawings.
[Configuration of this embodiment]
The distance detection apparatus 1 to which the present invention is applied is an apparatus that detects a distance to each point (object) in a captured image by detecting parallax of a plurality of captured images. Note that the parallax indicates that the viewing direction differs depending on where the same object is viewed. In particular, in the present embodiment, the positions at which the objects imaged at different positions are captured in the captured image, and the position shift at this time is referred to as parallax.

本実施形態の距離検出装置1では、動的計画法であるビタビアルゴリズムを複数の方向に適用することで複数の撮像画像を構成する画素間の対応関係(つまり視差)を高精度かつ低負荷で求めることができるよう配慮されている。特に本実施形態では、空および道路の領域において対応点を探索する範囲を限定することによって、処理負荷をより軽減できるよう構成されている。   In the distance detection apparatus 1 according to the present embodiment, the correspondence (that is, parallax) between pixels constituting a plurality of captured images is applied with high accuracy and low load by applying the Viterbi algorithm, which is a dynamic programming method, in a plurality of directions. Considered to be able to ask. In particular, the present embodiment is configured to further reduce the processing load by limiting the range of searching for corresponding points in the sky and road regions.

詳細には、距離検出装置1は、乗用車等の車両に搭載されており、図1に示すように、処理部10と、2つの撮像部21,22と、車両制御部30とを備えている。なお、撮像部は2つに限られることなく、3以上設けられていてもよい。   Specifically, the distance detection device 1 is mounted on a vehicle such as a passenger car, and includes a processing unit 10, two imaging units 21 and 22, and a vehicle control unit 30, as shown in FIG. . Note that the number of imaging units is not limited to two, and three or more imaging units may be provided.

撮像部21,22は、それぞれ車両の進行方向が撮像範囲内となる周知のカメラとして構成されている。撮像部21,22は、中心軸が平行かつ水平方向に所定の距離だけ離れて配置されたステレオカメラを構成している。これらの撮像部21,22は、予め決まった時間で周期的に同時に撮像を行うよう設定されている。   The imaging units 21 and 22 are each configured as a known camera in which the traveling direction of the vehicle is within the imaging range. The imaging units 21 and 22 constitute a stereo camera in which the central axes are parallel and arranged at a predetermined distance in the horizontal direction. These image capturing units 21 and 22 are set to perform simultaneous image capturing periodically at a predetermined time.

処理部10は、CPU11と、ROM、RAM等のメモリ12とを備えた周知のコンピュータとして構成されている。処理部10(CPU11)は、撮像部21,22によって撮像された撮像画像を取得する。そして、メモリ12に格納されたプログラムに基づいて後述する距離演算処理等の各種処理を実行する。   The processing unit 10 is configured as a known computer including a CPU 11 and a memory 12 such as a ROM or a RAM. The processing unit 10 (CPU 11) acquires captured images captured by the imaging units 21 and 22. Then, various processes such as a distance calculation process, which will be described later, are executed based on a program stored in the memory 12.

車両制御部30は、処理部10による処理結果を利用して車両を制御する処理を行う。例えば、車両制御部30は、撮像部21,22による撮像範囲内の各点(各画素)における距離の情報を処理部10から取得し、この距離の情報を繰り返し利用することによって物体の位置および相対速度を認識する。そして、物体が走行に支障を来す虞がある場合、走行軌道を変更する車両制御を行う。   The vehicle control unit 30 performs processing for controlling the vehicle using the processing result of the processing unit 10. For example, the vehicle control unit 30 acquires distance information at each point (each pixel) within the imaging range by the imaging units 21 and 22 from the processing unit 10 and repeatedly uses the distance information to thereby determine the position of the object and Recognize relative speed. Then, when there is a possibility that the object may interfere with traveling, vehicle control for changing the traveling track is performed.

[本実施形態の処理]
このように構成された距離検出装置1において、処理部10(CPU11)は、図2以下に示す距離演算処理を実施する。距離演算処理は、撮像画像中の各画素が示す各点までの距離を演算する処理である。距離演算処理は、例えば距離検出装置1の電源が投入されると開始され、その後、一定周期毎に繰り返し実施される。
[Process of this embodiment]
In the distance detection device 1 configured as described above, the processing unit 10 (CPU 11) performs a distance calculation process shown in FIG. The distance calculation process is a process for calculating the distance to each point indicated by each pixel in the captured image. The distance calculation process is started, for example, when the power of the distance detection device 1 is turned on, and then repeatedly executed at regular intervals.

この処理では、まず、撮像部21,22によって撮像された撮像画像を取得する(S10)。続いて、撮像された画像を平行化する(S20)。ここで、画像の平行化とは、撮像画像のレンズによる画像の歪みや姿勢のずれを補正する処理等を示す。   In this process, first, captured images captured by the imaging units 21 and 22 are acquired (S10). Subsequently, the captured image is collimated (S20). Here, the parallelization of the image indicates a process for correcting image distortion or posture deviation by the lens of the captured image.

続いて、複数解像度画像を生成する(S30)。ここで、複数解像度画像とは、1つの撮像画像から生成される解像度の異なる複数の画像を示す。例えば、撮像画像から、画像拡大率ηが1である高解像画像、画像拡大率ηが1/2である中解像画像、拡大率ηが1/4である低解像画像の3種類の画像を生成し、これらを複数解像度画像としてメモリ12に記録させる。   Subsequently, a multi-resolution image is generated (S30). Here, the multi-resolution image indicates a plurality of images having different resolutions generated from one captured image. For example, there are three types of captured images: a high-resolution image with an image enlargement ratio η of 1, a medium-resolution image with an image enlargement ratio η of 1/2, and a low-resolution image with an enlargement ratio η of 1/4. These images are generated and recorded in the memory 12 as multi-resolution images.

なお、後述する対応点探索処理では、解像度が低い順(つまり、画像拡大率ηが小さい順)に、複数解像度画像を構成するそれぞれの画像について実施される。
続いて、空領域抽出処理を実施する(S40)。空領域抽出処理は、撮像画像に写る空を示す画素の集合である空領域を抽出する処理である。ここで、空領域は、例えば図3に示すように、建物の間等、撮像画像の上方において検出される。また、後述する道路領域においては、撮像画像の下方において検出される。
It should be noted that the corresponding point search process described later is performed on each image constituting the multi-resolution image in the order of decreasing resolution (that is, in the order of decreasing image enlargement ratio η).
Subsequently, an empty area extraction process is performed (S40). The sky region extraction processing is processing for extracting a sky region that is a set of pixels indicating the sky that appears in the captured image. Here, the sky region is detected above the captured image, for example, between buildings as shown in FIG. Moreover, in the road area | region mentioned later, it detects below a captured image.

空領域抽出処理や後述する道路面抽出処理では、これらの空領域および道路領域において後述する対応点探索処理の際に利用する探索範囲を制限する設定を行うことで、対応点探索処理の際の処理負荷を低減する。なお、空領域抽出処理や道路面抽出処理では、低解像画像を用いて処理が実施される。   In the sky area extraction process and the road surface extraction process described later, by setting the search range to be used in the corresponding point search process described later in these sky areas and road areas, Reduce processing load. Note that in the sky region extraction process and the road surface extraction process, processing is performed using a low-resolution image.

空領域抽出処理では、図4に示すように、基準画像において、この画像を構成する各画素のうちの最初の画素(つまりピクセル)を選択する(S210)。ここで、基準画像とは、例えば撮像部21による撮像画像等、複数の撮像画像のうちの予め選択された撮像画像を表す。   In the sky region extraction process, as shown in FIG. 4, in the reference image, the first pixel (that is, a pixel) among the pixels constituting this image is selected (S210). Here, the reference image represents a captured image selected in advance among a plurality of captured images such as a captured image by the imaging unit 21.

続いて、選択した画素の周囲の平均輝度μを計算する(S220)。「選択した画素の周囲」として、例えば、選択した画素と隣接する周囲の8画素との9画素を選択する。そして、選択した画素の周囲における輝度の分散σを計算する(S230)。   Subsequently, an average luminance μ around the selected pixel is calculated (S220). As the “periphery of the selected pixel”, for example, nine pixels of the selected pixel and the neighboring eight pixels are selected. Then, the luminance variance σ around the selected pixel is calculated (S230).

続いて、平均輝度μと分散σとが予め設定された範囲内であるか否かを判定する(S240)。詳細には、平均輝度μが、平均輝度μに対して予め準備された最小閾値および最大閾値の間に収まっているか否かを判定するとともに、分散σが分散σに対して予め準備された最小閾値および最大閾値の間に収まっているか否かを判定する。   Subsequently, it is determined whether or not the average luminance μ and the variance σ are within a preset range (S240). Specifically, it is determined whether or not the average luminance μ is between the minimum threshold value and the maximum threshold value prepared in advance with respect to the average luminance μ, and the variance σ is the minimum value prepared in advance with respect to the variance σ. It is determined whether or not it falls within the threshold value and the maximum threshold value.

平均輝度μおよび分散σの両方が予め設定された範囲内であれば(S240:YES)、選択中の画素を空領域の一部を構成する画素であると判定する(S250)。この際、例えばこの画素の位置の情報等、この画素を特定するための情報を対応付けて、この画素が空領域の一部である旨をメモリ12に記録させる。また、平均輝度μおよび分散σの何れかが予め設定された範囲内でなければ(S240:NO)、S260の処理に移行する。   If both the average luminance μ and the variance σ are within a preset range (S240: YES), it is determined that the selected pixel is a pixel constituting a part of the sky region (S250). At this time, for example, information for specifying the pixel, such as information on the position of the pixel, is associated, and the fact that the pixel is a part of the empty area is recorded in the memory 12. If either of the average luminance μ and the variance σ is not within the preset range (S240: NO), the process proceeds to S260.

続いて、演算領域内で判定が完了したか否か、すなわち、基準画像の全ての画素を選択したか否かを判定する(S260)。演算領域内での判定が完了していなければ(S260:NO)、未選択の次の画素を選択し(S270)、S220の処理に戻る。   Subsequently, it is determined whether or not the determination is completed within the calculation area, that is, whether or not all the pixels of the reference image have been selected (S260). If the determination in the calculation area is not completed (S260: NO), the next unselected pixel is selected (S270), and the process returns to S220.

また、演算領域内での判定が完了していれば(S260:YES)、空領域抽出処理を終了する。
続いて、図2に戻り、道路面抽出処理を実施する(S50)。道路面抽出処理は、撮像画像に写る道路を示す画素の集合である道路領域を抽出する処理である。この際、道路面抽出処理では、図5に示すように、道路面よりも地中側、すなわち、鉛直方向下側に位置する領域を後述する対応点探索処理にて探索(計算)しなくてもよい領域に設定する。
If the determination in the calculation area is completed (S260: YES), the empty area extraction process is terminated.
Subsequently, returning to FIG. 2, road surface extraction processing is performed (S50). The road surface extraction process is a process of extracting a road region that is a set of pixels indicating a road shown in a captured image. At this time, in the road surface extraction process, as shown in FIG. 5, an area located on the ground side of the road surface, that is, the lower side in the vertical direction is not searched (calculated) in the corresponding point search process described later. Set to a good area.

道路面抽出処理では、図6に示すように、まず、基準画像において、この画像を構成する各画素のうちの最初の画素(つまりピクセル)を選択する(S310)。続いて、この画素における鉛直方向の座標値であるy座標値に基づいて、道路面を示す視差drを計算する(S320)。   In the road surface extraction process, as shown in FIG. 6, first, in the reference image, the first pixel (that is, pixel) is selected from the pixels constituting this image (S310). Subsequently, a parallax dr indicating the road surface is calculated based on the y-coordinate value which is the vertical coordinate value of this pixel (S320).

ここで、道路面は、自車両の傾きや道路の勾配が存在しないときに地面が存在するはずの平面を基準にして予め設定されている平面である。道路面は、自車両のタイヤの下端や、タイヤの下端から所定の距離だけ地中側を通る水平面であってもよいし、この水平面に対して数%の下り勾配を想定して設定されていてもよい。   Here, the road surface is a plane set in advance with reference to a plane on which the ground should exist when there is no inclination of the host vehicle or no road gradient. The road surface may be a lower plane of the tire of the host vehicle or a horizontal plane that passes through the ground side by a predetermined distance from the lower end of the tire, and is set on the assumption that a downward slope of several percent is set with respect to the horizontal plane. May be.

また、道路面は、カメラの設置位置と設置角度とに基づいて、画素のy座標値に対する道路面までの距離が一意に求められる。視差drは、道路面までの距離を示すものであり、視差が大きくなるにつれて距離が近いことを示し、視差が小さくなるにつれて距離が大きいことを示す。   Further, the road surface is uniquely determined for the distance to the road surface with respect to the y coordinate value of the pixel based on the installation position and the installation angle of the camera. The parallax dr indicates the distance to the road surface, and indicates that the distance is closer as the parallax increases, and indicates that the distance increases as the parallax decreases.

なお、y座標値によっては道路面が存在しないことになり、この場合は距離が無限大、すなわち視差drが0となる。また、計算上は道路面が存在する場合であっても、道路面を特定する必要がない場合には、視差drを0としてもよい。例えば、図3に示す例では、自車両が走行する確度が高い領域のみ視差drを求め、他の領域の視差drを0としている。   Depending on the y coordinate value, there is no road surface. In this case, the distance is infinite, that is, the parallax dr is zero. Further, even when a road surface exists in calculation, the parallax dr may be set to 0 when it is not necessary to specify the road surface. For example, in the example illustrated in FIG. 3, the parallax dr is obtained only in an area where the probability that the host vehicle travels is high, and the parallax dr of other areas is set to zero.

続いて、選択した画素について、視差drが0であるか否かを判定する(S340)。視差drが0であれば(S340:YES)、後述するS360の処理に移行する。
また、視差drが0でなければ(S340:NO)、道路面よりも地中側となる視差の範囲を道路外領域の視差として設定する(S350)。この際、例えばこの画素の位置の情報等、この画素を特定するための情報を対応付けて、この画素についての道路外領域の視差をメモリ12に記録させる。
Subsequently, it is determined whether or not the parallax dr is 0 for the selected pixel (S340). If the parallax dr is 0 (S340: YES), the process proceeds to S360 described later.
If the parallax dr is not 0 (S340: NO), the parallax range that is in the ground from the road surface is set as the parallax of the area outside the road (S350). At this time, for example, information for specifying the pixel, such as information on the position of the pixel, is associated, and the parallax of the area outside the road for the pixel is recorded in the memory 12.

続いて、演算領域内で判定が完了したか否かを判定する(S360)。演算領域内とは、例えば基準画像の全ての画素を示す。演算領域内での判定が完了していなければ(S360:NO)、未選択の次の画素を選択し(S370)、S320の処理に戻る。   Subsequently, it is determined whether or not the determination is completed within the calculation area (S360). In the calculation area, for example, all the pixels of the reference image are shown. If the determination in the calculation area is not completed (S360: NO), the next unselected pixel is selected (S370), and the process returns to S320.

また、演算領域内での判定が完了していれば(S360:YES)、道路領域抽出処理を終了する。
続いて、図2に戻り、対応点探索処理を実施する(S60)。対応点探索処理は、対応点を関連付ける処理である。ここで、対応点とは、基準画像を構成する各画素に対して、基準画像を除く撮像画像である比較画像(例えば撮像部22による撮像画像)を構成する各画素において同じものが写っている画素を示す。
If the determination in the calculation area is completed (S360: YES), the road area extraction process is terminated.
Subsequently, returning to FIG. 2, a corresponding point search process is performed (S60). Corresponding point search processing is processing for associating corresponding points. Here, with respect to each pixel constituting the reference image, the same point is reflected in each pixel constituting the comparison image (for example, a captured image by the imaging unit 22) that is a captured image excluding the reference image. Indicates a pixel.

対応点探索処理の詳細は図7に示すように、まず、複数解像度画像のうちの最も解像度が高い画像を除く画像(本実施形態では最も解像度が低い低解像度画像)を選択する(S410)。そして、空領域に対応する画素、道路外領域の視差について、メモリ12から読み出して探索を実施しない範囲を設定する(S415)。空領域に対応する画素においては、例えば、対応点の探索範囲を0または1ピクセルとする。つまり、距離が無限大、または無限大に極めて近い画素だけを対応点の探索範囲として設定し、その他の画素を対応点の探索範囲外とする。また、道路領域については、道路外領域の視差と認められた範囲を対応点の探索範囲外とし、その他の画素を対応点の探索範囲とする。   As shown in FIG. 7 for details of the corresponding point search process, first, an image excluding an image with the highest resolution among the multiple resolution images (a low-resolution image with the lowest resolution in the present embodiment) is selected (S410). Then, the range corresponding to the pixel corresponding to the sky region and the parallax of the region outside the road is read from the memory 12 and the search is not performed (S415). In the pixel corresponding to the sky region, for example, the search range of the corresponding point is set to 0 or 1 pixel. That is, only pixels whose distance is infinite or very close to infinity are set as the corresponding point search range, and other pixels are outside the corresponding point search range. For the road region, the range recognized as the parallax of the region outside the road is outside the corresponding point search range, and the other pixels are set as the corresponding point search range.

続いて、節点のコストを算出する(S420)。ここで、節点とは、図8(a)に示すように、基準画像の画素位置を横軸に取り、基準画像の画素位置と比較画像の画素位置との視差を縦軸に取ったマトリクスにおいて、このマトリクスを構成する要素の1つ1つを示す。なお、ここでの各要素は、基準画像の画素位置と視差との関係を表す。   Subsequently, the cost of the node is calculated (S420). Here, as shown in FIG. 8A, the node is a matrix in which the horizontal axis is the pixel position of the reference image and the vertical axis is the parallax between the pixel position of the reference image and the pixel position of the comparison image. , One by one the elements that make up this matrix are shown. Here, each element represents the relationship between the pixel position of the reference image and the parallax.

ここで、節点のコストは、画素情報を用いて求められる。なお、画素情報とは、輝度や色度等の画素の特徴を表す。また、節点のコストを求める処理は、例えば、特許文献1の段落[0019]〜[0021]にて示す処理と同様の処理を行う。   Here, the cost of the node is obtained using the pixel information. The pixel information represents pixel characteristics such as luminance and chromaticity. Moreover, the process which calculates | requires the cost of a node performs the process similar to the process shown by the paragraphs [0019]-[0021] of patent document 1, for example.

次に、ビタビアルゴリズムによる各方向についてのコストを求める(S430)。この際、図8(b)に示すように、基準画像および比較画像についてそれぞれ水平方向(X方向)について選択する画素の座標を遷移させつつ、ビタビアルゴリズムを用いて視差コストを求める。この処理を各方向においてそれぞれ実施する。   Next, the cost for each direction according to the Viterbi algorithm is obtained (S430). At this time, as shown in FIG. 8B, the parallax cost is obtained using the Viterbi algorithm while changing the coordinates of the pixel selected in the horizontal direction (X direction) for each of the reference image and the comparison image. This process is performed in each direction.

なお、この処理については、例えば、特許文献1の段落[0022]〜[0052]にて示す処理と同様の処理を行う。ここで、ビタビアルゴリズムによる各方向についてのコストEを求める処理では、基準画像において空領域および道路領域に該当する場合に、探索を実施しない範囲を加味して対応点の探索を行う。例えば、図9に示す例では、対応点の探索範囲外となった画素について、×印を付している。すなわち本処理では、対応点を探索する際に、探索範囲を限定していることが分かる。この結果、相関値が高い画素だけが探索範囲として選択されることになる。   In addition, about this process, the process similar to the process shown to paragraphs [0022]-[0052] of patent document 1 is performed, for example. Here, in the process of obtaining the cost E for each direction by the Viterbi algorithm, when corresponding to the sky region and the road region in the reference image, the corresponding points are searched for in consideration of the range where the search is not performed. For example, in the example illustrated in FIG. 9, a mark X is attached to a pixel that is outside the corresponding point search range. That is, in this process, it is understood that the search range is limited when searching for corresponding points. As a result, only pixels having a high correlation value are selected as the search range.

続いて、図7に戻り、コストEに従って、最小となる視差を選択し(S440)、基準画像における各画素と比較画像における各画素との対応関係をメモリ12に記録する(S450)。続いて、現在、高解像画像が選択されているか否かを判定する(S480)。   Subsequently, returning to FIG. 7, the minimum parallax is selected according to the cost E (S440), and the correspondence between each pixel in the reference image and each pixel in the comparison image is recorded in the memory 12 (S450). Subsequently, it is determined whether or not a high-resolution image is currently selected (S480).

高解像画像が選択されていなければ(S480:NO)、現在選択されている画像の次に解像度が高い複数解像度画像を選択する(S490)。そして、探索領域を縮小して設定する(S500)。探索領域を縮小する処理では、より高い解像度の複数解像度画像にて対応点を探索する際に、既に解像度の低い画像にて得られた対応点にて示される視差を用いて、探索領域を限定する。例えば、ある画素において得られた視差の前後3ピクセル程度を探索領域とする。具体的には、ある画素において得られた対応点の視差が5ピクセルであれば、より解像度の高い画像による探索領域には視差が2〜8の範囲を設定する。   If no high-resolution image is selected (S480: NO), a multi-resolution image having the next highest resolution after the currently selected image is selected (S490). Then, the search area is reduced and set (S500). In the process of reducing the search area, when searching for corresponding points in a multi-resolution image with a higher resolution, the search area is limited using the parallax indicated by the corresponding points already obtained in the low-resolution image. To do. For example, about 3 pixels before and after the parallax obtained in a certain pixel are set as the search area. Specifically, if the parallax of the corresponding point obtained in a certain pixel is 5 pixels, a range of 2 to 8 parallax is set in the search area based on a higher resolution image.

なお、解像度が異なる画像間の各画素の対応付けについては、概ね同様の位置を示す画素同士が対応付けられる。
このような処理が終了するとS415の処理に戻る。また、S480の処理にて高解像画像が選択されていれば(S480:YES)、対応点探索処理を終了する。
In addition, about the correlation of each pixel between images with different resolutions, pixels indicating substantially similar positions are associated with each other.
When such a process is completed, the process returns to S415. If a high resolution image has been selected in the process of S480 (S480: YES), the corresponding point search process is terminated.

このような対応点探索処理が終了すると、図2に戻り、各画素における対応点の視差に応じて各画素に写っている物体までの距離を算出する(S70)。そして、これらの画素と距離との対応データを車両制御部30に対して出力する(S80)。   When such corresponding point search processing is completed, the process returns to FIG. 2, and the distance to the object shown in each pixel is calculated according to the parallax of the corresponding point in each pixel (S70). Then, correspondence data between these pixels and distances is output to the vehicle control unit 30 (S80).

ここで、この処理で出力される対応データは、図10(C)に示すようなものである。すなわち、上記処理を用いて図10(A)に示すような撮像画像(シーン画像)を処理すると、図10(C)に示すような距離画像が得られる。図10(C)に示す距離画像では、濃淡によって距離を表現しており、濃度が高くなるにつれて距離が遠くなることを示す。一方、図10(B)は、本処理を適用することなく、単にビダビアルゴリズムを適用して得られた距離画像である。図10(C)に示す距離画像では、図10(B)に示す距離画像を求めるときよりも処理負荷が軽減されているが、図10(B)に示す距離画像とほぼ同様に、正確に距離が検出できていることが分かる。   Here, the correspondence data output by this processing is as shown in FIG. That is, when a captured image (scene image) as shown in FIG. 10A is processed using the above process, a distance image as shown in FIG. 10C is obtained. In the distance image shown in FIG. 10C, the distance is expressed by shading, indicating that the distance increases as the density increases. On the other hand, FIG. 10B is a distance image obtained by simply applying the Viterbi algorithm without applying this processing. In the distance image shown in FIG. 10C, the processing load is reduced as compared with the case of obtaining the distance image shown in FIG. 10B. However, the distance image shown in FIG. It can be seen that the distance is detected.

続いて、距離画像に基づいて同じ距離を示す画素群を1つの物体として認識し、このようにして得られた物体の位置(物体までの距離)を車両制御部30に出力する(S90)。このような処理が終了すると距離演算処理を終了する。   Subsequently, the pixel group indicating the same distance is recognized as one object based on the distance image, and the position of the object (distance to the object) thus obtained is output to the vehicle control unit 30 (S90). When such processing ends, the distance calculation processing ends.

[本実施形態による効果]
上記の距離検出装置1において処理部10は、複数の画像に含まれる画素において道路を示す道路領域および空を示す空領域のうちの少なくとも一方を示す領域を特定領域として抽出する。また、通常探索工程では、複数の画像から特定領域を除外した通常領域について、複数の画像のうちの基準画像中の画素毎に複数の画像間の対応点を探索する。また、特定探索工程では、特定領域について、通常領域において対応点を探索するときよりも探索範囲を狭くして複数の画像間の対応点を探索する。
[Effects of this embodiment]
In the distance detection device 1 described above, the processing unit 10 extracts, as the specific region, a region indicating at least one of a road region indicating a road and a sky region indicating sky in pixels included in a plurality of images. Further, in the normal search step, corresponding points between the plurality of images are searched for each pixel in the reference image of the plurality of images with respect to the normal region excluding the specific region from the plurality of images. In the specific search step, for a specific area, the search range is narrower than when searching for corresponding points in the normal area, and corresponding points between a plurality of images are searched.

このような距離検出装置1によれば、道路や空を示す特定領域において対応点を探索する際に通常領域よりも探索範囲を狭くするので、対応点を探索する際の処理負荷を軽減することができる。   According to such a distance detection device 1, when searching for a corresponding point in a specific area indicating a road or the sky, the search range is narrower than the normal area, so that the processing load when searching for the corresponding point is reduced. Can do.

また、このような距離検出装置1によれば、対応点探索方法を用いるので、処理負荷を軽減しつつ物体までの距離を検出することができる。
上記の距離検出装置1において処理部10は、基準画像における画素とその周囲の画素との関係において平均輝度および輝度の分散がそれぞれ予め設定された判定範囲内である領域を空領域として抽出する。
Moreover, according to such a distance detection apparatus 1, since the corresponding point search method is used, the distance to the object can be detected while reducing the processing load.
In the distance detection apparatus 1 described above, the processing unit 10 extracts, as an empty area, an area in which the average luminance and the luminance dispersion are within a predetermined determination range in the relationship between the pixels in the reference image and the surrounding pixels.

このような距離検出装置1によれば、平均輝度および輝度の分散を用いて空領域を良好に抽出することができる。
上記の距離検出装置1において処理部10は、空領域を示す画素について予め設定された画素を対応点とする。
According to such a distance detection device 1, it is possible to satisfactorily extract the sky region using the average luminance and the luminance dispersion.
In the distance detection apparatus 1 described above, the processing unit 10 sets a pixel set in advance for a pixel indicating a sky region as a corresponding point.

このような距離検出装置1によれば、空領域については視差が生じていないものとして予め設定された画素を対応点とするので、対応点を探索する際の処理負荷をより軽減することができる。   According to such a distance detection device 1, since a pixel that is set in advance as a corresponding point is assumed to have no parallax in the sky region, the processing load when searching for the corresponding point can be further reduced. .

上記の距離検出装置1において処理部10は、基準画像において道路面よりも地中側の部位が含まれる可能性がある画素を道路領域として抽出する。
このような距離検出装置1によれば、道路領域を簡素な処理で抽出することができる。
In the distance detection apparatus 1 described above, the processing unit 10 extracts, as a road region, a pixel that may include a portion on the ground side of the road surface in the reference image.
According to such a distance detection apparatus 1, a road area can be extracted by a simple process.

なお、「道路面よりも地中側の部位が含まれる可能性がある画素」については、撮像画像を得る際のカメラの向きやレンズの仕様等によって特定することができる。例えば、水平よりも下側が撮像される画素を道路領域とすることができる。   It should be noted that “a pixel that may include a portion on the ground side from the road surface” can be specified by the orientation of the camera, the lens specifications, and the like when obtaining a captured image. For example, a pixel that is imaged below the horizontal can be used as a road region.

上記の距離検出装置1において処理部10は、道路領域を示す画素において道路面よりも地中側となる範囲について対応点の探索を省略する。
このような距離検出装置1によれば、道路面よりも地中側となる範囲について対応点の探索を省略するので、対応点を探索する際の処理負荷をより軽減することができる。
In the distance detection apparatus 1 described above, the processing unit 10 omits searching for corresponding points in a range that is in the ground side of the road surface in pixels indicating the road region.
According to such a distance detection device 1, the search for corresponding points is omitted for the range on the ground side of the road surface, so that the processing load when searching for the corresponding points can be further reduced.

上記の距離検出装置1において処理部10は、複数の撮像画像のそれぞれから解像度の異なる複数組の任意解像度画像を生成し、複数組の任意解像度画像のうちの最も解像度が高い任意解像度画像以外の何れかを表す特定解像度画像から特定領域を抽出する。   In the distance detection device 1, the processing unit 10 generates a plurality of sets of arbitrary resolution images having different resolutions from each of the plurality of captured images, and the other than the arbitrary resolution image having the highest resolution among the plurality of sets of arbitrary resolution images. A specific area is extracted from a specific resolution image representing one of them.

このような距離検出装置1によれば、解像度が低く、処理負荷が小さい特定解像度画像を画像処理することによって特定領域を抽出しておくので、特定領域を抽出する際の処理負荷を軽減することができる。   According to such a distance detection device 1, the specific area is extracted by performing image processing on a specific resolution image having a low resolution and a low processing load, so that the processing load when extracting the specific area can be reduced. Can do.

上記の距離検出装置1において処理部10は、基準画像のある画素を表す基準画素において該画素の特徴を表す画素情報と、基準画像を除く他の画像中の画素を表す比較画素における画素情報と、の差異に基づく画素コストを、基準画素および比較画素を変更しつつ、基準画素毎に演算する。また、処理部10は、基準画素を変更する際において基準画素と比較画素との座標差である視差の変化量に対するコストを表す視差コストを、基準画素毎に演算し、各基準画素に対して、画素コストと視差コストとの和を表す合計コストが最小値となる際の比較画素との組み合わせを演算する。そして、処理部10は、各基準画素に対応する比較画素を、各基準画素に対応する対応点として設定する。   In the distance detection device 1, the processing unit 10 includes pixel information that represents the characteristics of the pixel in the reference pixel that represents a pixel in the reference image, and pixel information in the comparison pixel that represents a pixel in another image other than the reference image. The pixel cost based on the difference is calculated for each reference pixel while changing the reference pixel and the comparison pixel. Further, the processing unit 10 calculates, for each reference pixel, a parallax cost that represents a cost with respect to a change amount of parallax that is a coordinate difference between the reference pixel and the comparison pixel when changing the reference pixel. The combination with the comparison pixel when the total cost representing the sum of the pixel cost and the parallax cost becomes the minimum value is calculated. Then, the processing unit 10 sets a comparison pixel corresponding to each reference pixel as a corresponding point corresponding to each reference pixel.

このような距離検出装置1によれば、コスト演算により対応点を求めるので、簡素な処理で物体を認識することができる。よって、物体までの距離を求める際の処理負荷を軽減することができる。   According to such a distance detection device 1, since the corresponding point is obtained by cost calculation, the object can be recognized by a simple process. Therefore, it is possible to reduce the processing load when obtaining the distance to the object.

[その他の実施形態]
本発明は、上記の実施形態によって何ら限定して解釈されない。また、上記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、各請求項に係る発明の理解を容易にする目的で使用しており、各請求項に係る発明の技術的範囲を限定する意図ではない。上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
[Other Embodiments]
The present invention is not construed as being limited by the above embodiment. Further, the reference numerals used in the description of the above embodiments are also used in the claims as appropriate, but they are used for the purpose of facilitating the understanding of the invention according to each claim, and the invention according to each claim. It is not intended to limit the technical scope of The functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Moreover, you may abbreviate | omit a part of structure of the said embodiment as long as a subject can be solved. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

上述した距離検出装置1の他、当該距離検出装置1を構成要素とするシステム、当該距離検出装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、距離検出方法など、種々の形態で本発明を実現することもできる。   In addition to the distance detection device 1 described above, various forms such as a system including the distance detection device 1 as a constituent element, a program for causing a computer to function as the distance detection device 1, a medium storing the program, a distance detection method, and the like Thus, the present invention can be realized.

[実施形態の構成と本発明の手段との対応関係]
上記実施形態において処理部10は、本発明でいう画像処理装置に相当する。また、処理部10が実行する処理のうちのS10〜S100の処理は本発明でいう対応点探索方法に相当し、上記実施形態においてS30の処理は本発明でいう複数解像度画像生成工程に相当する。
[Correspondence between Configuration of Embodiment and Means of Present Invention]
In the above embodiment, the processing unit 10 corresponds to the image processing apparatus referred to in the present invention. Of the processes executed by the processing unit 10, the processes of S10 to S100 correspond to the corresponding point search method referred to in the present invention. In the above embodiment, the process of S30 corresponds to the multi-resolution image generation process referred to in the present invention. .

また、上記実施形態においてS40,S50の処理は本発明でいう特定領域抽出工程および特定領域抽出部に相当し、上記実施形態においてS60の処理は本発明でいう通常探索工程、通常探索部、特定探索工程、および特定探索部に相当する。また、上記実施形態においてS70の処理は本発明でいう距離演算部に相当し、上記実施形態においてS420の処理は本発明でいう画素コスト演算工程に相当する。   Moreover, in the said embodiment, the process of S40 and S50 is corresponded to the specific area extraction process and specific area extraction part which are said by this invention, and the process of S60 in the said embodiment is a normal search process, a normal search part, specific, and the said invention. This corresponds to a search step and a specific search unit. Moreover, in the said embodiment, the process of S70 is equivalent to the distance calculating part said by this invention, and the process of S420 is equivalent to the pixel cost calculating process said to this invention in the said embodiment.

また、上記実施形態においてS430,S440の処理は本発明でいう最小コスト画素演算工程に相当し、上記実施形態においてS450の処理は本発明でいう対応点設定工程に相当する。   In the above embodiment, the processes in S430 and S440 correspond to the minimum cost pixel calculation process in the present invention, and in the above embodiment, the process in S450 corresponds to the corresponding point setting process in the present invention.

1…距離検出装置、10…処理部、11…CPU、12…メモリ、21,22…撮像部、30…車両制御部。   DESCRIPTION OF SYMBOLS 1 ... Distance detection apparatus, 10 ... Processing part, 11 ... CPU, 12 ... Memory, 21, 22 ... Imaging part, 30 ... Vehicle control part.

Claims (8)

視差を有する複数の画像を画像処理する画像処理装置(10)にて実行され、複数の画像間における対応点を探索する対応点探索方法(S10〜S100)であって、
前記複数の画像に含まれる画素において道路を示す道路領域および空を示す空領域のうちの少なくとも一方を示す領域を特定領域として抽出する特定領域抽出工程(S40,S50)と、
前記複数の画像から前記特定領域を除外した通常領域について、前記複数の画像のうちの基準画像中の画素毎に前記複数の画像間の対応点を探索する通常探索工程(S60)と、
前記特定領域について、前記通常領域において対応点を探索するときよりも探索範囲を狭くして前記複数の画像間の対応点を探索する特定探索工程(S60)と、
を実施する対応点探索方法。
A corresponding point search method (S10 to S100) that is executed by an image processing apparatus (10) that performs image processing on a plurality of images having parallax and searches for corresponding points between the plurality of images,
A specific area extraction step (S40, S50) for extracting, as a specific area, an area indicating at least one of a road area indicating a road and an empty area indicating sky in pixels included in the plurality of images;
A normal search step (S60) for searching for a corresponding point between the plurality of images for each pixel in the reference image of the plurality of images for the normal region excluding the specific region from the plurality of images;
For the specific area, a specific search step (S60) for searching for corresponding points between the plurality of images by narrowing a search range than when searching for corresponding points in the normal area;
Corresponding point search method.
請求項1に記載の対応点探索方法において、
前記特定領域抽出工程では、前記基準画像における画素とその周囲の画素との関係において平均輝度および輝度の分散がそれぞれ予め設定された判定範囲内である画素を前記空領域を構成する画素として抽出する
対応点探索方法。
In the corresponding point search method according to claim 1,
In the specific area extracting step, pixels whose average luminance and luminance distribution are within a predetermined determination range in relation to the pixels in the reference image and surrounding pixels are extracted as pixels constituting the sky area. Corresponding point search method.
請求項2に記載の対応点探索方法において、
前記特定探索工程では、前記空領域を示す画素について予め設定された画素を前記対応点とする
対応点探索方法。
In the corresponding point search method according to claim 2,
In the specific search step, a corresponding point search method in which a pixel set in advance for the pixel indicating the sky region is used as the corresponding point.
請求項1〜請求項3の何れか1項に記載の対応点探索方法において、
前記特定領域抽出工程では、前記基準画像において道路面よりも地中側の部位が含まれる可能性がある画素を前記道路領域として抽出する
対応点探索方法。
In the corresponding point search method according to any one of claims 1 to 3,
In the specific area extracting step, a corresponding point search method for extracting, as the road area, a pixel that may include a part on the ground side of the road surface in the reference image.
請求項4に記載の対応点探索方法において、
前記特定探索工程では、前記道路領域を示す画素において道路面よりも地中側となる範囲について対応点の探索を省略する
対応点探索方法。
In the corresponding point search method according to claim 4,
In the specific search step, a corresponding point search method that omits searching for corresponding points in a range that is in the ground side of the road surface in pixels that indicate the road region.
請求項1〜請求項5の何れか1項に記載の対応点探索方法において、
前記複数の撮像画像のそれぞれから解像度の異なる複数組の任意解像度画像を生成する複数解像度画像生成工程(S30)、を実施し、
前記特定領域抽出工程では、前記複数組の任意解像度画像のうちの最も解像度が高い任意解像度画像以外の何れかを表す特定解像度画像から前記特定領域を抽出する
対応点探索方法。
In the corresponding point search method according to any one of claims 1 to 5,
Performing a multi-resolution image generation step (S30) for generating a plurality of sets of arbitrary resolution images having different resolutions from each of the plurality of captured images;
In the specific area extracting step, the specific area is extracted from a specific resolution image representing any one of the plurality of sets of arbitrary resolution images other than the highest resolution arbitrary resolution image.
請求項1〜請求項6の何れか1項に記載の対応点探索方法において、
前記通常探索工程および前記特定探索工程では、
前記基準画像中のある画素を表す基準画素において該画素の特徴を表す画素情報と、前記基準画像を除く他の画像中の画素を表す比較画素における画素情報と、の差異に基づく画素コストを、前記基準画素および前記比較画素を変更しつつ、前記基準画素毎に演算する画素コスト演算工程(S420)と、
前記基準画素を変更する際において前記基準画素と前記比較画素との座標差である視差の変化量に対するコストを表す視差コストを、前記基準画素毎に演算し、前記各基準画素に対して、前記画素コストと前記視差コストとの和を表す合計コストが最小値となる際の比較画素との組み合わせを演算する最小コスト画素演算工程(S430,S440)と、
前記各基準画素に対応する比較画素を、前記各基準画素に対応する対応点として設定する対応点設定工程(S450)と、
を実行する対応点探索方法。
In the corresponding point search method according to any one of claims 1 to 6,
In the normal search step and the specific search step,
A pixel cost based on a difference between pixel information representing a characteristic of the pixel in a reference pixel representing a pixel in the reference image and pixel information in a comparison pixel representing a pixel in another image excluding the reference image, A pixel cost calculation step (S420) for calculating each reference pixel while changing the reference pixel and the comparison pixel;
When changing the reference pixel, a parallax cost representing a cost for the amount of change in parallax, which is a coordinate difference between the reference pixel and the comparison pixel, is calculated for each reference pixel, and for each reference pixel, A minimum cost pixel calculation step (S430, S440) for calculating a combination with a comparison pixel when the total cost representing the sum of the pixel cost and the parallax cost is a minimum value;
A corresponding point setting step (S450) for setting a comparison pixel corresponding to each reference pixel as a corresponding point corresponding to each reference pixel;
Corresponding point search method.
複数の撮像画像に基づいて撮像画像中の物体までの距離を検出する距離検出装置(1)であって、
前記複数の画像に含まれる画素において道路を示す道路領域および空を示す空領域のうちの少なくとも一方を示す領域を特定領域として抽出する特定領域抽出部(S40,S50)と、
前記複数の画像から前記特定領域を除外した通常領域について、前記複数の画像のうちの基準画像中の画素毎に前記複数の画像間の対応点を探索する通常探索部(S60)と、
前記特定領域について、前記通常領域において対応点を探索するときよりも探索範囲を狭くして前記複数の画像間の対応点を探索する特定探索部(S60)と、
前記各基準画素と対応点との関係に基づいて前記各基準画素が示す物体までの距離を演算する距離演算部(S70)と、
を備えたことを特徴とする距離検出装置。
A distance detection device (1) for detecting a distance to an object in a captured image based on a plurality of captured images,
A specific area extraction unit (S40, S50) for extracting, as a specific area, an area indicating at least one of a road area indicating a road and an empty area indicating sky in pixels included in the plurality of images;
A normal search unit (S60) for searching for a corresponding point between the plurality of images for each pixel in the reference image of the plurality of images with respect to the normal region excluding the specific region from the plurality of images;
A specific search unit (S60) for searching for corresponding points between the plurality of images with a narrower search range than when searching for corresponding points in the normal region for the specific region;
A distance calculation unit (S70) that calculates the distance to the object indicated by each reference pixel based on the relationship between each reference pixel and the corresponding point;
A distance detection device comprising:
JP2015214460A 2015-10-30 2015-10-30 Corresponding point search method and distance measuring device Expired - Fee Related JP6571492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015214460A JP6571492B2 (en) 2015-10-30 2015-10-30 Corresponding point search method and distance measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015214460A JP6571492B2 (en) 2015-10-30 2015-10-30 Corresponding point search method and distance measuring device

Publications (2)

Publication Number Publication Date
JP2017084259A true JP2017084259A (en) 2017-05-18
JP6571492B2 JP6571492B2 (en) 2019-09-04

Family

ID=58713035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015214460A Expired - Fee Related JP6571492B2 (en) 2015-10-30 2015-10-30 Corresponding point search method and distance measuring device

Country Status (1)

Country Link
JP (1) JP6571492B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021015035A1 (en) * 2019-07-19 2021-01-28 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, image delivery system, and image processing method
JP2022024676A (en) * 2020-07-28 2022-02-09 株式会社Soken Distance measuring device
JP2023170536A (en) * 2022-05-19 2023-12-01 キヤノン株式会社 Image processing device, image processing method, movable body, and computer program
JP7483790B2 (en) 2022-05-19 2024-05-15 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, MOBILE BODY, AND COMPUTER PROGRAM

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085566A (en) * 2001-09-10 2003-03-20 Nippon Hoso Kyokai <Nhk> Correspondent point searching method and matching device using the same
JP2006054681A (en) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology Moving object periphery monitoring apparatus
JP2010191637A (en) * 2009-02-17 2010-09-02 Mazda Motor Corp Driving support device for vehicle
JP2012118698A (en) * 2010-11-30 2012-06-21 Fuji Heavy Ind Ltd Image processing system
JP2012150730A (en) * 2011-01-20 2012-08-09 Panasonic Corp Feature extraction device, feature extraction method, feature extraction program and image processing device
JP2013164351A (en) * 2012-02-10 2013-08-22 Toyota Motor Corp Stereo parallax calculation device
JP2015114269A (en) * 2013-12-13 2015-06-22 株式会社日本自動車部品総合研究所 Corresponding points search method and distance measuring unit

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085566A (en) * 2001-09-10 2003-03-20 Nippon Hoso Kyokai <Nhk> Correspondent point searching method and matching device using the same
JP2006054681A (en) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology Moving object periphery monitoring apparatus
JP2010191637A (en) * 2009-02-17 2010-09-02 Mazda Motor Corp Driving support device for vehicle
JP2012118698A (en) * 2010-11-30 2012-06-21 Fuji Heavy Ind Ltd Image processing system
JP2012150730A (en) * 2011-01-20 2012-08-09 Panasonic Corp Feature extraction device, feature extraction method, feature extraction program and image processing device
JP2013164351A (en) * 2012-02-10 2013-08-22 Toyota Motor Corp Stereo parallax calculation device
JP2015114269A (en) * 2013-12-13 2015-06-22 株式会社日本自動車部品総合研究所 Corresponding points search method and distance measuring unit

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021015035A1 (en) * 2019-07-19 2021-01-28 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, image delivery system, and image processing method
JP2021018575A (en) * 2019-07-19 2021-02-15 株式会社ソニー・インタラクティブエンタテインメント Image processing device, image distribution system, and image processing method
JP7385385B2 (en) 2019-07-19 2023-11-22 株式会社ソニー・インタラクティブエンタテインメント Image distribution system and image distribution method
US11847715B2 (en) 2019-07-19 2023-12-19 Sony Interactive Entertainment Inc. Image processing apparatus, image distribution system, and image processing method
JP2022024676A (en) * 2020-07-28 2022-02-09 株式会社Soken Distance measuring device
JP2023170536A (en) * 2022-05-19 2023-12-01 キヤノン株式会社 Image processing device, image processing method, movable body, and computer program
JP7483790B2 (en) 2022-05-19 2024-05-15 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, MOBILE BODY, AND COMPUTER PROGRAM

Also Published As

Publication number Publication date
JP6571492B2 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
JP5870273B2 (en) Object detection apparatus, object detection method, and program
JP6179639B2 (en) Road boundary detection method and detection apparatus
US11295516B2 (en) Reconstruction method, reconstruction device, and generation method for generating a three-dimensional (3D) model
JP5752618B2 (en) Stereo parallax calculation device
JP6201148B2 (en) CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM
JP6358160B2 (en) Traveling road surface detection device and traveling road surface detection method
JP6326641B2 (en) Image processing apparatus and image processing method
CN107392080B (en) Image evaluation method and electronic device thereof
WO2020017334A1 (en) Vehicle-mounted environment recognition device
JP2013242625A (en) Image processing device and image processing method
JP6571492B2 (en) Corresponding point search method and distance measuring device
CN108074250B (en) Matching cost calculation method and device
JP6212021B2 (en) Distance detector
JP7136721B2 (en) Arithmetic device, parallax calculation method
JP2020173584A (en) Object detection device
JP2017219351A (en) Parallax detector
JP2018059767A (en) Image processing device, image processing method and program
JP6730214B2 (en) Parallax calculator
JP6550014B2 (en) Road surface detection device
JP5446516B2 (en) Image processing device
CN117115242B (en) Identification method of mark point, computer storage medium and terminal equipment
JP7066580B2 (en) Image processing equipment
JP2018116620A (en) Image processing device, image processing system, and image processing method
JP2022186523A (en) Three-dimensional point cloud processing apparatus, three-dimensional point cloud processing method, and three-dimensional point cloud processing program
CN117635675A (en) Same name point pairing method for multi-camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190808

R150 Certificate of patent or registration of utility model

Ref document number: 6571492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees