JP7243671B2 - Parallax calculation system, information processing device, information processing method and program - Google Patents

Parallax calculation system, information processing device, information processing method and program Download PDF

Info

Publication number
JP7243671B2
JP7243671B2 JP2020075435A JP2020075435A JP7243671B2 JP 7243671 B2 JP7243671 B2 JP 7243671B2 JP 2020075435 A JP2020075435 A JP 2020075435A JP 2020075435 A JP2020075435 A JP 2020075435A JP 7243671 B2 JP7243671 B2 JP 7243671B2
Authority
JP
Japan
Prior art keywords
parallax
pixels
distance
search range
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020075435A
Other languages
Japanese (ja)
Other versions
JP2020118697A (en
Inventor
洋義 関口
聡一郎 横田
海克 関
充 中嶋
修一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020075435A priority Critical patent/JP7243671B2/en
Publication of JP2020118697A publication Critical patent/JP2020118697A/en
Application granted granted Critical
Publication of JP7243671B2 publication Critical patent/JP7243671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

本発明は視差演算を行う視差演算システム、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to a parallax calculation system, an information processing apparatus, an information processing method, and a program for performing parallax calculation.

従来より、ステレオカメラ等の複数の撮像部により撮影された撮影画像(ステレオ画像)について視差演算を行うことで、撮影対象のオブジェクトまでの距離を算出する測距技術が知られている(例えば、特許文献1乃至4等参照)。 2. Description of the Related Art Conventionally, there has been known a distance measurement technique for calculating the distance to an object to be photographed by performing parallax calculation on images (stereo images) photographed by a plurality of imaging units such as stereo cameras (for example, See Patent Documents 1 to 4, etc.).

当該測距技術によれば、撮影画像内にオブジェクト画像として描画されているすべてのオブジェクト(つまり、撮影対象のすべてのオブジェクト)について、撮像部からの距離を算出することができる。 According to the distance measurement technique, the distance from the imaging unit can be calculated for all objects drawn as object images in the captured image (that is, all objects to be captured).

しかしながら、撮影画像内にオブジェクト画像として描画されるオブジェクトには、通常、撮像部に近い位置に存在するオブジェクトから、遠い位置に存在するオブジェクトまで、互いに距離の異なる複数のオブジェクトが含まれる。 However, an object drawn as an object image in a captured image usually includes a plurality of objects at different distances from each other, ranging from objects near the imaging unit to objects far from the imaging unit.

このため、撮影画像内の全ての画素について、オブジェクトまでの距離とは無関係に一律に視差演算を行おうとすると、視差探索の際に誤った視差候補を抽出することとなり、視差演算の精度低下の原因となりうる。 For this reason, if an attempt is made to uniformly calculate parallax for all pixels in the captured image regardless of the distance to the object, incorrect parallax candidates will be extracted during parallax search, resulting in reduced accuracy of parallax calculation. can be the cause.

本発明は上記課題に鑑みてなされたものであり、誤った視差候補の抽出を回避し、視差演算の精度向上を図ることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to avoid extraction of erroneous parallax candidates and improve the accuracy of parallax calculation.

本発明の実施形態に係る情報処理装置は、以下のような構成を有する。すなわち、
複数の撮像部により撮影された撮影画像に基づいて視差演算を行う情報処理装置であって、
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得手段と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定手段と、
前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得手段により取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定手段とを有する。
An information processing apparatus according to an embodiment of the present invention has the following configuration. i.e.
An information processing device that performs parallax calculation based on captured images captured by a plurality of imaging units,
acquisition means for acquiring distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. Determination means for determining whether or not
if the determining means does not determine that the pixel is a pixel of the object image other than the pixel corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When the determination means determines that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, the distance to the object acquired by the acquisition means and the distance to the object acquired by the acquisition means and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. setting means for setting a start point and an end point of the parallax search range as fixed values shorter than the distance between the objects .

本発明の各実施形態によれば、誤った視差候補の抽出を回避し、視差演算の精度向上を図ることが可能となる。 According to each embodiment of the present invention, it is possible to avoid extraction of erroneous parallax candidates and improve the accuracy of parallax calculation.

実施形態に係る視差演算システムの全体構成を示す図である。1 is a diagram showing the overall configuration of a parallax calculation system according to an embodiment; FIG. 視差演算システムを車載用に適用した場合のレーザレーダ測距部及び撮像部の配置例を示す図である。FIG. 10 is a diagram showing an arrangement example of a laser radar ranging unit and an imaging unit when the parallax calculation system is applied to a vehicle; 視差演算システムを構成する情報処理装置のハードウェア構成を示す図である。FIG. 3 is a diagram showing a hardware configuration of an information processing device that configures the parallax calculation system; 視差画像生成部の機能構成を示す図である。FIG. 3 is a diagram showing a functional configuration of a parallax image generation unit; 撮像部から離れた位置に存在するオブジェクトを撮影することで得られた撮影画像に含まれるオブジェクト画像における所定の画素の視差を示す図である。FIG. 10 is a diagram showing parallax of predetermined pixels in an object image included in a captured image obtained by capturing an object existing at a position away from the imaging unit; 撮像部に近い位置に存在するオブジェクトを撮影することで得られた撮影画像に含まれるオブジェクト画像における所定の画素の視差を示す図である。FIG. 10 is a diagram showing parallax of predetermined pixels in an object image included in a captured image obtained by capturing an object existing at a position close to an imaging unit; 視差探索範囲の設定例を示す図である。FIG. 10 is a diagram showing a setting example of a parallax search range; 撮像部からオブジェクトまでの距離と視差探索範囲の幅との関係を示す図である。FIG. 5 is a diagram showing the relationship between the distance from the imaging unit to the object and the width of the parallax search range; 視差演算システムにおける視差演算処理の流れを示すフローチャートである。4 is a flowchart showing the flow of parallax calculation processing in the parallax calculation system; 第1の実施形態に係る情報処理装置によるステレオ画像処理の流れを示すフローチャートである。4 is a flow chart showing the flow of stereo image processing by the information processing apparatus according to the first embodiment; 各シフト位置における類似度と視差探索範囲との関係を示す図である。FIG. 10 is a diagram showing the relationship between the degree of similarity and the parallax search range at each shift position; 第2の実施形態に係る情報処理装置によるステレオ画像処理の流れを示すフローチャートである。9 is a flow chart showing the flow of stereo image processing by the information processing apparatus according to the second embodiment; 視差探索範囲の他の設定例を示す図である。FIG. 10 is a diagram showing another setting example of the parallax search range; 視差演算システムをFA用に適用した場合のレーザレーダ測距部及び撮像部の配置例を示す図である。It is a figure which shows the example of arrangement|positioning of the laser radar range-finding part at the time of applying a parallax calculation system for FA, and an imaging part. 撮影画像に含まれるオブジェクト画像の所定の画素の視差を示す図である。FIG. 4 is a diagram showing parallax of predetermined pixels of an object image included in a captured image; 視差探索範囲の設定例を示す図である。FIG. 10 is a diagram showing a setting example of a parallax search range; 各シフト位置における類似度と視差探索範囲との関係を示す図である。FIG. 10 is a diagram showing the relationship between the degree of similarity and the parallax search range at each shift position;

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。 Embodiments of the present invention will be described below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

[第1の実施形態]
<1.視差演算システムの全体構成>
はじめに、本実施形態に係る視差演算システムの全体構成について説明する。図1は、本実施形態に係る視差演算システム100の全体構成を示す図である。図1に示すように、視差演算システム100は、レーザレーダ測距部110と、ステレオ撮像部120と、情報処理装置130とを備える。
[First Embodiment]
<1. Overall Configuration of Parallax Calculation System>
First, the overall configuration of the parallax calculation system according to this embodiment will be described. FIG. 1 is a diagram showing the overall configuration of a parallax calculation system 100 according to this embodiment. As shown in FIG. 1 , the parallax calculation system 100 includes a laser radar ranging unit 110 , a stereo imaging unit 120 and an information processing device 130 .

レーザレーダ測距部110は、レーザ光を投受光することで生成されたレーザ受光信号に基づいてオブジェクトを検出し、当該レーザ光が照射されたオブジェクトまでの距離を算出することで、距離情報を情報処理装置130に送信する。 The laser radar ranging unit 110 detects an object based on a laser light reception signal generated by projecting and receiving a laser beam, and calculates the distance to the object irradiated with the laser beam, thereby obtaining distance information. It transmits to the information processing device 130 .

ステレオ撮像部120は、単眼の撮像部121と単眼の撮像部122とを備える。撮像部121、122は、それぞれが所定のフレーム周期で撮影を行うことで、撮影画像を情報処理装置130に送信する。 The stereo imaging unit 120 includes a monocular imaging unit 121 and a monocular imaging unit 122 . The image capturing units 121 and 122 transmit captured images to the information processing device 130 by capturing images at predetermined frame intervals.

情報処理装置130は、ステレオ撮像部120より送信された撮影画像について視差演算を行い、視差画像を生成する。なお、情報処理装置130では、視差演算を行うにあたり、レーザレーダ測距部110より送信される距離情報に応じた視差演算を行う(詳細は後述)。 The information processing device 130 performs parallax calculation on the captured images transmitted from the stereo imaging unit 120 to generate parallax images. Note that the information processing device 130 performs parallax calculation according to distance information transmitted from the laser radar distance measuring unit 110 when performing the parallax calculation (details will be described later).

<2.視差演算システムを構成するレーザレーダ測距部及び撮像部の配置>
次に、視差演算システム100を車載用に適用した場合のレーザレーダ測距部110及び撮像部121、122の配置例について説明する。図2は、視差演算システム100を車載用に適用した場合のレーザレーダ測距部110及び撮像部121、122の配置例を示す図である。
<2. Arrangement of Laser Radar Ranging Unit and Imaging Unit Constituting Parallax Calculation System>
Next, an arrangement example of the laser radar ranging unit 110 and the imaging units 121 and 122 when the parallax calculation system 100 is applied to a vehicle will be described. FIG. 2 is a diagram showing an arrangement example of the laser radar ranging unit 110 and imaging units 121 and 122 when the parallax calculation system 100 is applied to a vehicle.

図2に示すように、レーザレーダ測距部110及び撮像部121、122は、車両200内の天井部分のフロントガラス近傍であって、車両200の幅方向の中央位置に取り付けられる。 As shown in FIG. 2 , the laser radar distance measuring unit 110 and the imaging units 121 and 122 are mounted near the front windshield of the ceiling portion of the vehicle 200 and at the central position of the vehicle 200 in the width direction.

かかる取り付け位置のもとで、レーザレーダ測距部110は、車両200の進行方向前方に向けてレーザ光を出射する。また、撮像部121、122は、車両200の進行方向前方を撮影する。なお、視差演算システム100においてレーザレーダ測距部110のレーザ光の出射方向と、撮像部121の光軸ならびに撮像部122の光軸は、互いに平行となるように調整されているものとする。 At this mounting position, laser radar ranging unit 110 emits a laser beam forward in the traveling direction of vehicle 200 . In addition, the imaging units 121 and 122 capture images of the forward direction of the vehicle 200 . In the parallax calculation system 100, the laser beam emission direction of the laser radar ranging unit 110, the optical axis of the imaging unit 121, and the optical axis of the imaging unit 122 are adjusted to be parallel to each other.

<3.情報処理装置の構成>
次に、情報処理装置130のハードウェア構成について説明する。上述したように、情報処理装置130は、ステレオ撮像部120より送信された撮影画像について視差演算を行い、視差画像を生成する。そして、情報処理装置130が生成した視差画像は、例えば、撮影画像内においてオブジェクト画像として描画された各オブジェクトまでの距離を算出するために用いられる。
<3. Configuration of Information Processing Device>
Next, the hardware configuration of the information processing device 130 will be described. As described above, the information processing device 130 performs parallax calculation on the captured images transmitted from the stereo imaging unit 120 to generate parallax images. The parallax image generated by the information processing device 130 is used, for example, to calculate the distance to each object drawn as an object image in the captured image.

そこで、以下では、情報処理装置130のハードウェア構成を説明するにあたり、はじめに、情報処理装置130により生成された視差画像を用いて、各オブジェクトまでの距離を算出する測距技術(ステレオ測距技術)の概要について簡単に説明する。 Therefore, hereinafter, in describing the hardware configuration of the information processing apparatus 130, first, a distance measurement technique (stereo distance measurement technique) for calculating the distance to each object using the parallax image generated by the information processing apparatus 130 is described. ) is briefly explained.

<3.1 ステレオ測距技術の概要>
一般的に、ステレオ測距技術では、左右に配置された2台の単眼の撮像部より送信される1対の撮影画像について相関(類似度)を求めることで同一点を抽出し、抽出した同一点に対する視差を演算することで、三角測量の要領で当該同一点までの距離を算出する。
<3.1 Overview of Stereo Ranging Technology>
Generally, in stereo ranging technology, the correlation (similarity) is obtained for a pair of captured images transmitted from two monocular imaging units arranged on the left and right to extract the same points, and the extracted same points are extracted. By calculating the parallax for one point, the distance to the same point is calculated in the manner of triangulation.

具体的には、2台の単眼の撮像部より送信される1対の撮影画像から、同一のオブジェクトが描画されている部分を抽出する。2台の単眼の撮像部が左右に設置されている場合、1対の撮影画像間において、同一のオブジェクトが描画されている位置は左右にずれる。そこで、一方の撮影画像を他方の撮影画像に対して左右方向に、所定の範囲(視差探索範囲)をシフト範囲として1画素ずつシフトさせていき、最も重なり合う位置(類似度が最も高い位置)を求めることで、1対の撮影画像間で当該同一のオブジェクト内の同一点を抽出する。そして、抽出した同一点間のシフト量(視差)を演算し、2台の単眼の撮像部の光軸間の距離を用いて、当該同一点までの距離を算出する。 Specifically, portions in which the same object is drawn are extracted from a pair of photographed images transmitted from two monocular imaging units. When two monocular imaging units are installed on the left and right, the position where the same object is drawn shifts left and right between a pair of captured images. Therefore, one captured image is shifted in the left-right direction with respect to the other captured image by one pixel with a predetermined range (parallax search range) as a shift range. By obtaining, the same point in the same object is extracted between a pair of captured images. Then, the shift amount (parallax) between the extracted same points is calculated, and the distance to the same point is calculated using the distance between the optical axes of the two monocular imaging units.

なお、このときシフトさせた画素数をn、単眼の撮像部のカメラレンズの焦点距離をf、基線長(単眼の撮像部の光軸間距離)をB、画素ピッチをdとすると、同一のオブジェクト内の同一点までの距離Zは、下式により算出することができる。 At this time, if the number of pixels shifted at this time is n, the focal length of the camera lens of the monocular imaging unit is f, the base line length (the distance between the optical axes of the monocular imaging unit) is B, and the pixel pitch is d, the same The distance Z to the same point in the object can be calculated by the following formula.

Figure 0007243671000001
なお、式1の分母(n×d)が視差である。
Figure 0007243671000001
Note that the denominator (n×d) of Equation 1 is parallax.

<3.2 ステレオ測距技術を実現するための視差演算を行う情報処理装置の構成>
次に、上記ステレオ測距技術を実現するための視差演算を行う情報処理装置の構成について説明する。図3は、上記ステレオ測距技術を実現するための視差演算を行う情報処理装置130の構成を示す図である。
<3.2 Configuration of Information Processing Device Performing Parallax Calculation for Realizing Stereo Ranging Technology>
Next, the configuration of an information processing apparatus that performs parallax calculation for realizing the above-described stereo ranging technique will be described. FIG. 3 is a diagram showing the configuration of the information processing device 130 that performs parallax calculation for realizing the stereo ranging technique.

図3に示すように、情報処理装置130は、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、記憶装置303、入出力部304を備える。なお、情報処理装置130の各部は、バス305を介して相互に接続されているものとする。 As shown in FIG. 3 , the information processing device 130 includes a CPU (Central Processing Unit) 301 , a RAM (Random Access Memory) 302 , a storage device 303 and an input/output unit 304 . It is assumed that each unit of the information processing device 130 is connected to each other via the bus 305 .

CPU301は、記憶装置303に格納されたプログラム(視差画像生成部310として機能するためのプログラム)を実行するコンピュータである。CPU301が当該プログラムを実行することにより、情報処理装置130では、ステレオ撮像部120より送信された撮影画像について視差演算を行い、視差画像を生成する。 The CPU 301 is a computer that executes a program stored in the storage device 303 (a program for functioning as the parallax image generation unit 310). By the CPU 301 executing the program, the information processing device 130 performs parallax calculation on the photographed images transmitted from the stereo imaging unit 120 to generate parallax images.

RAM302は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の主記憶装置である。RAM302は、記憶装置303に格納されたプログラムがCPU301によって実行される際に展開される、作業領域として機能する。 A RAM 302 is a main storage device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory). The RAM 302 functions as a work area that is expanded when the programs stored in the storage device 303 are executed by the CPU 301 .

記憶装置303は、EPROMやEEPROM等のメモリであり、CPU301を、視差画像生成部310として機能させるためのプログラムを格納する。 The storage device 303 is a memory such as EPROM or EEPROM, and stores a program for causing the CPU 301 to function as the parallax image generation unit 310 .

入出力部304は、レーザレーダ測距部110やステレオ撮像部120(撮像部121、122)と通信するためのインタフェース部である。 The input/output unit 304 is an interface unit for communicating with the laser radar ranging unit 110 and the stereo imaging unit 120 (imaging units 121 and 122).

<4.視差画像生成部の機能構成>
次に、視差画像生成部310の機能構成について説明する。図4は、視差画像生成部310の機能構成を示す図である。
<4. Functional Configuration of Parallax Image Generation Unit>
Next, the functional configuration of the parallax image generator 310 will be described. FIG. 4 is a diagram showing the functional configuration of the parallax image generator 310. As shown in FIG.

図4に示すように、視差画像生成部310は、距離情報取得部401、視差探索範囲選択部402、撮影画像取得部411、撮影画像補正部412、視差演算部420を備える。 As shown in FIG. 4 , the parallax image generation unit 310 includes a distance information acquisition unit 401 , a parallax search range selection unit 402 , a captured image acquisition unit 411 , a captured image correction unit 412 and a parallax calculation unit 420 .

距離情報取得部401は、撮像部121、122が1フレーム分の撮影画像を撮影する間にレーザ光が投受光されることでレーザレーダ測距部110により検出されたオブジェクトまでの距離を示す距離情報をレーザレーダ測距部110より取得する。 A distance information acquiring unit 401 obtains a distance to an object detected by the laser radar distance measuring unit 110 by projecting and receiving laser light while the image capturing units 121 and 122 capture one frame of captured images. Information is acquired from the laser radar ranging unit 110 .

視差探索範囲選択部402は、撮像部121、122により撮影された撮影画像について視差演算を行う際に設定される視差探索範囲であって、互いに幅の異なる複数の視差探索範囲の中から、取得された距離情報に応じた視差探索範囲を選択する。また、選択した視差探索範囲を、視差演算部420に設定する。 A parallax search range selection unit 402 selects a parallax search range from among a plurality of parallax search ranges having different widths, which are set when performing parallax calculation on images captured by the imaging units 121 and 122. A parallax search range is selected according to the received distance information. Also, the selected parallax search range is set in the parallax calculation unit 420 .

撮影画像取得部411は、撮像部121、122により撮影された撮影画像(ステレオ画像)を、所定のフレーム周期で取得する。撮影画像補正部412は、撮影画像取得部411により取得された撮影画像に対して、ガンマ補正や歪み補正等の各種補正処理を実行する。 The captured image acquisition unit 411 acquires captured images (stereo images) captured by the imaging units 121 and 122 at predetermined frame intervals. The captured image correction unit 412 performs various correction processes such as gamma correction and distortion correction on the captured image acquired by the captured image acquisition unit 411 .

視差演算部420は、撮影画像補正部412において各種補正処理が実行された撮影画像について視差演算を行い、視差画像を生成する。なお、視差演算に際しては、視差探索範囲選択部402により設定された視差探索範囲について視差探索を行う。 The parallax calculation unit 420 performs parallax calculation on the captured image on which various types of correction processing have been performed by the captured image correction unit 412, and generates a parallax image. It should be noted that, upon parallax calculation, parallax search is performed for the parallax search range set by the parallax search range selection unit 402 .

<5.オブジェクトまでの距離と視差との関係>
次に、撮影画像内においてオブジェクト画像として描画されたオブジェクトまでの距離と、該オブジェクト画像を構成する所定の画素の撮影画像間における視差との関係について説明する。
<5. Relationship between distance to object and parallax>
Next, the relationship between the distance to an object drawn as an object image in a photographed image and the parallax between the photographed images of predetermined pixels constituting the object image will be described.

図5は、撮像部121、122から離れた位置に存在するオブジェクトを撮影することで得られた撮影画像に含まれるオブジェクト画像の所定の画素の視差を示す図である。図5において、撮影画像510は、撮像部121による撮影により得られた撮影画像(参照画像)であり、撮影画像520は、撮像部122による撮影により得られた撮影画像(基準画像)である。 FIG. 5 is a diagram showing parallax of predetermined pixels of an object image included in a photographed image obtained by photographing an object existing at a position away from the imaging units 121 and 122. As shown in FIG. In FIG. 5 , a captured image 510 is a captured image (reference image) captured by the imaging unit 121 , and a captured image 520 is a captured image (reference image) captured by the imaging unit 122 .

図2で示したように、撮像部121と撮像部122とは、互いに左右に設置されているため、図5に示すように、同一のオブジェクト画像(図5の例では前方車両画像530)を構成する同一点(前方車両画像530のナンバープレート部分)の画素は左右方向にd1だけずれる。つまり、視差d1を有する。 As shown in FIG. 2, the imaging unit 121 and the imaging unit 122 are installed on the left and right sides of each other. Therefore, as shown in FIG. Pixels of the same point (the license plate portion of the forward vehicle image 530) are shifted by d1 in the horizontal direction. That is, it has parallax d1.

一方、図6は、撮像部121、122に近い位置に存在するオブジェクトを撮影することで得られた撮影画像に含まれるオブジェクト画像の所定の画素の視差を示す図である。図6において、撮影画像610は、撮像部121による撮影により得られた撮影画像(参照画像)であり、撮影画像620は、撮像部122による撮影により得られた撮影画像(基準画像)である。 On the other hand, FIG. 6 is a diagram showing parallax of predetermined pixels of an object image included in a captured image obtained by capturing an object existing at a position close to the imaging units 121 and 122 . In FIG. 6 , a captured image 610 is a captured image (reference image) captured by the imaging unit 121 , and a captured image 620 is a captured image (reference image) captured by the imaging unit 122 .

図5と同様に、図6においても、同一のオブジェクト画像(図6の例では前方車両画像630)を構成する同一点(前方車両画像630のナンバープレート部分)の画素は左右方向にd2だけずれる。つまり、視差d2を有する。 Similarly to FIG. 5, in FIG. 6 as well, the pixels of the same point (the license plate portion of the forward vehicle image 630) that constitute the same object image (the forward vehicle image 630 in the example of FIG. 6) are shifted in the horizontal direction by d2. . That is, it has parallax d2.

ここで、撮影画像610、620において前方車両画像630として描画されている前方車両は、撮影画像510、520において前方車両画像530として描画されている前方車両よりも、撮像部121、122に近い位置に存在している。このため、視差d1<視差d2の関係が成り立つ。 Here, the forward vehicle depicted as the forward vehicle image 630 in the captured images 610 and 620 is closer to the imaging units 121 and 122 than the forward vehicle depicted as the forward vehicle image 530 in the captured images 510 and 520. exists in Therefore, the relationship of parallax d1<parallax d2 is established.

このように、撮影画像内においてオブジェクト画像として描画されているオブジェクトは、撮像部121、122に近い位置にあるほど、視差が大きくなり、撮像部121、122から離れた位置にあるほど、視差が小さくなる。 In this way, an object drawn as an object image in a captured image has greater parallax as it is closer to the imaging units 121 and 122, and has greater parallax as it is further away from the imaging units 121 and 122. become smaller.

<6.視差探索範囲の一例>
このように、撮影画像に含まれるオブジェクト画像を構成する各画素の視差は、当該オブジェクト画像として撮影画像内に描画されたオブジェクトの、撮像部121、122からの距離に応じて変化する。
<6. Example of Parallax Search Range>
In this way, the parallax of each pixel forming the object image included in the captured image changes according to the distance from the imaging units 121 and 122 to the object drawn in the captured image as the object image.

このため、視差演算部420において、撮影画像510、520及び撮影画像610、620について、それぞれ前方車両画像530、630を構成する所定の画素の視差探索を行うにあたっては、互いに幅の異なる視差探索範囲を設定することが望ましい。適切な幅を有する視差探索範囲を設定することで、視差探索において撮影画像間の同一点を抽出するにあたり、誤った視差候補を同一点として抽出してしまうといった事態を回避することが可能となるからである。 Therefore, in the parallax calculation unit 420, when performing a parallax search for predetermined pixels forming the forward vehicle images 530 and 630, respectively, for the captured images 510 and 520 and the captured images 610 and 620, parallax search ranges having different widths are required. should be set. By setting a parallax search range having an appropriate width, it is possible to avoid a situation in which an erroneous parallax candidate is extracted as the same point when extracting the same point between captured images in the parallax search. It is from.

図7は、図5に示す撮影画像510、520について視差探索を行う場合に設定される視差探索範囲と、図6に示す撮影画像610、620について視差探索を行う場合に設定される視差探索範囲とを示した図である。 FIG. 7 shows a parallax search range set when performing a parallax search on the captured images 510 and 520 shown in FIG. 5 and a parallax search range set when performing a parallax search on the captured images 610 and 620 shown in FIG. and is a diagram showing.

図7において、横軸は同一点を抽出するための撮影画像間のシフト量を示している。ここで、シフト量=d1により特定されるシフト位置は、撮影画像510をシフトさせた場合に、撮影画像510と撮影画像520の同一点(前方車両画像530のナンバープレート部分)が当該位置で重なり合うことを示している。また、シフト量=d2により特定されるシフト位置は、撮影画像610をシフトさせた場合に、撮影画像610と撮影画像620の同一点(前方車両画像630のナンバープレート部分)が当該位置で重なり合うことを示している。 In FIG. 7, the horizontal axis indicates the amount of shift between captured images for extracting the same point. Here, the shift position specified by the shift amount=d1 is such that when the photographed image 510 is shifted, the same point (the license plate portion of the front vehicle image 530) of the photographed image 510 and the photographed image 520 overlaps at that position. It is shown that. Further, the shift position specified by the shift amount=d2 is such that when the photographed image 610 is shifted, the same point of the photographed image 610 and the photographed image 620 (the license plate portion of the front vehicle image 630) overlaps at that position. is shown.

このため、撮影画像510、520間において、同一点(前方車両画像530のナンバープレート部分)を抽出するためには、例えば、シフトの開始点をDa、終了点をDb1とする幅W1の視差探索範囲を視差演算部420に設定することが望ましい。これにより、視差d1を確実に抽出することができるからである。 Therefore, in order to extract the same point (the license plate portion of the forward vehicle image 530) between the captured images 510 and 520, for example, a parallax search with a width of W1, where the shift start point is Da and the shift end point is Db1. It is desirable to set the range in the parallax calculator 420 . This is because the parallax d1 can be reliably extracted.

一方、撮影画像610、620間において、同一点(前方車両画像630のナンバープレートの部分)を抽出するためには、例えば、開始点をDa、終了点をDb2とする幅W2(ただしW1<W2)の視差探索範囲を視差演算部420に設定することが望ましい。これにより、視差d2を確実に抽出することができるからである。 On the other hand, in order to extract the same point (the license plate portion of the forward vehicle image 630) between the captured images 610 and 620, for example, a width W2 (where W1<W2 ) is preferably set in the parallax calculation unit 420 . This is because the parallax d2 can be reliably extracted.

<7.視差探索範囲選択部の機能>
次に、視差演算部420に設定される視差探索範囲を選択する視差探索範囲選択部402の機能について説明する。
<7. Functions of Parallax Search Range Selection Section>
Next, the function of the parallax search range selection unit 402 that selects the parallax search range set in the parallax calculation unit 420 will be described.

図8は、視差探索範囲を選択する視差探索範囲選択部402の機能を説明するための図であり、撮像部121、122からオブジェクトまでの距離と視差探索範囲選択部402により選択される視差探索範囲の幅との関係を示している。 FIG. 8 is a diagram for explaining the function of the parallax search range selection unit 402 that selects the parallax search range. It shows the relationship with the width of the range.

上記式1で示したように、オブジェクトまでの距離Zと視差(n×d)とは反比例の関係にあることから、視差探索に際しての視差探索範囲の幅も、図8に示すように、オブジェクトまでの距離と反比例の関係になる。 As shown in Equation 1 above, the distance Z to the object and the parallax (n×d) are in an inversely proportional relationship. It is inversely proportional to the distance to

図8によれば、距離情報取得部401により取得される距離情報がL1の場合、視差探索範囲選択部402により選択される視差探索範囲の幅はW1となる。また、距離情報取得部401により取得される距離情報がL2の場合、視差探索範囲選択部402により選択される視差探索範囲の幅はW2となる。更に、距離情報取得部401により取得される距離情報がL0の場合、視差探索範囲選択部402により選択される視差探索範囲の幅はW0となる。 According to FIG. 8, when the distance information acquired by the distance information acquisition unit 401 is L1, the width of the parallax search range selected by the parallax search range selection unit 402 is W1. Also, when the distance information acquired by the distance information acquisition unit 401 is L2, the width of the parallax search range selected by the parallax search range selection unit 402 is W2. Furthermore, when the distance information acquired by the distance information acquisition unit 401 is L0, the width of the parallax search range selected by the parallax search range selection unit 402 is W0.

なお、本実施形態における視差探索範囲選択部402では、距離情報取得部401において取得された距離情報が所定の条件を満たしたタイミングで、視差探索範囲の選択が行われる。 Note that the parallax search range selection unit 402 in this embodiment selects the parallax search range at the timing when the distance information acquired by the distance information acquisition unit 401 satisfies a predetermined condition.

具体的には、レーザ光が照射されるオブジェクトまでの距離として基準距離を予め規定しておき、更に、基準距離に対応する視差探索範囲として基準視差探索範囲を予め規定しておく。そして、視差探索範囲選択部402では、距離情報取得部401において取得された距離情報が、当該基準距離と異なっているか否かを判定し、異なっていると判定したタイミングで、基準視差探索範囲以外の視差探索範囲を選択する。 Specifically, a reference distance is defined in advance as a distance to an object irradiated with laser light, and a reference parallax search range is defined in advance as a parallax search range corresponding to the reference distance. Then, the parallax search range selection unit 402 determines whether or not the distance information acquired by the distance information acquisition unit 401 is different from the reference distance. Select the parallax search range of .

図8の例では、基準距離をL0としており、距離情報取得部401において取得された距離情報が、基準距離L0に略等しい間は、視差演算部420には、基準視差探索範囲である、幅W0の視差探索範囲が設定される。 In the example of FIG. 8, the reference distance is L0, and while the distance information acquired by the distance information acquisition unit 401 is approximately equal to the reference distance L0, the parallax calculation unit 420 displays the width A parallax search range of W0 is set.

一方、距離情報取得部401において取得された距離情報が、基準距離L0よりも短い場合には、視差探索範囲選択部402では、基準視差探索範囲(幅W0)よりも広い視差探索範囲として、幅W2の視差探索範囲を選択する。 On the other hand, when the distance information acquired by the distance information acquisition unit 401 is shorter than the reference distance L0, the parallax search range selection unit 402 selects a width Select the parallax search range of W2.

また、距離情報取得部401において取得された距離情報が、基準距離L0よりも長い場合には、視差探索範囲選択部402では、基準視差探索範囲(幅=W0)よりも狭い視差探索範囲として、幅=W1の視差探索範囲を選択する。 Further, when the distance information acquired by the distance information acquisition unit 401 is longer than the reference distance L0, the parallax search range selection unit 402 selects a parallax search range narrower than the reference parallax search range (width=W0), Select a parallax search range of width=W1.

このように、本実施形態における視差探索範囲選択部402は、基準距離L0との対比に基づいて動作し、対比結果に応じた幅を有する視差探索範囲を選択するよう構成されている。 Thus, the parallax search range selection unit 402 in this embodiment is configured to operate based on comparison with the reference distance L0 and select a parallax search range having a width corresponding to the comparison result.

<8.視差演算システムにおける視差演算処理の流れ>
次に、視差演算システム100における視差演算処理の流れについて説明する。図9は、視差演算システム100における視差演算処理の流れを示すフローチャートである。
<8. Flow of Parallax Calculation Processing in Parallax Calculation System>
Next, the flow of parallax calculation processing in the parallax calculation system 100 will be described. FIG. 9 is a flow chart showing the flow of parallax calculation processing in the parallax calculation system 100 .

視差演算システム100による視差演算処理が開始されると、ステップS901では、情報処理装置130からの指示に基づいて、撮像部121、122が互いに同期して撮影を行う撮影処理を実行する。更に、ステップS902では、レーザレーダ測距部110がレーザ測距処理を実行する。 When the parallax calculation process by the parallax calculation system 100 is started, in step S901, based on an instruction from the information processing device 130, the image pickup units 121 and 122 perform photographing processing in synchronization with each other. Furthermore, in step S902, the laser radar ranging unit 110 executes laser ranging processing.

なお、ステップS901における撮影処理と、ステップS902におけるレーザ測距処理とは、並行して実行される。すなわち、撮像部121、122が1フレーム分の撮影画像の撮影を行う間に、レーザレーダ測距部110では、パルス状のレーザ光の投受光を行う。 Note that the imaging process in step S901 and the laser ranging process in step S902 are executed in parallel. In other words, while the imaging units 121 and 122 are capturing the captured image for one frame, the laser radar distance measuring unit 110 projects and receives pulsed laser light.

ステップS903では、情報処理装置130が1フレーム分の撮影画像に基づいて視差演算を行い、視差画像を生成するステレオ画像処理を実行する。このとき、情報処理装置130では、当該フレームの撮影処理と並行して実行されたレーザ測距処理において算出された距離情報に基づいて、視差探索範囲を選択する。 In step S903, the information processing apparatus 130 performs parallax calculation based on the captured image for one frame, and executes stereo image processing to generate a parallax image. At this time, the information processing device 130 selects the parallax search range based on the distance information calculated in the laser ranging process executed in parallel with the shooting process of the frame.

ステップS904では、視差演算処理の終了指示が入力されたか否かを判定し、入力されていないと判定された場合には、ステップS901及びステップS902に戻る。そして、次のフレームについて撮影処理を実行するとともに、次のパルス状のレーザ光の投受光を行うことで、レーザ測距処理を実行する。 In step S904, it is determined whether or not an instruction to end the parallax calculation process has been input, and if it is determined that the instruction has not been input, the process returns to steps S901 and S902. Then, the imaging process is executed for the next frame, and the laser ranging process is executed by projecting and receiving the next pulsed laser beam.

以降、視差演算処理の終了指示が入力されるまで、フレーム単位で撮影処理を実行し、各フレームごとにレーザ測距処理を実行しながら、フレーム単位でステレオ画像処理を実行していく。 After that, until an instruction to end the parallax calculation process is input, the imaging process is executed in units of frames, and the stereo image processing is executed in units of frames while executing the laser ranging process for each frame.

一方、ステップS904において、視差演算処理の終了指示が入力されたと判定された場合には、処理を終了する。 On the other hand, if it is determined in step S904 that an instruction to end the parallax calculation process has been input, the process ends.

<9.情報処理装置によるステレオ画像処理>
次に、情報処理装置130によるステレオ画像処理(ステップS903)の詳細な流れについて図10及び図11を参照しながら説明する。図10は、情報処理装置130によるステレオ画像処理(ステップS903)の詳細な流れを示すフローチャートである。また、図11は、撮影画像間の各画素について同一点を抽出するために算出した、各シフト位置における類似度と、視差探索範囲との関係を示す図である。なお、図11に示す縦軸は、類似度が高いほど小さい値となり、類似度が低いほど大きい値になるように規格化されているものとする。
<9. Stereo image processing by information processing device>
Next, a detailed flow of stereo image processing (step S903) by the information processing device 130 will be described with reference to FIGS. 10 and 11. FIG. FIG. 10 is a flowchart showing a detailed flow of stereo image processing (step S903) by the information processing device 130. As shown in FIG. FIG. 11 is a diagram showing the relationship between the degree of similarity at each shift position calculated for extracting the same point for each pixel between the captured images and the parallax search range. It should be noted that the vertical axis shown in FIG. 11 is normalized so that the higher the degree of similarity, the smaller the value, and the lower the degree of similarity, the larger the value.

図10において、ステップS1001では、撮影画像取得部411が、撮影された1フレーム分の撮影画像を、撮像部121、122それぞれより取得する。 In FIG. 10, in step S1001, the captured image acquisition unit 411 acquires captured images for one frame from the imaging units 121 and 122, respectively.

ステップS1002では、ステップS1001において取得された1フレーム分の撮影画像(1対の撮影画像(参照画像と基準画像))について、撮影画像補正部412が、ガンマ補正や歪み補正等の補正処理を行う。 In step S1002, the captured image correction unit 412 performs correction processing such as gamma correction and distortion correction on the captured image for one frame (a pair of captured images (reference image and standard image)) acquired in step S1001. .

ステップS1003では、視差演算部420が、参照画像に含まれる画素のうち、視差演算を行う対象となる注目画素Pnを設定する。 In step S1003, the parallax calculation unit 420 sets a pixel of interest Pn to be subjected to parallax calculation among the pixels included in the reference image.

ステップS1004では、ステップS1003において設定された注目画素Pnが、レーザ光が照射された照射範囲に対応する参照画像内の画素(照射範囲画素と称す)近傍の画素であるか否かを、視差演算部420が判定する。 In step S1004, a parallax calculation is performed to determine whether or not the target pixel Pn set in step S1003 is a pixel in the vicinity of a pixel in the reference image (referred to as an irradiation range pixel) corresponding to the irradiation range irradiated with the laser beam. Unit 420 determines.

ここで、照射範囲画素近傍の画素とは、レーザ光が照射されたオブジェクトが描画されている参照画像内のオブジェクト画像を構成している画素のうち、照射範囲画素以外の画素を指す。 Here, the pixels near the irradiation range pixels refer to pixels other than the irradiation range pixels, among the pixels forming the object image in the reference image in which the object irradiated with the laser light is drawn.

なお、参照画像内における照射範囲画素の座標は予め設定されているものとし、ステップS1004では、ステップS1003において設定された注目画素Pnが、当該設定されている画素近傍の所定の範囲内の画素であるか否かを、当該座標に基づいて判定する。 Note that the coordinates of the irradiation range pixels in the reference image are set in advance, and in step S1004, the target pixel Pn set in step S1003 is a pixel within a predetermined range near the set pixel. Whether or not there is is determined based on the coordinates.

注目画素Pnが、照射範囲画素近傍の画素であると判定された場合には、ステップS1005に進む。 If the pixel of interest Pn is determined to be a pixel in the vicinity of the irradiation range pixel, the process advances to step S1005.

ステップS1005では、距離情報取得部401が、距離情報を取得する。ステップS1006では、視差探索範囲選択部402が、ステップS1006において取得された距離情報が、基準距離L0に略等しいか否かを判定する。ステップS1006において、基準距離L0に略等しいと判定した場合には、視差演算部420における基準視差探索範囲(幅W0)の設定を維持する。 In step S1005, the distance information acquisition unit 401 acquires distance information. In step S1006, the parallax search range selection unit 402 determines whether the distance information acquired in step S1006 is substantially equal to the reference distance L0. If it is determined in step S1006 that the distance is substantially equal to the reference distance L0, the setting of the reference parallax search range (width W0) in the parallax calculator 420 is maintained.

一方、ステップS1006において、基準距離L0とは異なると判定した場合には、ステップS1007に進む。ステップS1007では、視差探索範囲選択部402が、ステップS1005において取得された距離情報が、基準距離L0よりも短いか否かを判定する。 On the other hand, if it is determined in step S1006 that the distance is different from the reference distance L0, the process proceeds to step S1007. In step S1007, the parallax search range selection unit 402 determines whether the distance information acquired in step S1005 is shorter than the reference distance L0.

ステップS1007において、基準距離L0よりも短いと判定した場合には、ステップS1008に進み、視差探索範囲として、幅W2の視差探索範囲を選択し、視差演算部420に設定する。 If it is determined in step S1007 that the distance is shorter than the reference distance L0, the process advances to step S1008 to select a parallax search range with a width W2 and set it in the parallax calculation unit 420 as the parallax search range.

一方、ステップS1007において、基準距離L0よりも長いと判定した場合には、ステップS1009に進み、視差探索範囲として、幅W1の視差探索範囲を選択し、視差演算部420に設定する。 On the other hand, if it is determined in step S1007 that the distance is longer than the reference distance L0, the process advances to step S1009 to select a parallax search range with a width W1 as the parallax search range and set it in the parallax calculation unit 420. FIG.

ここで、ステップS1008またはS1009において視差探索範囲を変更することによる効果について、図11を参照しながら説明する。従来は、オブジェクトまでの距離とは無関係に視差探索範囲を固定していた(図11(b)の視差探索範囲1110参照)。このため、図11(b)に示すように、複数の極小点が存在していた(複数の視差候補が存在していた)場合、抽出されるべき視差候補(図11(b)の視差候補1)とは異なる視差候補(図11(b)の視差候補2)が抽出される可能性があった。 Here, the effect of changing the parallax search range in step S1008 or S1009 will be described with reference to FIG. Conventionally, the parallax search range is fixed regardless of the distance to the object (see parallax search range 1110 in FIG. 11B). Therefore, as shown in FIG. 11(b), when a plurality of local minimum points exist (a plurality of parallax candidates exist), the parallax candidate to be extracted (the parallax candidate in FIG. 11(b) There is a possibility that a parallax candidate (parallax candidate 2 in FIG. 11B) different from 1) is extracted.

これに対して、本実施形態では、視差探索範囲選択部402が、距離情報に基づく対比結果に応じた幅を有する視差探索範囲を設定する(図11(a)の視差探索範囲1100参照)。このため抽出されるべき視差候補(図11(a)の視差候補1)とは異なる視差候補(図11(a)の視差候補2)が抽出されるといった事態を回避することが可能となる。 In contrast, in this embodiment, the parallax search range selection unit 402 sets a parallax search range having a width corresponding to the comparison result based on the distance information (see parallax search range 1100 in FIG. 11A). Therefore, it is possible to avoid a situation in which a parallax candidate (parallax candidate 2 in FIG. 11A) different from the parallax candidate to be extracted (parallax candidate 1 in FIG. 11A) is extracted.

図10に戻る。ステップS1004において、注目画素Pnが、照射範囲画素近傍の画素ではないと判定された場合には、ステップS1010に進む。 Return to FIG. If it is determined in step S1004 that the target pixel Pn is not a pixel near the irradiation range pixel, the process proceeds to step S1010.

ステップS1010では、視差演算部420における基準視差探索範囲(幅W0)の設定を維持する。 In step S1010, the setting of the reference parallax search range (width W0) in parallax calculation section 420 is maintained.

ステップS1011では、視差演算部420が、ステップS1008~ステップS1010において設定された視差探索範囲を用いて視差探索を行い、抽出した視差候補に基づいて注目画素Pnの視差を演算する。 In step S1011, parallax calculation unit 420 performs parallax search using the parallax search range set in steps S1008 to S1010, and calculates the parallax of target pixel Pn based on the extracted parallax candidate.

ステップS1012では、視差演算部420が、ステップS1001において取得した1フレーム分の撮影画像内の画素すべてについて、視差演算を行ったか否かを判定する。ステップS1009において視差演算を行っていない画素があると判定された場合には、ステップS1013に進む。そして、ステップS1013にて、カウンタnをインクリメントした後、ステップS1003に戻り、次の画素を注目画素Pnに設定し、ステップS1004からステップS1011の処理を実行する。 In step S1012, the parallax calculation unit 420 determines whether or not parallax calculation has been performed for all the pixels in the captured image for one frame acquired in step S1001. If it is determined in step S1009 that there is a pixel for which parallax calculation has not been performed, the process proceeds to step S1013. After the counter n is incremented in step S1013, the process returns to step S1003 to set the next pixel as the pixel of interest Pn, and the processes from step S1004 to step S1011 are executed.

一方、ステップS1012において、すべての画素について視差演算を行ったと判定された場合には、ステップS1014に進み、当該撮影画像についての視差画像を生成する。 On the other hand, if it is determined in step S1012 that parallax calculation has been performed for all pixels, the process advances to step S1014 to generate a parallax image for the captured image.

<10.まとめ>
以上の説明から明らかなように、本実施形態に係る視差演算システム100では、
・ステレオ撮像部の撮影方向である車両の進行方向前方に向けて、レーザレーダ測距部110がレーザ光を出射し、当該レーザ光が照射されたオブジェクトまでの距離を示す距離情報を算出する構成とした。
・レーザ光の投受光により算出された距離情報が、基準距離と異なっていた場合に、予め設定された基準視差探索範囲とは幅の異なる視差探索範囲を選択する構成とした。
<10. Summary>
As is clear from the above description, in the parallax calculation system 100 according to this embodiment,
A configuration in which the laser radar distance measurement unit 110 emits laser light forward in the traveling direction of the vehicle, which is the shooting direction of the stereo imaging unit, and calculates distance information indicating the distance to the object irradiated with the laser light. and
When the distance information calculated by projecting and receiving the laser light is different from the reference distance, a parallax search range having a width different from the preset reference parallax search range is selected.

これにより、撮影画像内においてオブジェクト画像として描画されたオブジェクトのうち、撮像部に近い位置に存在しているものと、離れた位置に存在しているものとで、視差探索範囲を分けて設定することが可能となる。この結果、誤った視差候補を抽出するといった事態を回避することが可能となり、視差演算の精度向上を図ることが可能となる。 As a result, among the objects drawn as object images in the captured image, the parallax search range is set separately for objects existing at a position close to the imaging unit and objects existing at a distant position. becomes possible. As a result, it is possible to avoid a situation in which an erroneous parallax candidate is extracted, and it is possible to improve the accuracy of parallax calculation.

[第2の実施形態]
上記第1の実施形態では、基準距離及び基準視差探索範囲を規定し、取得された距離情報と当該基準距離との対比結果に応じた幅を有する視差探索範囲を選択する構成としたが、本発明はこれに限定されない。
[Second embodiment]
In the first embodiment, the reference distance and the reference parallax search range are defined, and the parallax search range having a width corresponding to the comparison result between the acquired distance information and the reference distance is selected. The invention is not so limited.

例えば、図8に示すグラフをテーブル化または関数化しておき、取得された距離情報に対応する視差探索範囲の幅を、当該テーブルまたは関数を参照することで導出する構成としてもよい。当該構成によれば、距離情報が取得されるごとに、視差探索範囲選択部402が動作することとなり、取得された距離情報に対応する幅を有する視差探索範囲を設定することが可能となる。 For example, the graph shown in FIG. 8 may be made into a table or function, and the width of the parallax search range corresponding to the acquired distance information may be derived by referring to the table or function. According to this configuration, the parallax search range selection unit 402 operates each time distance information is acquired, and it is possible to set a parallax search range having a width corresponding to the acquired distance information.

以下、本実施形態に係る情報処理装置130によるステレオ画像処理の流れについて説明する。 The flow of stereo image processing by the information processing apparatus 130 according to this embodiment will be described below.

図12は、本実施形態に係る情報処理装置130によるステレオ画像処理の流れを示すフローチャートである。なお、ステップS1001~ステップS1005、S1010~S1014までの処理は、図10を用いて説明したステレオ画像処理のステップS1001~ステップS1005、S1010~S1014までの処理と同じであるため、ここでは説明を省略する。 FIG. 12 is a flow chart showing the flow of stereo image processing by the information processing apparatus 130 according to this embodiment. Note that the processing of steps S1001 to S1005 and S1010 to S1014 is the same as the processing of steps S1001 to S1005 and S1010 to S1014 of the stereo image processing described with reference to FIG. 10, so description thereof is omitted here. do.

ステップS1201では、視差探索範囲選択部402が、ステップS1005において取得された距離情報に対応する幅を有する視差探索範囲を導出し、視差演算部420に設定する。 In step S<b>1201 , the parallax search range selection unit 402 derives a parallax search range having a width corresponding to the distance information acquired in step S<b>1005 and sets it in the parallax calculation unit 420 .

これにより、ステップS1011では、距離情報に対応する幅を有する視差探索範囲を用いて、視差探索を行うことが可能となる。 Accordingly, in step S1011, parallax search can be performed using a parallax search range having a width corresponding to the distance information.

[第3の実施形態]
上記第1及び第2の実施形態では、視差探索範囲の幅を変更するにあたり、視差探索の開始点を固定し、視差探索範囲の終了点を変更する構成としたが、本発明はこれに限定されない。
[Third embodiment]
In the above first and second embodiments, when changing the width of the parallax search range, the starting point of the parallax search is fixed and the end point of the parallax search range is changed, but the present invention is limited to this. not.

例えば、図13(a)に示すように、視差探索範囲の終了点(Db)を固定し、視差探索範囲の開始点(Da)を変更する構成としてもよい。 For example, as shown in FIG. 13A, the configuration may be such that the end point (Db) of the parallax search range is fixed and the start point (Da) of the parallax search range is changed.

あるいは、図13(b)に示すように、視差探索範囲の幅、視差探索範囲の開始点(Da)、終了点(Db)をすべて変更する構成としてもよい。 Alternatively, as shown in FIG. 13B, the width of the parallax search range, the start point (Da), and the end point (Db) of the parallax search range may all be changed.

[第4の実施形態]
上記第1乃至第3の実施形態では、視差演算システム100を車載用に適用した場合について説明したが、本発明はこれに限定されない。例えば、FA(Factory Automation)用に適用し、生産工場内において搬送される生産物等をピッキングする際の、ピッキング対象までの距離を算出するのに用いるようにしてもよい。以下、本実施形態の詳細について説明する。
[Fourth embodiment]
In the first to third embodiments described above, the case where the parallax calculation system 100 is applied to a vehicle has been described, but the present invention is not limited to this. For example, it may be applied to FA (Factory Automation) and used to calculate a distance to a picking target when picking a product or the like to be transported in a production factory. Details of the present embodiment will be described below.

<1.視差演算システムを構成するレーザレーダ測距部及び撮像部の配置>
はじめに、本実施形態に係る視差演算システム100をFA用に適用した場合の、レーザレーダ測距部110及び撮像部121、122の配置例について説明する。図14は、視差演算システム100をFA用に適用した場合の、レーザレーダ測距部110及び撮像部121、122の配置例を示す図である。
<1. Arrangement of Laser Radar Ranging Unit and Imaging Unit Constituting Parallax Calculation System>
First, an arrangement example of the laser radar ranging unit 110 and the imaging units 121 and 122 when the parallax calculation system 100 according to the present embodiment is applied to FA will be described. FIG. 14 is a diagram showing an arrangement example of the laser radar ranging unit 110 and imaging units 121 and 122 when the parallax calculation system 100 is applied for FA.

図14に示すように、レーザレーダ測距部110は、撮像部121、122の間に配置され、生産物(例えば、金属製のパイプ)1400が搬送されるベルトコンベア1410の上部に配置される。なお、撮像部121、122は、ベルトコンベア1410により搬送される生産物1400が撮影されるように撮影範囲が調整されているものとする。また、レーザレーダ測距部110は、レーザ光が当該生産物1400に照射されるように調整されているものとする。 As shown in FIG. 14, the laser radar ranging unit 110 is arranged between the imaging units 121 and 122, and is arranged above a belt conveyor 1410 on which a product (for example, a metal pipe) 1400 is conveyed. . It is assumed that the photographing ranges of the imaging units 121 and 122 are adjusted so that the product 1400 conveyed by the belt conveyor 1410 is photographed. It is also assumed that the laser radar ranging unit 110 is adjusted so that the product 1400 is irradiated with laser light.

<2.オブジェクトの配置と視差との関係、ならびに視差探索範囲の設定方法>
次に、撮影画像内においてオブジェクト画像として描画されたオブジェクト(生産物1400)の配置と、視差との関係、ならびに視差探索範囲の設定方法について説明する。図15は、撮像部121により撮影された撮影画像(参照画像)1510と撮像部122により撮影された撮影画像(基準画像)1520とを示す図である。
<2. Relationship Between Object Arrangement and Parallax, and Method for Setting Parallax Search Range>
Next, the relationship between the placement of the object (product 1400) rendered as the object image in the captured image and the parallax, and the method of setting the parallax search range will be described. FIG. 15 shows a captured image (reference image) 1510 captured by the imaging unit 121 and a captured image (reference image) 1520 captured by the imaging unit 122 .

図15において、撮影画像1510内において描画されているオブジェクト画像(生産物画像1411)は、撮影画像1520内において描画されているオブジェクト画像(生産物画像1421)に対応しているものとする。また、撮影画像1510内において描画されているオブジェクト画像(生産物画像1412)は、撮影画像1520内において描画されているオブジェクト画像(生産物画像1422)に対応しているものとする。 In FIG. 15, it is assumed that the object image (product image 1411) drawn in the captured image 1510 corresponds to the object image (product image 1421) drawn in the captured image 1520. FIG. It is also assumed that the object image (product image 1412) drawn in the captured image 1510 corresponds to the object image (product image 1422) drawn in the captured image 1520. FIG.

つまり、図15の例では、生産物画像1411内の点1511と、生産物画像1421の点1521とが同一点となる。また、生産物画像1412内の点1512と、生産物画像1422内の点1522とが同一点となる。換言すると、撮影画像1510と撮影画像1520の各同一点の画素は、生産物1400の搬送方向にd2だけずれている(視差d2を有している)。 That is, in the example of FIG. 15, the point 1511 in the product image 1411 and the point 1521 in the product image 1421 are the same point. Also, the point 1512 in the product image 1412 and the point 1522 in the product image 1422 are the same point. In other words, pixels at the same points in the captured image 1510 and the captured image 1520 are shifted by d2 in the transport direction of the product 1400 (has parallax d2).

ここで、ベルトコンベア1410上の生産物1400は、同じ材質及び同じ形状を有しており、互いに連なって搬送される。このため、図15に示すように、例えば、撮影画像1520内において描画されている生産物画像1422の左側には、同じ材質及び同じ形状の生産物画像1421が描画されることとなる。 Here, the products 1400 on the belt conveyor 1410 have the same material and the same shape, and are continuously conveyed. Therefore, as shown in FIG. 15, for example, a product image 1421 of the same material and shape is drawn on the left side of the product image 1422 drawn in the photographed image 1520 .

このため、視差d2が大きい場合、例えば、点1512の同一点である点1522を探索するにあたり、視差探索範囲の開始点をシフト量=ゼロのシフト位置とすると、誤って点1521が同一点として抽出されることとなる。 Therefore, when the parallax d2 is large, for example, when searching for a point 1522 that is the same point as the point 1512, if the starting point of the parallax search range is set to a shift position with a shift amount of zero, the point 1521 is erroneously identified as the same point. will be extracted.

本実施形態では、かかる事態を回避すべく、距離情報取得部401において取得された生産物1400までの距離を示す距離情報に基づいて視差探索範囲を設定する処理を、以下の手順に従って行うこととした。
1)距離情報取得部401において取得された距離情報Zと、基線長(撮像部121、122の光軸間距離)Bと、撮像部121、122のカメラレンズの焦点距離fとを用いて、式1により視差(同一点のシフト量)を算出する。
2)視差探索範囲の幅を、隣接する生産物間の距離よりも短い固定値に設定する。
3)上記2)で設定した幅を有し、上記1)で算出したシフト量により特定されるシフト位置の画素を含むように視差探索範囲の開始点、終了点を決定する。
In this embodiment, in order to avoid such a situation, the process of setting the parallax search range based on the distance information indicating the distance to the product 1400 acquired by the distance information acquisition unit 401 is performed according to the following procedure. bottom.
1) Using the distance information Z acquired by the distance information acquisition unit 401, the base line length (the distance between the optical axes of the imaging units 121 and 122) B, and the focal length f of the camera lens of the imaging units 121 and 122, A parallax (a shift amount of the same point) is calculated by Equation (1).
2) Set the width of the parallax search range to a fixed value smaller than the distance between adjacent products.
3) Determine the start point and end point of the parallax search range so as to have the width set in 2) above and include the pixel at the shift position specified by the shift amount calculated in 1) above.

図16(a)は、上記手順に従って設定された視差探索範囲1600を示す図である。図16(a)に示すように、距離情報に基づいて点1522の視差としてd2が算出され、視差探索範囲の幅としてWが設定されることで、開始点Da2及び終了点Db2が決定される。これにより、隣接する生産物画像1421の点1521を、視差探索範囲外とすることができる。 FIG. 16(a) is a diagram showing a parallax search range 1600 set according to the above procedure. As shown in FIG. 16A, d2 is calculated as the parallax of the point 1522 based on the distance information, and W is set as the width of the parallax search range, thereby determining the start point Da2 and the end point Db2. . This allows the point 1521 of the adjacent product image 1421 to be out of the parallax search range.

図17(a)は、図16(a)に示す視差探索範囲1600を用いて視差探索を行った様子を示した図であり、各シフト位置における類似度と視差探索範囲1600との関係を示している。 FIG. 17A is a diagram showing how parallax search is performed using the parallax search range 1600 shown in FIG. ing.

図17(a)の例では、点1521と点1522に対応するシフト位置が極小点となるため、2つの視差候補(視差候補1及び視差候補2)が存在するが、視差探索範囲1600が設定されることで、視差候補2のみを抽出することができる。 In the example of FIG. 17A, since the shift positions corresponding to points 1521 and 1522 are local minimum points, there are two parallax candidates (parallax candidate 1 and parallax candidate 2), but a parallax search range 1600 is set. By doing so, only parallax candidate 2 can be extracted.

一方、図16(b)は、上記処理との比較のため、視差探索範囲の開始点を固定し、距離情報取得部401において取得された距離情報に応じた幅を有する視差探索範囲を選択した場合の視差探索範囲を示した図である。 On the other hand, in FIG. 16B, for comparison with the above processing, the starting point of the parallax search range is fixed, and a parallax search range having a width corresponding to the distance information acquired by the distance information acquisition unit 401 is selected. FIG. 10 is a diagram showing a parallax search range in this case;

図16(b)に示すように、視差探索範囲の開始点Da1を固定にしたまま、視差探索範囲の幅をW2にすると、視差探索範囲の終了点はDb1となり、視差探索範囲内に、点1521及び点1522の両方が含まれることとなる。 As shown in FIG. 16B, if the width of the parallax search range is set to W2 while the start point Da1 of the parallax search range is fixed, the end point of the parallax search range becomes Db1, and a point Db1 is set within the parallax search range. Both 1521 and point 1522 will be included.

図17(b)は、図16(b)に示す視差探索範囲1610を用いて視差探索を行った様子を示した図であり、各シフト位置における類似度と視差探索範囲1610との関係を示している。 FIG. 17B is a diagram showing how parallax search is performed using the parallax search range 1610 shown in FIG. ing.

図17(b)に示すように、距離情報に応じた幅を有する視差探索範囲を選択すると、視差探索範囲1610に2つの視差候補(視差候補1及び視差候補2)が存在することとなり、視差候補1(点1521)が誤って抽出される可能性があることがわかる。 As shown in FIG. 17B, when a parallax search range having a width corresponding to the distance information is selected, two parallax candidates (parallax candidate 1 and parallax candidate 2) exist in the parallax search range 1610. It can be seen that candidate 1 (point 1521) may be erroneously extracted.

<3.まとめ>
以上の説明から明らかなように、本実施形態に係る視差演算システム100では、
・レーザ光の投受光により取得された距離情報に基づいて、撮影画像間の視差を逆算することで、視差探索すべきシフト位置を算出する構成とした。
・幅が固定された視差探索範囲に、算出したシフト位置の画素が含まれるように、視差探索範囲の開始点及び終了点を決定する構成とした。
<3. Summary>
As is clear from the above description, in the parallax calculation system 100 according to this embodiment,
A shift position for parallax search is calculated by back-calculating the parallax between the captured images based on the distance information acquired by projecting and receiving the laser light.
The start point and end point of the parallax search range are determined so that the pixels at the calculated shift positions are included in the parallax search range whose width is fixed.

これにより、同じ材質及び同じ形状を有するオブジェクトが隣接して配置された状態で撮影された撮影画像について視差演算を行う場合であっても、誤った視差候補を抽出するといった事態を回避することが可能となる。この結果、視差演算の精度向上を図ることが可能となる。 This makes it possible to avoid extracting an erroneous parallax candidate even when parallax calculation is performed on captured images in which objects having the same material and the same shape are arranged adjacent to each other. It becomes possible. As a result, it is possible to improve the accuracy of parallax calculation.

[第5の実施形態]
上記各実施形態では、視差演算の詳細な手法について特に言及しなかったが、視差演算の手法は、任意の方法を用いることができる。
[Fifth embodiment]
In each of the above-described embodiments, no particular reference was made to the detailed method of parallax calculation, but any method can be used as the method of parallax calculation.

例えば、EBM(Edge-Based Matching)のようにテクスチャの強い部分(エッジの強い部分)について視差を演算する方法であってもよい。あるいは、サブピクセル推定手法(等角直線、パラボラ、高次多項式等によるフィッティング)を用いることで、撮影画像全体の各画素の視差を演算する方法であってもよい。なお、サブピクセル推定手法とは、SGM(Semi Global Matching)のように各ピクセル周囲からマッチング指標値を漸化式により伝播させ、最小の指標値を与える整数視差とそれに隣接する視差の指標値から小数視差を算出する手法である。 For example, a method such as EBM (Edge-Based Matching) that calculates parallax for portions with strong textures (portions with strong edges) may be used. Alternatively, a method of calculating the parallax of each pixel in the entire photographed image by using a sub-pixel estimation method (fitting by equiangular straight lines, parabolas, high-order polynomials, etc.) may be used. In addition, the sub-pixel estimation method propagates the matching index value from around each pixel by a recurrence formula like SGM (Semi Global Matching), and from the integer disparity that gives the minimum index value and the disparity index value adjacent to it This is a method of calculating decimal parallax.

また、上記各実施形態では、レーザレーダ測距部110よりレーザ光を出射した場合の反射光に基づいて距離情報を算出する構成としたが本発明はこれに限定されない。レーザレーダ測距部以外の電磁波測距部より電磁波を照射した場合の反射波に基づいて、距離情報を算出する構成としてもよい。 Further, in each of the above-described embodiments, the distance information is calculated based on the reflected light when the laser beam is emitted from the laser radar distance measuring unit 110, but the present invention is not limited to this. The distance information may be calculated based on the reflected wave when an electromagnetic wave is emitted from an electromagnetic wave ranging unit other than the laser radar ranging unit.

なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 It should be noted that the present invention is not limited to the configurations shown here, such as combinations with other elements, to the configurations listed in the above embodiments. These points can be changed without departing from the gist of the present invention, and can be determined appropriately according to the application form.

100 :視差演算システム
110 :レーザレーダ測距部
120 :ステレオ撮像部
121、122 :撮像部
130 :情報処理装置
310 :視差画像生成部
401 :距離情報取得部
402 :視差探索範囲選択部
403 :撮影画像取得部
404 :撮影画像補正部
405 :視差演算部
100: parallax calculation system 110: laser radar ranging unit 120: stereo imaging units 121 and 122: imaging unit 130: information processing device 310: parallax image generation unit 401: distance information acquisition unit 402: parallax search range selection unit 403: photography Image Acquisition Unit 404: Captured Image Correction Unit 405: Parallax Calculation Unit

特開2003-346130号公報Japanese Patent Application Laid-Open No. 2003-346130 国際公開第2011-096251号International Publication No. 2011-096251 特開2013-114477号公報JP 2013-114477 A 特開2013-174494号公報JP 2013-174494 A

Claims (4)

複数の撮像部により撮影された撮影画像に基づいて視差演算を行う情報処理装置であって、
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得手段と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定手段と、
前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得手段により取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定手段と
を有することを特徴とする情報処理装置。
An information processing device that performs parallax calculation based on captured images captured by a plurality of imaging units,
acquisition means for acquiring distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. Determination means for determining whether or not
if the determining means does not determine that the pixel is a pixel of the object image other than the pixel corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When the determination means determines that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, the distance to the object acquired by the acquisition means and the distance to the object acquired by the acquisition means and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and setting means for setting a start point and an end point of the parallax search range as fixed values shorter than a distance between objects .
複数の撮像部と、電磁波測距部と、該複数の撮像部により撮影された撮影画像に基づいて視差演算を行う情報処理装置と、を有する視差演算システムであって、
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得手段と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定手段と、
前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得手段により取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定手段と
を有することを特徴とする視差演算システム。
A parallax calculation system having a plurality of imaging units, an electromagnetic wave ranging unit, and an information processing device that performs parallax calculation based on images captured by the plurality of imaging units,
acquisition means for acquiring distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. Determination means for determining whether or not
if the determining means does not determine that the pixel is a pixel of the object image other than the pixel corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When the determination means determines that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, the distance to the object acquired by the acquisition means and the distance to the object acquired by the acquisition means and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and setting means for setting a start point and an end point of the parallax search range as fixed values shorter than a distance between objects .
複数の撮像部により撮影された撮影画像に基づいて視差演算を行う情報処理装置における情報処理方法であって、
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得工程と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定工程と、
前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得工程において取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定工程と
を有することを特徴とする情報処理方法。
An information processing method in an information processing device that performs parallax calculation based on captured images captured by a plurality of imaging units,
an obtaining step of obtaining distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. A determination step of determining whether or not
if it is not determined in the determination step that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When it is determined in the determination step that the pixels of the object image are other than the pixels corresponding to the irradiation range, the parallax range in the parallax calculation is the distance to the object acquired in the acquisition step, and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and a setting step of setting a start point and an end point of the parallax search range as fixed values shorter than a distance between objects .
複数の撮像部により撮影された撮影画像に基づいて視差演算を行う情報処理装置のコンピュータに、
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得工程と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定工程と、
前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得工程において取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定工程と
を実行させるためのプログラム。
In the computer of the information processing device that performs parallax calculation based on the captured images captured by a plurality of imaging units,
an obtaining step of obtaining distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. A determination step of determining whether or not
if it is not determined in the determination step that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When it is determined in the determination step that the pixels of the object image are other than the pixels corresponding to the irradiation range, the parallax range in the parallax calculation is the distance to the object acquired in the acquisition step, and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and a setting step of setting a start point and an end point of the parallax search range as fixed values shorter than the distance between the objects .
JP2020075435A 2020-04-21 2020-04-21 Parallax calculation system, information processing device, information processing method and program Active JP7243671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075435A JP7243671B2 (en) 2020-04-21 2020-04-21 Parallax calculation system, information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020075435A JP7243671B2 (en) 2020-04-21 2020-04-21 Parallax calculation system, information processing device, information processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018158016A Division JP2018205325A (en) 2018-08-27 2018-08-27 Parallax calculation system, information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2020118697A JP2020118697A (en) 2020-08-06
JP7243671B2 true JP7243671B2 (en) 2023-03-22

Family

ID=71890994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075435A Active JP7243671B2 (en) 2020-04-21 2020-04-21 Parallax calculation system, information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7243671B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323693A (en) 2005-05-19 2006-11-30 Olympus Corp Processor, and method and program for processing image
JP2009047495A (en) 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2010048553A (en) 2006-12-19 2010-03-04 Panasonic Corp Inspecting method of compound-eye distance measuring device and chart used for same
JP2011013064A (en) 2009-07-01 2011-01-20 Nikon Corp Position detection device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3562250B2 (en) * 1997-07-29 2004-09-08 日産自動車株式会社 Leading vehicle detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323693A (en) 2005-05-19 2006-11-30 Olympus Corp Processor, and method and program for processing image
JP2010048553A (en) 2006-12-19 2010-03-04 Panasonic Corp Inspecting method of compound-eye distance measuring device and chart used for same
JP2009047495A (en) 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2011013064A (en) 2009-07-01 2011-01-20 Nikon Corp Position detection device

Also Published As

Publication number Publication date
JP2020118697A (en) 2020-08-06

Similar Documents

Publication Publication Date Title
US7720277B2 (en) Three-dimensional-information reconstructing apparatus, method and program
JP5503578B2 (en) Object detection apparatus and object detection method
JP5632762B2 (en) POSITIONING INFORMATION FORMING DEVICE, DETECTING DEVICE, AND POSITIONING INFORMATION FORMING METHOD
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
US7471809B2 (en) Method, apparatus, and program for processing stereo image
US8718326B2 (en) System and method for extracting three-dimensional coordinates
KR101815407B1 (en) Parallax operation system, information processing apparatus, information processing method, and recording medium
JP6668594B2 (en) Parallax calculation system, information processing device, information processing method, and program
US9704218B2 (en) Image processing device and method, and program
JP2011013064A (en) Position detection device
US11803982B2 (en) Image processing device and three-dimensional measuring system
WO2014108976A1 (en) Object detecting device
JP2015158394A (en) Parallax calculation system, information processing device, information processing method and program
CN113610741A (en) Point cloud processing method and device based on laser line scanning
Wang et al. Real-time dense 3d mapping of underwater environments
JP2008090583A (en) Information processing system, program, and information processing method
TWI528783B (en) Methods and systems for generating depth images and related computer products
US11348271B2 (en) Image processing device and three-dimensional measuring system
JP2001194126A (en) Apparatus and method for measuring three-dimensional shape and program providing medium
US10713807B2 (en) Vicinity supervising device and vicinity supervising method of vehicle
JP2016099318A (en) Stereo matching device, stereo matching program, and stereo matching method
JP7243671B2 (en) Parallax calculation system, information processing device, information processing method and program
JP2009092551A (en) Method, apparatus and system for measuring obstacle
JP6241083B2 (en) Imaging apparatus and parallax detection method
JP2018205325A (en) Parallax calculation system, information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151