JP7243671B2 - Parallax calculation system, information processing device, information processing method and program - Google Patents
Parallax calculation system, information processing device, information processing method and program Download PDFInfo
- Publication number
- JP7243671B2 JP7243671B2 JP2020075435A JP2020075435A JP7243671B2 JP 7243671 B2 JP7243671 B2 JP 7243671B2 JP 2020075435 A JP2020075435 A JP 2020075435A JP 2020075435 A JP2020075435 A JP 2020075435A JP 7243671 B2 JP7243671 B2 JP 7243671B2
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- pixels
- distance
- search range
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Description
本発明は視差演算を行う視差演算システム、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to a parallax calculation system, an information processing apparatus, an information processing method, and a program for performing parallax calculation.
従来より、ステレオカメラ等の複数の撮像部により撮影された撮影画像(ステレオ画像)について視差演算を行うことで、撮影対象のオブジェクトまでの距離を算出する測距技術が知られている(例えば、特許文献1乃至4等参照)。
2. Description of the Related Art Conventionally, there has been known a distance measurement technique for calculating the distance to an object to be photographed by performing parallax calculation on images (stereo images) photographed by a plurality of imaging units such as stereo cameras (for example, See
当該測距技術によれば、撮影画像内にオブジェクト画像として描画されているすべてのオブジェクト(つまり、撮影対象のすべてのオブジェクト)について、撮像部からの距離を算出することができる。 According to the distance measurement technique, the distance from the imaging unit can be calculated for all objects drawn as object images in the captured image (that is, all objects to be captured).
しかしながら、撮影画像内にオブジェクト画像として描画されるオブジェクトには、通常、撮像部に近い位置に存在するオブジェクトから、遠い位置に存在するオブジェクトまで、互いに距離の異なる複数のオブジェクトが含まれる。 However, an object drawn as an object image in a captured image usually includes a plurality of objects at different distances from each other, ranging from objects near the imaging unit to objects far from the imaging unit.
このため、撮影画像内の全ての画素について、オブジェクトまでの距離とは無関係に一律に視差演算を行おうとすると、視差探索の際に誤った視差候補を抽出することとなり、視差演算の精度低下の原因となりうる。 For this reason, if an attempt is made to uniformly calculate parallax for all pixels in the captured image regardless of the distance to the object, incorrect parallax candidates will be extracted during parallax search, resulting in reduced accuracy of parallax calculation. can be the cause.
本発明は上記課題に鑑みてなされたものであり、誤った視差候補の抽出を回避し、視差演算の精度向上を図ることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to avoid extraction of erroneous parallax candidates and improve the accuracy of parallax calculation.
本発明の実施形態に係る情報処理装置は、以下のような構成を有する。すなわち、
複数の撮像部により撮影された撮影画像に基づいて視差演算を行う情報処理装置であって、
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得手段と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定手段と、
前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得手段により取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定手段とを有する。
An information processing apparatus according to an embodiment of the present invention has the following configuration. i.e.
An information processing device that performs parallax calculation based on captured images captured by a plurality of imaging units,
acquisition means for acquiring distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. Determination means for determining whether or not
if the determining means does not determine that the pixel is a pixel of the object image other than the pixel corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When the determination means determines that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, the distance to the object acquired by the acquisition means and the distance to the object acquired by the acquisition means and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. setting means for setting a start point and an end point of the parallax search range as fixed values shorter than the distance between the objects .
本発明の各実施形態によれば、誤った視差候補の抽出を回避し、視差演算の精度向上を図ることが可能となる。 According to each embodiment of the present invention, it is possible to avoid extraction of erroneous parallax candidates and improve the accuracy of parallax calculation.
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。 Embodiments of the present invention will be described below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.
[第1の実施形態]
<1.視差演算システムの全体構成>
はじめに、本実施形態に係る視差演算システムの全体構成について説明する。図1は、本実施形態に係る視差演算システム100の全体構成を示す図である。図1に示すように、視差演算システム100は、レーザレーダ測距部110と、ステレオ撮像部120と、情報処理装置130とを備える。
[First Embodiment]
<1. Overall Configuration of Parallax Calculation System>
First, the overall configuration of the parallax calculation system according to this embodiment will be described. FIG. 1 is a diagram showing the overall configuration of a
レーザレーダ測距部110は、レーザ光を投受光することで生成されたレーザ受光信号に基づいてオブジェクトを検出し、当該レーザ光が照射されたオブジェクトまでの距離を算出することで、距離情報を情報処理装置130に送信する。
The laser
ステレオ撮像部120は、単眼の撮像部121と単眼の撮像部122とを備える。撮像部121、122は、それぞれが所定のフレーム周期で撮影を行うことで、撮影画像を情報処理装置130に送信する。
The
情報処理装置130は、ステレオ撮像部120より送信された撮影画像について視差演算を行い、視差画像を生成する。なお、情報処理装置130では、視差演算を行うにあたり、レーザレーダ測距部110より送信される距離情報に応じた視差演算を行う(詳細は後述)。
The
<2.視差演算システムを構成するレーザレーダ測距部及び撮像部の配置>
次に、視差演算システム100を車載用に適用した場合のレーザレーダ測距部110及び撮像部121、122の配置例について説明する。図2は、視差演算システム100を車載用に適用した場合のレーザレーダ測距部110及び撮像部121、122の配置例を示す図である。
<2. Arrangement of Laser Radar Ranging Unit and Imaging Unit Constituting Parallax Calculation System>
Next, an arrangement example of the laser
図2に示すように、レーザレーダ測距部110及び撮像部121、122は、車両200内の天井部分のフロントガラス近傍であって、車両200の幅方向の中央位置に取り付けられる。
As shown in FIG. 2 , the laser radar
かかる取り付け位置のもとで、レーザレーダ測距部110は、車両200の進行方向前方に向けてレーザ光を出射する。また、撮像部121、122は、車両200の進行方向前方を撮影する。なお、視差演算システム100においてレーザレーダ測距部110のレーザ光の出射方向と、撮像部121の光軸ならびに撮像部122の光軸は、互いに平行となるように調整されているものとする。
At this mounting position, laser
<3.情報処理装置の構成>
次に、情報処理装置130のハードウェア構成について説明する。上述したように、情報処理装置130は、ステレオ撮像部120より送信された撮影画像について視差演算を行い、視差画像を生成する。そして、情報処理装置130が生成した視差画像は、例えば、撮影画像内においてオブジェクト画像として描画された各オブジェクトまでの距離を算出するために用いられる。
<3. Configuration of Information Processing Device>
Next, the hardware configuration of the
そこで、以下では、情報処理装置130のハードウェア構成を説明するにあたり、はじめに、情報処理装置130により生成された視差画像を用いて、各オブジェクトまでの距離を算出する測距技術(ステレオ測距技術)の概要について簡単に説明する。
Therefore, hereinafter, in describing the hardware configuration of the
<3.1 ステレオ測距技術の概要>
一般的に、ステレオ測距技術では、左右に配置された2台の単眼の撮像部より送信される1対の撮影画像について相関(類似度)を求めることで同一点を抽出し、抽出した同一点に対する視差を演算することで、三角測量の要領で当該同一点までの距離を算出する。
<3.1 Overview of Stereo Ranging Technology>
Generally, in stereo ranging technology, the correlation (similarity) is obtained for a pair of captured images transmitted from two monocular imaging units arranged on the left and right to extract the same points, and the extracted same points are extracted. By calculating the parallax for one point, the distance to the same point is calculated in the manner of triangulation.
具体的には、2台の単眼の撮像部より送信される1対の撮影画像から、同一のオブジェクトが描画されている部分を抽出する。2台の単眼の撮像部が左右に設置されている場合、1対の撮影画像間において、同一のオブジェクトが描画されている位置は左右にずれる。そこで、一方の撮影画像を他方の撮影画像に対して左右方向に、所定の範囲(視差探索範囲)をシフト範囲として1画素ずつシフトさせていき、最も重なり合う位置(類似度が最も高い位置)を求めることで、1対の撮影画像間で当該同一のオブジェクト内の同一点を抽出する。そして、抽出した同一点間のシフト量(視差)を演算し、2台の単眼の撮像部の光軸間の距離を用いて、当該同一点までの距離を算出する。 Specifically, portions in which the same object is drawn are extracted from a pair of photographed images transmitted from two monocular imaging units. When two monocular imaging units are installed on the left and right, the position where the same object is drawn shifts left and right between a pair of captured images. Therefore, one captured image is shifted in the left-right direction with respect to the other captured image by one pixel with a predetermined range (parallax search range) as a shift range. By obtaining, the same point in the same object is extracted between a pair of captured images. Then, the shift amount (parallax) between the extracted same points is calculated, and the distance to the same point is calculated using the distance between the optical axes of the two monocular imaging units.
なお、このときシフトさせた画素数をn、単眼の撮像部のカメラレンズの焦点距離をf、基線長(単眼の撮像部の光軸間距離)をB、画素ピッチをdとすると、同一のオブジェクト内の同一点までの距離Zは、下式により算出することができる。 At this time, if the number of pixels shifted at this time is n, the focal length of the camera lens of the monocular imaging unit is f, the base line length (the distance between the optical axes of the monocular imaging unit) is B, and the pixel pitch is d, the same The distance Z to the same point in the object can be calculated by the following formula.
<3.2 ステレオ測距技術を実現するための視差演算を行う情報処理装置の構成>
次に、上記ステレオ測距技術を実現するための視差演算を行う情報処理装置の構成について説明する。図3は、上記ステレオ測距技術を実現するための視差演算を行う情報処理装置130の構成を示す図である。
<3.2 Configuration of Information Processing Device Performing Parallax Calculation for Realizing Stereo Ranging Technology>
Next, the configuration of an information processing apparatus that performs parallax calculation for realizing the above-described stereo ranging technique will be described. FIG. 3 is a diagram showing the configuration of the
図3に示すように、情報処理装置130は、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、記憶装置303、入出力部304を備える。なお、情報処理装置130の各部は、バス305を介して相互に接続されているものとする。
As shown in FIG. 3 , the
CPU301は、記憶装置303に格納されたプログラム(視差画像生成部310として機能するためのプログラム)を実行するコンピュータである。CPU301が当該プログラムを実行することにより、情報処理装置130では、ステレオ撮像部120より送信された撮影画像について視差演算を行い、視差画像を生成する。
The
RAM302は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の主記憶装置である。RAM302は、記憶装置303に格納されたプログラムがCPU301によって実行される際に展開される、作業領域として機能する。
A
記憶装置303は、EPROMやEEPROM等のメモリであり、CPU301を、視差画像生成部310として機能させるためのプログラムを格納する。
The
入出力部304は、レーザレーダ測距部110やステレオ撮像部120(撮像部121、122)と通信するためのインタフェース部である。
The input/
<4.視差画像生成部の機能構成>
次に、視差画像生成部310の機能構成について説明する。図4は、視差画像生成部310の機能構成を示す図である。
<4. Functional Configuration of Parallax Image Generation Unit>
Next, the functional configuration of the
図4に示すように、視差画像生成部310は、距離情報取得部401、視差探索範囲選択部402、撮影画像取得部411、撮影画像補正部412、視差演算部420を備える。
As shown in FIG. 4 , the parallax
距離情報取得部401は、撮像部121、122が1フレーム分の撮影画像を撮影する間にレーザ光が投受光されることでレーザレーダ測距部110により検出されたオブジェクトまでの距離を示す距離情報をレーザレーダ測距部110より取得する。
A distance
視差探索範囲選択部402は、撮像部121、122により撮影された撮影画像について視差演算を行う際に設定される視差探索範囲であって、互いに幅の異なる複数の視差探索範囲の中から、取得された距離情報に応じた視差探索範囲を選択する。また、選択した視差探索範囲を、視差演算部420に設定する。
A parallax search
撮影画像取得部411は、撮像部121、122により撮影された撮影画像(ステレオ画像)を、所定のフレーム周期で取得する。撮影画像補正部412は、撮影画像取得部411により取得された撮影画像に対して、ガンマ補正や歪み補正等の各種補正処理を実行する。
The captured
視差演算部420は、撮影画像補正部412において各種補正処理が実行された撮影画像について視差演算を行い、視差画像を生成する。なお、視差演算に際しては、視差探索範囲選択部402により設定された視差探索範囲について視差探索を行う。
The
<5.オブジェクトまでの距離と視差との関係>
次に、撮影画像内においてオブジェクト画像として描画されたオブジェクトまでの距離と、該オブジェクト画像を構成する所定の画素の撮影画像間における視差との関係について説明する。
<5. Relationship between distance to object and parallax>
Next, the relationship between the distance to an object drawn as an object image in a photographed image and the parallax between the photographed images of predetermined pixels constituting the object image will be described.
図5は、撮像部121、122から離れた位置に存在するオブジェクトを撮影することで得られた撮影画像に含まれるオブジェクト画像の所定の画素の視差を示す図である。図5において、撮影画像510は、撮像部121による撮影により得られた撮影画像(参照画像)であり、撮影画像520は、撮像部122による撮影により得られた撮影画像(基準画像)である。
FIG. 5 is a diagram showing parallax of predetermined pixels of an object image included in a photographed image obtained by photographing an object existing at a position away from the
図2で示したように、撮像部121と撮像部122とは、互いに左右に設置されているため、図5に示すように、同一のオブジェクト画像(図5の例では前方車両画像530)を構成する同一点(前方車両画像530のナンバープレート部分)の画素は左右方向にd1だけずれる。つまり、視差d1を有する。
As shown in FIG. 2, the
一方、図6は、撮像部121、122に近い位置に存在するオブジェクトを撮影することで得られた撮影画像に含まれるオブジェクト画像の所定の画素の視差を示す図である。図6において、撮影画像610は、撮像部121による撮影により得られた撮影画像(参照画像)であり、撮影画像620は、撮像部122による撮影により得られた撮影画像(基準画像)である。
On the other hand, FIG. 6 is a diagram showing parallax of predetermined pixels of an object image included in a captured image obtained by capturing an object existing at a position close to the
図5と同様に、図6においても、同一のオブジェクト画像(図6の例では前方車両画像630)を構成する同一点(前方車両画像630のナンバープレート部分)の画素は左右方向にd2だけずれる。つまり、視差d2を有する。
Similarly to FIG. 5, in FIG. 6 as well, the pixels of the same point (the license plate portion of the forward vehicle image 630) that constitute the same object image (the
ここで、撮影画像610、620において前方車両画像630として描画されている前方車両は、撮影画像510、520において前方車両画像530として描画されている前方車両よりも、撮像部121、122に近い位置に存在している。このため、視差d1<視差d2の関係が成り立つ。
Here, the forward vehicle depicted as the
このように、撮影画像内においてオブジェクト画像として描画されているオブジェクトは、撮像部121、122に近い位置にあるほど、視差が大きくなり、撮像部121、122から離れた位置にあるほど、視差が小さくなる。
In this way, an object drawn as an object image in a captured image has greater parallax as it is closer to the
<6.視差探索範囲の一例>
このように、撮影画像に含まれるオブジェクト画像を構成する各画素の視差は、当該オブジェクト画像として撮影画像内に描画されたオブジェクトの、撮像部121、122からの距離に応じて変化する。
<6. Example of Parallax Search Range>
In this way, the parallax of each pixel forming the object image included in the captured image changes according to the distance from the
このため、視差演算部420において、撮影画像510、520及び撮影画像610、620について、それぞれ前方車両画像530、630を構成する所定の画素の視差探索を行うにあたっては、互いに幅の異なる視差探索範囲を設定することが望ましい。適切な幅を有する視差探索範囲を設定することで、視差探索において撮影画像間の同一点を抽出するにあたり、誤った視差候補を同一点として抽出してしまうといった事態を回避することが可能となるからである。
Therefore, in the
図7は、図5に示す撮影画像510、520について視差探索を行う場合に設定される視差探索範囲と、図6に示す撮影画像610、620について視差探索を行う場合に設定される視差探索範囲とを示した図である。
FIG. 7 shows a parallax search range set when performing a parallax search on the captured
図7において、横軸は同一点を抽出するための撮影画像間のシフト量を示している。ここで、シフト量=d1により特定されるシフト位置は、撮影画像510をシフトさせた場合に、撮影画像510と撮影画像520の同一点(前方車両画像530のナンバープレート部分)が当該位置で重なり合うことを示している。また、シフト量=d2により特定されるシフト位置は、撮影画像610をシフトさせた場合に、撮影画像610と撮影画像620の同一点(前方車両画像630のナンバープレート部分)が当該位置で重なり合うことを示している。
In FIG. 7, the horizontal axis indicates the amount of shift between captured images for extracting the same point. Here, the shift position specified by the shift amount=d1 is such that when the photographed
このため、撮影画像510、520間において、同一点(前方車両画像530のナンバープレート部分)を抽出するためには、例えば、シフトの開始点をDa、終了点をDb1とする幅W1の視差探索範囲を視差演算部420に設定することが望ましい。これにより、視差d1を確実に抽出することができるからである。
Therefore, in order to extract the same point (the license plate portion of the forward vehicle image 530) between the captured
一方、撮影画像610、620間において、同一点(前方車両画像630のナンバープレートの部分)を抽出するためには、例えば、開始点をDa、終了点をDb2とする幅W2(ただしW1<W2)の視差探索範囲を視差演算部420に設定することが望ましい。これにより、視差d2を確実に抽出することができるからである。
On the other hand, in order to extract the same point (the license plate portion of the forward vehicle image 630) between the captured
<7.視差探索範囲選択部の機能>
次に、視差演算部420に設定される視差探索範囲を選択する視差探索範囲選択部402の機能について説明する。
<7. Functions of Parallax Search Range Selection Section>
Next, the function of the parallax search
図8は、視差探索範囲を選択する視差探索範囲選択部402の機能を説明するための図であり、撮像部121、122からオブジェクトまでの距離と視差探索範囲選択部402により選択される視差探索範囲の幅との関係を示している。
FIG. 8 is a diagram for explaining the function of the parallax search
上記式1で示したように、オブジェクトまでの距離Zと視差(n×d)とは反比例の関係にあることから、視差探索に際しての視差探索範囲の幅も、図8に示すように、オブジェクトまでの距離と反比例の関係になる。
As shown in
図8によれば、距離情報取得部401により取得される距離情報がL1の場合、視差探索範囲選択部402により選択される視差探索範囲の幅はW1となる。また、距離情報取得部401により取得される距離情報がL2の場合、視差探索範囲選択部402により選択される視差探索範囲の幅はW2となる。更に、距離情報取得部401により取得される距離情報がL0の場合、視差探索範囲選択部402により選択される視差探索範囲の幅はW0となる。
According to FIG. 8, when the distance information acquired by the distance
なお、本実施形態における視差探索範囲選択部402では、距離情報取得部401において取得された距離情報が所定の条件を満たしたタイミングで、視差探索範囲の選択が行われる。
Note that the parallax search
具体的には、レーザ光が照射されるオブジェクトまでの距離として基準距離を予め規定しておき、更に、基準距離に対応する視差探索範囲として基準視差探索範囲を予め規定しておく。そして、視差探索範囲選択部402では、距離情報取得部401において取得された距離情報が、当該基準距離と異なっているか否かを判定し、異なっていると判定したタイミングで、基準視差探索範囲以外の視差探索範囲を選択する。
Specifically, a reference distance is defined in advance as a distance to an object irradiated with laser light, and a reference parallax search range is defined in advance as a parallax search range corresponding to the reference distance. Then, the parallax search
図8の例では、基準距離をL0としており、距離情報取得部401において取得された距離情報が、基準距離L0に略等しい間は、視差演算部420には、基準視差探索範囲である、幅W0の視差探索範囲が設定される。
In the example of FIG. 8, the reference distance is L0, and while the distance information acquired by the distance
一方、距離情報取得部401において取得された距離情報が、基準距離L0よりも短い場合には、視差探索範囲選択部402では、基準視差探索範囲(幅W0)よりも広い視差探索範囲として、幅W2の視差探索範囲を選択する。
On the other hand, when the distance information acquired by the distance
また、距離情報取得部401において取得された距離情報が、基準距離L0よりも長い場合には、視差探索範囲選択部402では、基準視差探索範囲(幅=W0)よりも狭い視差探索範囲として、幅=W1の視差探索範囲を選択する。
Further, when the distance information acquired by the distance
このように、本実施形態における視差探索範囲選択部402は、基準距離L0との対比に基づいて動作し、対比結果に応じた幅を有する視差探索範囲を選択するよう構成されている。
Thus, the parallax search
<8.視差演算システムにおける視差演算処理の流れ>
次に、視差演算システム100における視差演算処理の流れについて説明する。図9は、視差演算システム100における視差演算処理の流れを示すフローチャートである。
<8. Flow of Parallax Calculation Processing in Parallax Calculation System>
Next, the flow of parallax calculation processing in the
視差演算システム100による視差演算処理が開始されると、ステップS901では、情報処理装置130からの指示に基づいて、撮像部121、122が互いに同期して撮影を行う撮影処理を実行する。更に、ステップS902では、レーザレーダ測距部110がレーザ測距処理を実行する。
When the parallax calculation process by the
なお、ステップS901における撮影処理と、ステップS902におけるレーザ測距処理とは、並行して実行される。すなわち、撮像部121、122が1フレーム分の撮影画像の撮影を行う間に、レーザレーダ測距部110では、パルス状のレーザ光の投受光を行う。
Note that the imaging process in step S901 and the laser ranging process in step S902 are executed in parallel. In other words, while the
ステップS903では、情報処理装置130が1フレーム分の撮影画像に基づいて視差演算を行い、視差画像を生成するステレオ画像処理を実行する。このとき、情報処理装置130では、当該フレームの撮影処理と並行して実行されたレーザ測距処理において算出された距離情報に基づいて、視差探索範囲を選択する。
In step S903, the
ステップS904では、視差演算処理の終了指示が入力されたか否かを判定し、入力されていないと判定された場合には、ステップS901及びステップS902に戻る。そして、次のフレームについて撮影処理を実行するとともに、次のパルス状のレーザ光の投受光を行うことで、レーザ測距処理を実行する。 In step S904, it is determined whether or not an instruction to end the parallax calculation process has been input, and if it is determined that the instruction has not been input, the process returns to steps S901 and S902. Then, the imaging process is executed for the next frame, and the laser ranging process is executed by projecting and receiving the next pulsed laser beam.
以降、視差演算処理の終了指示が入力されるまで、フレーム単位で撮影処理を実行し、各フレームごとにレーザ測距処理を実行しながら、フレーム単位でステレオ画像処理を実行していく。 After that, until an instruction to end the parallax calculation process is input, the imaging process is executed in units of frames, and the stereo image processing is executed in units of frames while executing the laser ranging process for each frame.
一方、ステップS904において、視差演算処理の終了指示が入力されたと判定された場合には、処理を終了する。 On the other hand, if it is determined in step S904 that an instruction to end the parallax calculation process has been input, the process ends.
<9.情報処理装置によるステレオ画像処理>
次に、情報処理装置130によるステレオ画像処理(ステップS903)の詳細な流れについて図10及び図11を参照しながら説明する。図10は、情報処理装置130によるステレオ画像処理(ステップS903)の詳細な流れを示すフローチャートである。また、図11は、撮影画像間の各画素について同一点を抽出するために算出した、各シフト位置における類似度と、視差探索範囲との関係を示す図である。なお、図11に示す縦軸は、類似度が高いほど小さい値となり、類似度が低いほど大きい値になるように規格化されているものとする。
<9. Stereo image processing by information processing device>
Next, a detailed flow of stereo image processing (step S903) by the
図10において、ステップS1001では、撮影画像取得部411が、撮影された1フレーム分の撮影画像を、撮像部121、122それぞれより取得する。
In FIG. 10, in step S1001, the captured
ステップS1002では、ステップS1001において取得された1フレーム分の撮影画像(1対の撮影画像(参照画像と基準画像))について、撮影画像補正部412が、ガンマ補正や歪み補正等の補正処理を行う。
In step S1002, the captured
ステップS1003では、視差演算部420が、参照画像に含まれる画素のうち、視差演算を行う対象となる注目画素Pnを設定する。
In step S1003, the
ステップS1004では、ステップS1003において設定された注目画素Pnが、レーザ光が照射された照射範囲に対応する参照画像内の画素(照射範囲画素と称す)近傍の画素であるか否かを、視差演算部420が判定する。
In step S1004, a parallax calculation is performed to determine whether or not the target pixel Pn set in step S1003 is a pixel in the vicinity of a pixel in the reference image (referred to as an irradiation range pixel) corresponding to the irradiation range irradiated with the laser beam.
ここで、照射範囲画素近傍の画素とは、レーザ光が照射されたオブジェクトが描画されている参照画像内のオブジェクト画像を構成している画素のうち、照射範囲画素以外の画素を指す。 Here, the pixels near the irradiation range pixels refer to pixels other than the irradiation range pixels, among the pixels forming the object image in the reference image in which the object irradiated with the laser light is drawn.
なお、参照画像内における照射範囲画素の座標は予め設定されているものとし、ステップS1004では、ステップS1003において設定された注目画素Pnが、当該設定されている画素近傍の所定の範囲内の画素であるか否かを、当該座標に基づいて判定する。 Note that the coordinates of the irradiation range pixels in the reference image are set in advance, and in step S1004, the target pixel Pn set in step S1003 is a pixel within a predetermined range near the set pixel. Whether or not there is is determined based on the coordinates.
注目画素Pnが、照射範囲画素近傍の画素であると判定された場合には、ステップS1005に進む。 If the pixel of interest Pn is determined to be a pixel in the vicinity of the irradiation range pixel, the process advances to step S1005.
ステップS1005では、距離情報取得部401が、距離情報を取得する。ステップS1006では、視差探索範囲選択部402が、ステップS1006において取得された距離情報が、基準距離L0に略等しいか否かを判定する。ステップS1006において、基準距離L0に略等しいと判定した場合には、視差演算部420における基準視差探索範囲(幅W0)の設定を維持する。
In step S1005, the distance
一方、ステップS1006において、基準距離L0とは異なると判定した場合には、ステップS1007に進む。ステップS1007では、視差探索範囲選択部402が、ステップS1005において取得された距離情報が、基準距離L0よりも短いか否かを判定する。
On the other hand, if it is determined in step S1006 that the distance is different from the reference distance L0, the process proceeds to step S1007. In step S1007, the parallax search
ステップS1007において、基準距離L0よりも短いと判定した場合には、ステップS1008に進み、視差探索範囲として、幅W2の視差探索範囲を選択し、視差演算部420に設定する。
If it is determined in step S1007 that the distance is shorter than the reference distance L0, the process advances to step S1008 to select a parallax search range with a width W2 and set it in the
一方、ステップS1007において、基準距離L0よりも長いと判定した場合には、ステップS1009に進み、視差探索範囲として、幅W1の視差探索範囲を選択し、視差演算部420に設定する。
On the other hand, if it is determined in step S1007 that the distance is longer than the reference distance L0, the process advances to step S1009 to select a parallax search range with a width W1 as the parallax search range and set it in the
ここで、ステップS1008またはS1009において視差探索範囲を変更することによる効果について、図11を参照しながら説明する。従来は、オブジェクトまでの距離とは無関係に視差探索範囲を固定していた(図11(b)の視差探索範囲1110参照)。このため、図11(b)に示すように、複数の極小点が存在していた(複数の視差候補が存在していた)場合、抽出されるべき視差候補(図11(b)の視差候補1)とは異なる視差候補(図11(b)の視差候補2)が抽出される可能性があった。
Here, the effect of changing the parallax search range in step S1008 or S1009 will be described with reference to FIG. Conventionally, the parallax search range is fixed regardless of the distance to the object (see
これに対して、本実施形態では、視差探索範囲選択部402が、距離情報に基づく対比結果に応じた幅を有する視差探索範囲を設定する(図11(a)の視差探索範囲1100参照)。このため抽出されるべき視差候補(図11(a)の視差候補1)とは異なる視差候補(図11(a)の視差候補2)が抽出されるといった事態を回避することが可能となる。
In contrast, in this embodiment, the parallax search
図10に戻る。ステップS1004において、注目画素Pnが、照射範囲画素近傍の画素ではないと判定された場合には、ステップS1010に進む。 Return to FIG. If it is determined in step S1004 that the target pixel Pn is not a pixel near the irradiation range pixel, the process proceeds to step S1010.
ステップS1010では、視差演算部420における基準視差探索範囲(幅W0)の設定を維持する。
In step S1010, the setting of the reference parallax search range (width W0) in
ステップS1011では、視差演算部420が、ステップS1008~ステップS1010において設定された視差探索範囲を用いて視差探索を行い、抽出した視差候補に基づいて注目画素Pnの視差を演算する。
In step S1011,
ステップS1012では、視差演算部420が、ステップS1001において取得した1フレーム分の撮影画像内の画素すべてについて、視差演算を行ったか否かを判定する。ステップS1009において視差演算を行っていない画素があると判定された場合には、ステップS1013に進む。そして、ステップS1013にて、カウンタnをインクリメントした後、ステップS1003に戻り、次の画素を注目画素Pnに設定し、ステップS1004からステップS1011の処理を実行する。
In step S1012, the
一方、ステップS1012において、すべての画素について視差演算を行ったと判定された場合には、ステップS1014に進み、当該撮影画像についての視差画像を生成する。 On the other hand, if it is determined in step S1012 that parallax calculation has been performed for all pixels, the process advances to step S1014 to generate a parallax image for the captured image.
<10.まとめ>
以上の説明から明らかなように、本実施形態に係る視差演算システム100では、
・ステレオ撮像部の撮影方向である車両の進行方向前方に向けて、レーザレーダ測距部110がレーザ光を出射し、当該レーザ光が照射されたオブジェクトまでの距離を示す距離情報を算出する構成とした。
・レーザ光の投受光により算出された距離情報が、基準距離と異なっていた場合に、予め設定された基準視差探索範囲とは幅の異なる視差探索範囲を選択する構成とした。
<10. Summary>
As is clear from the above description, in the
A configuration in which the laser radar
When the distance information calculated by projecting and receiving the laser light is different from the reference distance, a parallax search range having a width different from the preset reference parallax search range is selected.
これにより、撮影画像内においてオブジェクト画像として描画されたオブジェクトのうち、撮像部に近い位置に存在しているものと、離れた位置に存在しているものとで、視差探索範囲を分けて設定することが可能となる。この結果、誤った視差候補を抽出するといった事態を回避することが可能となり、視差演算の精度向上を図ることが可能となる。 As a result, among the objects drawn as object images in the captured image, the parallax search range is set separately for objects existing at a position close to the imaging unit and objects existing at a distant position. becomes possible. As a result, it is possible to avoid a situation in which an erroneous parallax candidate is extracted, and it is possible to improve the accuracy of parallax calculation.
[第2の実施形態]
上記第1の実施形態では、基準距離及び基準視差探索範囲を規定し、取得された距離情報と当該基準距離との対比結果に応じた幅を有する視差探索範囲を選択する構成としたが、本発明はこれに限定されない。
[Second embodiment]
In the first embodiment, the reference distance and the reference parallax search range are defined, and the parallax search range having a width corresponding to the comparison result between the acquired distance information and the reference distance is selected. The invention is not so limited.
例えば、図8に示すグラフをテーブル化または関数化しておき、取得された距離情報に対応する視差探索範囲の幅を、当該テーブルまたは関数を参照することで導出する構成としてもよい。当該構成によれば、距離情報が取得されるごとに、視差探索範囲選択部402が動作することとなり、取得された距離情報に対応する幅を有する視差探索範囲を設定することが可能となる。
For example, the graph shown in FIG. 8 may be made into a table or function, and the width of the parallax search range corresponding to the acquired distance information may be derived by referring to the table or function. According to this configuration, the parallax search
以下、本実施形態に係る情報処理装置130によるステレオ画像処理の流れについて説明する。
The flow of stereo image processing by the
図12は、本実施形態に係る情報処理装置130によるステレオ画像処理の流れを示すフローチャートである。なお、ステップS1001~ステップS1005、S1010~S1014までの処理は、図10を用いて説明したステレオ画像処理のステップS1001~ステップS1005、S1010~S1014までの処理と同じであるため、ここでは説明を省略する。
FIG. 12 is a flow chart showing the flow of stereo image processing by the
ステップS1201では、視差探索範囲選択部402が、ステップS1005において取得された距離情報に対応する幅を有する視差探索範囲を導出し、視差演算部420に設定する。
In step S<b>1201 , the parallax search
これにより、ステップS1011では、距離情報に対応する幅を有する視差探索範囲を用いて、視差探索を行うことが可能となる。 Accordingly, in step S1011, parallax search can be performed using a parallax search range having a width corresponding to the distance information.
[第3の実施形態]
上記第1及び第2の実施形態では、視差探索範囲の幅を変更するにあたり、視差探索の開始点を固定し、視差探索範囲の終了点を変更する構成としたが、本発明はこれに限定されない。
[Third embodiment]
In the above first and second embodiments, when changing the width of the parallax search range, the starting point of the parallax search is fixed and the end point of the parallax search range is changed, but the present invention is limited to this. not.
例えば、図13(a)に示すように、視差探索範囲の終了点(Db)を固定し、視差探索範囲の開始点(Da)を変更する構成としてもよい。 For example, as shown in FIG. 13A, the configuration may be such that the end point (Db) of the parallax search range is fixed and the start point (Da) of the parallax search range is changed.
あるいは、図13(b)に示すように、視差探索範囲の幅、視差探索範囲の開始点(Da)、終了点(Db)をすべて変更する構成としてもよい。 Alternatively, as shown in FIG. 13B, the width of the parallax search range, the start point (Da), and the end point (Db) of the parallax search range may all be changed.
[第4の実施形態]
上記第1乃至第3の実施形態では、視差演算システム100を車載用に適用した場合について説明したが、本発明はこれに限定されない。例えば、FA(Factory Automation)用に適用し、生産工場内において搬送される生産物等をピッキングする際の、ピッキング対象までの距離を算出するのに用いるようにしてもよい。以下、本実施形態の詳細について説明する。
[Fourth embodiment]
In the first to third embodiments described above, the case where the
<1.視差演算システムを構成するレーザレーダ測距部及び撮像部の配置>
はじめに、本実施形態に係る視差演算システム100をFA用に適用した場合の、レーザレーダ測距部110及び撮像部121、122の配置例について説明する。図14は、視差演算システム100をFA用に適用した場合の、レーザレーダ測距部110及び撮像部121、122の配置例を示す図である。
<1. Arrangement of Laser Radar Ranging Unit and Imaging Unit Constituting Parallax Calculation System>
First, an arrangement example of the laser
図14に示すように、レーザレーダ測距部110は、撮像部121、122の間に配置され、生産物(例えば、金属製のパイプ)1400が搬送されるベルトコンベア1410の上部に配置される。なお、撮像部121、122は、ベルトコンベア1410により搬送される生産物1400が撮影されるように撮影範囲が調整されているものとする。また、レーザレーダ測距部110は、レーザ光が当該生産物1400に照射されるように調整されているものとする。
As shown in FIG. 14, the laser
<2.オブジェクトの配置と視差との関係、ならびに視差探索範囲の設定方法>
次に、撮影画像内においてオブジェクト画像として描画されたオブジェクト(生産物1400)の配置と、視差との関係、ならびに視差探索範囲の設定方法について説明する。図15は、撮像部121により撮影された撮影画像(参照画像)1510と撮像部122により撮影された撮影画像(基準画像)1520とを示す図である。
<2. Relationship Between Object Arrangement and Parallax, and Method for Setting Parallax Search Range>
Next, the relationship between the placement of the object (product 1400) rendered as the object image in the captured image and the parallax, and the method of setting the parallax search range will be described. FIG. 15 shows a captured image (reference image) 1510 captured by the
図15において、撮影画像1510内において描画されているオブジェクト画像(生産物画像1411)は、撮影画像1520内において描画されているオブジェクト画像(生産物画像1421)に対応しているものとする。また、撮影画像1510内において描画されているオブジェクト画像(生産物画像1412)は、撮影画像1520内において描画されているオブジェクト画像(生産物画像1422)に対応しているものとする。
In FIG. 15, it is assumed that the object image (product image 1411) drawn in the captured
つまり、図15の例では、生産物画像1411内の点1511と、生産物画像1421の点1521とが同一点となる。また、生産物画像1412内の点1512と、生産物画像1422内の点1522とが同一点となる。換言すると、撮影画像1510と撮影画像1520の各同一点の画素は、生産物1400の搬送方向にd2だけずれている(視差d2を有している)。
That is, in the example of FIG. 15, the
ここで、ベルトコンベア1410上の生産物1400は、同じ材質及び同じ形状を有しており、互いに連なって搬送される。このため、図15に示すように、例えば、撮影画像1520内において描画されている生産物画像1422の左側には、同じ材質及び同じ形状の生産物画像1421が描画されることとなる。
Here, the
このため、視差d2が大きい場合、例えば、点1512の同一点である点1522を探索するにあたり、視差探索範囲の開始点をシフト量=ゼロのシフト位置とすると、誤って点1521が同一点として抽出されることとなる。
Therefore, when the parallax d2 is large, for example, when searching for a
本実施形態では、かかる事態を回避すべく、距離情報取得部401において取得された生産物1400までの距離を示す距離情報に基づいて視差探索範囲を設定する処理を、以下の手順に従って行うこととした。
1)距離情報取得部401において取得された距離情報Zと、基線長(撮像部121、122の光軸間距離)Bと、撮像部121、122のカメラレンズの焦点距離fとを用いて、式1により視差(同一点のシフト量)を算出する。
2)視差探索範囲の幅を、隣接する生産物間の距離よりも短い固定値に設定する。
3)上記2)で設定した幅を有し、上記1)で算出したシフト量により特定されるシフト位置の画素を含むように視差探索範囲の開始点、終了点を決定する。
In this embodiment, in order to avoid such a situation, the process of setting the parallax search range based on the distance information indicating the distance to the
1) Using the distance information Z acquired by the distance
2) Set the width of the parallax search range to a fixed value smaller than the distance between adjacent products.
3) Determine the start point and end point of the parallax search range so as to have the width set in 2) above and include the pixel at the shift position specified by the shift amount calculated in 1) above.
図16(a)は、上記手順に従って設定された視差探索範囲1600を示す図である。図16(a)に示すように、距離情報に基づいて点1522の視差としてd2が算出され、視差探索範囲の幅としてWが設定されることで、開始点Da2及び終了点Db2が決定される。これにより、隣接する生産物画像1421の点1521を、視差探索範囲外とすることができる。
FIG. 16(a) is a diagram showing a
図17(a)は、図16(a)に示す視差探索範囲1600を用いて視差探索を行った様子を示した図であり、各シフト位置における類似度と視差探索範囲1600との関係を示している。
FIG. 17A is a diagram showing how parallax search is performed using the
図17(a)の例では、点1521と点1522に対応するシフト位置が極小点となるため、2つの視差候補(視差候補1及び視差候補2)が存在するが、視差探索範囲1600が設定されることで、視差候補2のみを抽出することができる。
In the example of FIG. 17A, since the shift positions corresponding to
一方、図16(b)は、上記処理との比較のため、視差探索範囲の開始点を固定し、距離情報取得部401において取得された距離情報に応じた幅を有する視差探索範囲を選択した場合の視差探索範囲を示した図である。
On the other hand, in FIG. 16B, for comparison with the above processing, the starting point of the parallax search range is fixed, and a parallax search range having a width corresponding to the distance information acquired by the distance
図16(b)に示すように、視差探索範囲の開始点Da1を固定にしたまま、視差探索範囲の幅をW2にすると、視差探索範囲の終了点はDb1となり、視差探索範囲内に、点1521及び点1522の両方が含まれることとなる。
As shown in FIG. 16B, if the width of the parallax search range is set to W2 while the start point Da1 of the parallax search range is fixed, the end point of the parallax search range becomes Db1, and a point Db1 is set within the parallax search range. Both 1521 and
図17(b)は、図16(b)に示す視差探索範囲1610を用いて視差探索を行った様子を示した図であり、各シフト位置における類似度と視差探索範囲1610との関係を示している。
FIG. 17B is a diagram showing how parallax search is performed using the
図17(b)に示すように、距離情報に応じた幅を有する視差探索範囲を選択すると、視差探索範囲1610に2つの視差候補(視差候補1及び視差候補2)が存在することとなり、視差候補1(点1521)が誤って抽出される可能性があることがわかる。
As shown in FIG. 17B, when a parallax search range having a width corresponding to the distance information is selected, two parallax candidates (
<3.まとめ>
以上の説明から明らかなように、本実施形態に係る視差演算システム100では、
・レーザ光の投受光により取得された距離情報に基づいて、撮影画像間の視差を逆算することで、視差探索すべきシフト位置を算出する構成とした。
・幅が固定された視差探索範囲に、算出したシフト位置の画素が含まれるように、視差探索範囲の開始点及び終了点を決定する構成とした。
<3. Summary>
As is clear from the above description, in the
A shift position for parallax search is calculated by back-calculating the parallax between the captured images based on the distance information acquired by projecting and receiving the laser light.
The start point and end point of the parallax search range are determined so that the pixels at the calculated shift positions are included in the parallax search range whose width is fixed.
これにより、同じ材質及び同じ形状を有するオブジェクトが隣接して配置された状態で撮影された撮影画像について視差演算を行う場合であっても、誤った視差候補を抽出するといった事態を回避することが可能となる。この結果、視差演算の精度向上を図ることが可能となる。 This makes it possible to avoid extracting an erroneous parallax candidate even when parallax calculation is performed on captured images in which objects having the same material and the same shape are arranged adjacent to each other. It becomes possible. As a result, it is possible to improve the accuracy of parallax calculation.
[第5の実施形態]
上記各実施形態では、視差演算の詳細な手法について特に言及しなかったが、視差演算の手法は、任意の方法を用いることができる。
[Fifth embodiment]
In each of the above-described embodiments, no particular reference was made to the detailed method of parallax calculation, but any method can be used as the method of parallax calculation.
例えば、EBM(Edge-Based Matching)のようにテクスチャの強い部分(エッジの強い部分)について視差を演算する方法であってもよい。あるいは、サブピクセル推定手法(等角直線、パラボラ、高次多項式等によるフィッティング)を用いることで、撮影画像全体の各画素の視差を演算する方法であってもよい。なお、サブピクセル推定手法とは、SGM(Semi Global Matching)のように各ピクセル周囲からマッチング指標値を漸化式により伝播させ、最小の指標値を与える整数視差とそれに隣接する視差の指標値から小数視差を算出する手法である。 For example, a method such as EBM (Edge-Based Matching) that calculates parallax for portions with strong textures (portions with strong edges) may be used. Alternatively, a method of calculating the parallax of each pixel in the entire photographed image by using a sub-pixel estimation method (fitting by equiangular straight lines, parabolas, high-order polynomials, etc.) may be used. In addition, the sub-pixel estimation method propagates the matching index value from around each pixel by a recurrence formula like SGM (Semi Global Matching), and from the integer disparity that gives the minimum index value and the disparity index value adjacent to it This is a method of calculating decimal parallax.
また、上記各実施形態では、レーザレーダ測距部110よりレーザ光を出射した場合の反射光に基づいて距離情報を算出する構成としたが本発明はこれに限定されない。レーザレーダ測距部以外の電磁波測距部より電磁波を照射した場合の反射波に基づいて、距離情報を算出する構成としてもよい。
Further, in each of the above-described embodiments, the distance information is calculated based on the reflected light when the laser beam is emitted from the laser radar
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 It should be noted that the present invention is not limited to the configurations shown here, such as combinations with other elements, to the configurations listed in the above embodiments. These points can be changed without departing from the gist of the present invention, and can be determined appropriately according to the application form.
100 :視差演算システム
110 :レーザレーダ測距部
120 :ステレオ撮像部
121、122 :撮像部
130 :情報処理装置
310 :視差画像生成部
401 :距離情報取得部
402 :視差探索範囲選択部
403 :撮影画像取得部
404 :撮影画像補正部
405 :視差演算部
100: parallax calculation system 110: laser radar ranging unit 120:
Claims (4)
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得手段と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定手段と、
前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得手段により取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定手段と
を有することを特徴とする情報処理装置。 An information processing device that performs parallax calculation based on captured images captured by a plurality of imaging units,
acquisition means for acquiring distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. Determination means for determining whether or not
if the determining means does not determine that the pixel is a pixel of the object image other than the pixel corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When the determination means determines that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, the distance to the object acquired by the acquisition means and the distance to the object acquired by the acquisition means and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and setting means for setting a start point and an end point of the parallax search range as fixed values shorter than a distance between objects .
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得手段と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定手段と、
前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定手段により照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得手段により取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定手段と
を有することを特徴とする視差演算システム。 A parallax calculation system having a plurality of imaging units, an electromagnetic wave ranging unit, and an information processing device that performs parallax calculation based on images captured by the plurality of imaging units,
acquisition means for acquiring distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. Determination means for determining whether or not
if the determining means does not determine that the pixel is a pixel of the object image other than the pixel corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When the determination means determines that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, the distance to the object acquired by the acquisition means and the distance to the object acquired by the acquisition means and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and setting means for setting a start point and an end point of the parallax search range as fixed values shorter than a distance between objects .
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得工程と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定工程と、
前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得工程において取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定工程と
を有することを特徴とする情報処理方法。 An information processing method in an information processing device that performs parallax calculation based on captured images captured by a plurality of imaging units,
an obtaining step of obtaining distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. A determination step of determining whether or not
if it is not determined in the determination step that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When it is determined in the determination step that the pixels of the object image are other than the pixels corresponding to the irradiation range, the parallax range in the parallax calculation is the distance to the object acquired in the acquisition step, and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and a setting step of setting a start point and an end point of the parallax search range as fixed values shorter than a distance between objects .
前記複数の撮像部の撮影方向に向けて電磁波を出射した場合の反射波に基づいて算出された、該撮影方向のオブジェクトまでの距離を示す距離情報を取得する取得工程と、
前記視差演算を行う対象となる注目画素が、前記電磁波が照射された前記オブジェクトが描画されている前記撮影画像内のオブジェクト画像の画素のうち、照射範囲に対応する画素以外の前記オブジェクト画像の画素であるか否かを判定する判定工程と、
前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定されなかった場合には、前記視差演算における視差範囲として、基準距離に対応する視差探索範囲の設定を維持し、前記判定工程において照射範囲に対応する画素以外の前記オブジェクト画像の画素であると判定された場合には、前記視差演算における視差範囲として、前記取得工程において取得された前記オブジェクトまでの距離と、前記複数の撮像部の光軸間距離とに基づいて算出される前記撮影画像の視差に対応する位置の画素が、前記視差探索範囲に含まれるように、かつ、前記視差探索範囲の幅を、隣接するオブジェクト間の距離よりも短い固定値として、前記視差探索範囲の開始点及び終了点を設定する設定工程と
を実行させるためのプログラム。 In the computer of the information processing device that performs parallax calculation based on the captured images captured by a plurality of imaging units,
an obtaining step of obtaining distance information indicating a distance to an object in the imaging direction calculated based on reflected waves when electromagnetic waves are emitted toward the imaging direction of the plurality of imaging units;
Pixels of interest for which the parallax calculation is performed are pixels of the object image other than pixels corresponding to the irradiation range, among the pixels of the object image in the captured image in which the object irradiated with the electromagnetic wave is drawn. A determination step of determining whether or not
if it is not determined in the determination step that the pixels of the object image are pixels other than the pixels corresponding to the irradiation range, maintaining the setting of the parallax search range corresponding to the reference distance as the parallax range in the parallax calculation; When it is determined in the determination step that the pixels of the object image are other than the pixels corresponding to the irradiation range, the parallax range in the parallax calculation is the distance to the object acquired in the acquisition step, and the The width of the parallax search range is set so that the pixels at the positions corresponding to the parallax of the captured image calculated based on the distance between the optical axes of the plurality of imaging units are included in the parallax search range. and a setting step of setting a start point and an end point of the parallax search range as fixed values shorter than the distance between the objects .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075435A JP7243671B2 (en) | 2020-04-21 | 2020-04-21 | Parallax calculation system, information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075435A JP7243671B2 (en) | 2020-04-21 | 2020-04-21 | Parallax calculation system, information processing device, information processing method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018158016A Division JP2018205325A (en) | 2018-08-27 | 2018-08-27 | Parallax calculation system, information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020118697A JP2020118697A (en) | 2020-08-06 |
JP7243671B2 true JP7243671B2 (en) | 2023-03-22 |
Family
ID=71890994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020075435A Active JP7243671B2 (en) | 2020-04-21 | 2020-04-21 | Parallax calculation system, information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7243671B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006323693A (en) | 2005-05-19 | 2006-11-30 | Olympus Corp | Processor, and method and program for processing image |
JP2009047495A (en) | 2007-08-17 | 2009-03-05 | Fujifilm Corp | Stereoscopic imaging device, control method of stereoscopic imaging device, and program |
JP2010048553A (en) | 2006-12-19 | 2010-03-04 | Panasonic Corp | Inspecting method of compound-eye distance measuring device and chart used for same |
JP2011013064A (en) | 2009-07-01 | 2011-01-20 | Nikon Corp | Position detection device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3562250B2 (en) * | 1997-07-29 | 2004-09-08 | 日産自動車株式会社 | Leading vehicle detection device |
-
2020
- 2020-04-21 JP JP2020075435A patent/JP7243671B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006323693A (en) | 2005-05-19 | 2006-11-30 | Olympus Corp | Processor, and method and program for processing image |
JP2010048553A (en) | 2006-12-19 | 2010-03-04 | Panasonic Corp | Inspecting method of compound-eye distance measuring device and chart used for same |
JP2009047495A (en) | 2007-08-17 | 2009-03-05 | Fujifilm Corp | Stereoscopic imaging device, control method of stereoscopic imaging device, and program |
JP2011013064A (en) | 2009-07-01 | 2011-01-20 | Nikon Corp | Position detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2020118697A (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7720277B2 (en) | Three-dimensional-information reconstructing apparatus, method and program | |
JP5503578B2 (en) | Object detection apparatus and object detection method | |
JP5632762B2 (en) | POSITIONING INFORMATION FORMING DEVICE, DETECTING DEVICE, AND POSITIONING INFORMATION FORMING METHOD | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
US7471809B2 (en) | Method, apparatus, and program for processing stereo image | |
US8718326B2 (en) | System and method for extracting three-dimensional coordinates | |
KR101815407B1 (en) | Parallax operation system, information processing apparatus, information processing method, and recording medium | |
JP6668594B2 (en) | Parallax calculation system, information processing device, information processing method, and program | |
US9704218B2 (en) | Image processing device and method, and program | |
JP2011013064A (en) | Position detection device | |
US11803982B2 (en) | Image processing device and three-dimensional measuring system | |
WO2014108976A1 (en) | Object detecting device | |
JP2015158394A (en) | Parallax calculation system, information processing device, information processing method and program | |
CN113610741A (en) | Point cloud processing method and device based on laser line scanning | |
Wang et al. | Real-time dense 3d mapping of underwater environments | |
JP2008090583A (en) | Information processing system, program, and information processing method | |
TWI528783B (en) | Methods and systems for generating depth images and related computer products | |
US11348271B2 (en) | Image processing device and three-dimensional measuring system | |
JP2001194126A (en) | Apparatus and method for measuring three-dimensional shape and program providing medium | |
US10713807B2 (en) | Vicinity supervising device and vicinity supervising method of vehicle | |
JP2016099318A (en) | Stereo matching device, stereo matching program, and stereo matching method | |
JP7243671B2 (en) | Parallax calculation system, information processing device, information processing method and program | |
JP2009092551A (en) | Method, apparatus and system for measuring obstacle | |
JP6241083B2 (en) | Imaging apparatus and parallax detection method | |
JP2018205325A (en) | Parallax calculation system, information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230220 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7243671 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |