JP7066580B2 - Image processing equipment - Google Patents
Image processing equipment Download PDFInfo
- Publication number
- JP7066580B2 JP7066580B2 JP2018168862A JP2018168862A JP7066580B2 JP 7066580 B2 JP7066580 B2 JP 7066580B2 JP 2018168862 A JP2018168862 A JP 2018168862A JP 2018168862 A JP2018168862 A JP 2018168862A JP 7066580 B2 JP7066580 B2 JP 7066580B2
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image processing
- stereo camera
- pixel
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Description
本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.
一対のカメラを有するステレオカメラで撮影されたステレオ画像に基づき、カメラ視野内に存在する物体までの距離を三角測量の原理で計測する位置測定装置が知られている。三角測量の原理とはすなわち、左右のカメラによって撮影された同一の物体の像の位置のずれ(視差)を用いて、カメラからその物体までの距離を算出するものである。視差の導出は、物体の一方の画像上における像が、他方の画像上のどこに存在するかを特定することによって実現する。 A position measuring device for measuring the distance to an object existing in the field of view of a camera based on a stereo image taken by a stereo camera having a pair of cameras by the principle of triangulation is known. The principle of triangulation is to calculate the distance from the camera to the object by using the positional deviation (parallax) of the images of the same object taken by the left and right cameras. Parallax derivation is achieved by identifying where an image on one image of an object is on the other image.
視差の導出としては様々な手法が提案されている。古典的手法では、一方の画像中の複数画素からなる領域に対して、他方の画像中で最も非類似度の低い領域を探索するブロックマッチングが知られている。さらにマッチングの過程で画像中の局所的な情報のみならず画像全体の情報を含めることにより、ミスマッチングを減らして精度を高める手法として、例えばSGM(Semi-Global Matching)と呼ばれる手法なども提案されている。こうした手法では、高い精度が見込める一方で、古典的手法に比べて計算量が増大するという課題がある。 Various methods have been proposed for deriving parallax. In the classical method, block matching is known in which a region consisting of a plurality of pixels in one image is searched for a region having the lowest dissimilarity in the other image. Furthermore, as a method of reducing mismatching and improving accuracy by including not only local information in the image but also information of the entire image in the matching process, for example, a method called SGM (Semi-Global Matching) has been proposed. ing. While such a method can be expected to have high accuracy, there is a problem that the amount of calculation increases as compared with the classical method.
ステレオカメラを用いた視差の計算における計算量の抑制に関して、例えば特許文献1に記載の技術が知られている。特許文献1には、障害物までの距離をステレオ画像による視差算出で計測する障害物計測方法であって、低解像度画像により求めた距離情報に基づいて、高解像度画像における前記視差算出のための相関演算の対象となる画素のサンプリング間隔を近距離において大きく遠距離において小さく設定することを特徴とする障害物計測方法が開示されている。 For example, the technique described in Patent Document 1 is known for suppressing the amount of calculation in the calculation of parallax using a stereo camera. Patent Document 1 is an obstacle measuring method for measuring the distance to an obstacle by parallax calculation using a stereo image, and is used for calculating the misalignment in a high-resolution image based on the distance information obtained from the low-resolution image. Disclosed is an obstacle measuring method characterized in that the sampling interval of a pixel to be a target of a correlation calculation is set to be large at a short distance and small at a long distance.
特許文献1の方法では、適切なサンプリング間隔を設定することで必要な領域のみ高精度な距離情報を取得でき、また、不必要な演算を抑制でき、必要な領域のみ高精度な距離情報を取得できるとともに、演算時間の短縮、装置の回路規模の削減を実現できるとしている。しかしながら、低解像度画像と高解像度画像から視差をそれぞれ算出する必要があるため、全体の計算量をあまり低減することができず、計算量の抑制に関してさらなる改善の余地がある。 In the method of Patent Document 1, by setting an appropriate sampling interval, highly accurate distance information can be acquired only in a necessary area, unnecessary calculation can be suppressed, and highly accurate distance information can be acquired only in a necessary area. At the same time, it is possible to shorten the calculation time and reduce the circuit scale of the device. However, since it is necessary to calculate the parallax from the low-resolution image and the high-resolution image, the total amount of calculation cannot be reduced so much, and there is room for further improvement in suppressing the amount of calculation.
本発明による画像処理装置は、ステレオカメラにより撮影されたステレオカメラ画像に基づいて視差を算出するものであって、前記ステレオカメラ画像の各画素に対して、当該画素に対応する複数の計算対象画素を決定するための条件を設定する条件設定部と、前記条件設定部により設定された条件に基づいて、前記ステレオカメラ画像の各画素に対して前記複数の計算対象画素を決定し、前記複数の計算対象画素の情報を用いて前記ステレオカメラ画像の画素ごとに前記視差を算出する視差算出部と、を備え、前記視差算出部は、前記ステレオカメラ画像の各画素の画素値と、当該画素に対応する前記複数の計算対象画素の各画素値とを平均化する平滑化計算を実施し、前記平滑化計算を実施した前記ステレオカメラ画像の各画素に対して非類似度の計算を実施し、前記非類似度の計算結果に基づいて前記視差を算出する。 The image processing device according to the present invention calculates the disparity based on the stereo camera image taken by the stereo camera , and for each pixel of the stereo camera image, a plurality of calculation target pixels corresponding to the pixel. Based on the condition setting unit for setting the condition for determining the condition and the condition set by the condition setting unit, the plurality of calculation target pixels are determined for each pixel of the stereo camera image, and the plurality of calculation target pixels are determined. The stereo camera image is provided with a parallax calculation unit that calculates the parallax for each pixel of the stereo camera image using the information of the calculation target pixel, and the parallax calculation unit includes the pixel value of each pixel of the stereo camera image and the pixel. A smoothing calculation is performed to average each pixel value of the corresponding plurality of calculation target pixels, and a dissimilarity calculation is performed for each pixel of the stereo camera image in which the smoothing calculation is performed. The difference is calculated based on the calculation result of the dissimilarity .
本発明によれば、視差の計算に要する計算量を抑制することができる。 According to the present invention, the amount of calculation required for parallax calculation can be suppressed.
(基本構成)
始めに、本発明の実施形態の基本構成について説明する。図1は、本発明の一実施形態に係る画像処理装置の基本構成を示すブロック図である。図1に示す画像処理装置10は、カメラ20およびプロセッサ30と接続されており、条件設定部101および視差算出部102を備える。画像処理装置10は、例えば車両に搭載されることで、車両周囲に存在する他車両や障害物等の物体を検知および認識するのに利用される。
(Basic configuration)
First, the basic configuration of the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a basic configuration of an image processing apparatus according to an embodiment of the present invention. The
カメラ20は、左右に所定間隔を空けて設置されたステレオカメラであり、左右一対のステレオカメラ画像を撮影してその撮影データを画像処理装置10に出力する。画像処理装置10は、カメラ20から入力された撮影データに基づいて、視差算出部102によりステレオカメラ画像における視差を算出する。このとき視差算出部102は、条件設定部101により設定される条件に基づいて、ステレオカメラ画像の中で計算対象画素を決定し、その計算対象画素の情報を用いて、例えばSGMと呼ばれる演算手法により視差を算出する。なお、SGM以外の演算手法を用いて視差の算出を行ってもよい。
The
視差算出部102による視差の算出結果は、画像処理装置10からプロセッサ30へ出力される。プロセッサ30は、画像処理装置10から入力された視差の情報を用いて、物体検知や物体認識などの処理を実行する。
The parallax calculation result by the
続いて、上記の基本構成を用いた本発明の各実施形態について説明する。 Subsequently, each embodiment of the present invention using the above basic configuration will be described.
(第1の実施形態)
図2は、本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。図2に示すように、本実施形態に係る画像処理装置10は、FPGA11およびメモリ12を備える。FPGA11は、多数の論理回路を組み合わせて構成された演算処理装置であり、その機能として、図1で説明した条件設定部101および視差算出部102を有している。なお、FPGA11以外のもの、例えばASIC等の他の論理回路や、CPUで実行されるソフトウェア等を利用して、画像処理装置10において条件設定部101および視差算出部102を実装してもよい。メモリ12は、RAMやHDD、フラッシュメモリ等の読み書き可能な記録媒体を用いて構成された記憶装置であり、その機能として、ステレオカメラ撮影画像保存部103および視差画像保存部104を有する。
(First Embodiment)
FIG. 2 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention. As shown in FIG. 2, the
カメラ20から画像処理装置10に入力されたステレオカメラ画像を表す撮影データは、フレーム単位でメモリ12内のステレオカメラ撮影画像保存部103に格納される。FPGA11内の視差算出部102は、ステレオカメラ撮影画像保存部103から各フレームのステレオカメラ画像の画素データを読み出し、これを用いて視差の演算を行うことで、画素単位で視差を表した視差画像をフレームごとに生成する。視差算出部102が生成した視差画像は、プロセッサ30へ出力されるとともに、メモリ102内の視差画像保存部104に格納される。
The shooting data representing the stereo camera image input from the
視差算出部102は、ステレオカメラ画像を用いた視差の演算において、平滑化計算および非類似度の計算を実施する。平滑化計算とは、ステレオカメラ画像内の各画素の画素値を、その周囲にある複数の画素の画素値と合わせて平滑化(平均化)することで、画素間の画素値の変動を滑らかにする演算処理のことである。非類似度の計算とは、ステレオカメラ画像の一方に映っている物体と他方の画像に映っている物体とが同一物ではないことの確からしさ、すなわちどの程度かけ離れているかを表す非類似度を求める演算処理のことである。
The
本実施形態では、条件設定部101はライン数決定部111を有している。ライン数決定部111は、前フレームのステレオカメラ画像から視差算出部102が生成して視差画像保存部104に格納された視差画像を読み出し、その視差画像に基づいて、視差算出部102が実施する平滑化処理において用いられるスキャンラインの数を決定する。すなわち、本実施形態のライン数決定部111は、過去に視差算出部102により算出された視差に基づいて、現フレームのステレオカメラ画像をスキャンするスキャンラインの数を決定する。そして、決定したスキャンラインの数を視差算出部102に通知する。本実施形態における条件設定部101は、このようにしてライン数決定部111により決定されたスキャンラインの数を通知することで、視差算出部102に対する条件設定を行う。
In the present embodiment, the
ライン数決定部111からスキャンライン数の通知が行われると、視差算出部102は、ステレオカメラ撮影画像保存部103から読み出した現フレームのステレオカメラ画像に対して、画素ごとに通知された数のスキャンラインを設定する。そして、設定した各スキャンライン上にあるステレオカメラ画像の画素を計算対象画素として、平滑化計算を実施する。その後、平滑化計算後のステレオカメラ画像に対して非類似度の計算を画素ごとに実施し、その計算結果に基づいて、各画素の視差を演算する。こうして得られた画素単位の視差の算出結果を、視差算出部102は視差画像としてプロセッサ30へ出力するとともに、視差画像保存部104に格納する。
When the number of scan lines is notified from the line
図3は、本発明の第1の実施形態に係る画像処理装置における視差計算のアルゴリズムを示すフローチャートである。図3のフローチャートに示す視差計算は、カメラ20によって新たに撮影されたステレオカメラ画像が現フレームのステレオカメラ画像としてステレオカメラ撮影画像保存部103に格納されると、FPGA11において実施される。
FIG. 3 is a flowchart showing an algorithm for parallax calculation in the image processing apparatus according to the first embodiment of the present invention. The disparity calculation shown in the flowchart of FIG. 3 is performed in the
ステップS10において、視差算出部102は、ステレオカメラ撮影画像保存部103から現フレームのステレオカメラ画像を読み出し、画面端にある画素から順に選択する。
In step S10, the
ステップS20において、ライン数決定部111は、前フレームで視差算出部102が算出した視差画像のうち、ステップS10で選択された画素の視差を視差画像保存部104から読み出して参照する。
In step S20, the line
ステップS30において、ライン数決定部111は、ステップS20で参照した視差が所定の閾値dthよりも大きいか否かを判定する。視差が閾値dthよりも大きい場合はステップS40に進み、閾値dth以下の場合はステップS50に進む。
In step S30, the line
ステップS40において、ライン数決定部111は、ステップS10で選択された画素は近距離の像に対応すると判断し、当該画素に対するスキャンラインの数を少なく設定する。本実施形態では、例えばスキャンラインの数を4本に決定する。
In step S40, the line
ステップS50において、ライン数決定部111は、ステップS10で選択された画素は遠距離の像に対応すると判断し、当該画素に対するスキャンラインの数を多く設定する。本実施形態では、例えばスキャンラインの数を8本に決定する。
In step S50, the line
ステップS40またはS50でライン数決定部111によりスキャンラインの数が決定されたら、ステップS60において視差算出部102は、ステップS10で選択した画素に対して、決定されたスキャンライン数に基づく視差の演算を行う。ここでは、決定されたスキャンライン数による平滑化計算を当該画素に対して行うとともに、非類似度の最適化を行い、視差を算出する。これにより、現フレームのステレオカメラ画像における視差が画素単位で算出される。
When the number of scan lines is determined by the line
ステップS70において、視差算出部102は、全画素に対する演算が終了したか否かを判定する。まだ演算を実施していない画素がある場合はステップS10に戻って次の画素を選択した後、上記の処理を繰り返す。全画素に対する演算を終了した場合は、得られた現フレームの視差画像を視差画像保存部104に格納した後、図3のフローチャートに示す視差計算を終了する。
In step S70, the
なお、上記ステップS40、S50では、設定するスキャンライン数の数を4本、8本としてそれぞれ例示したが、これらは一例であり、本発明を限定するものではない。また、ステップS30の判定に用いられる閾値dthに複数の値を設定し、前フレームで求められた視差とそれぞれ比較することで、3種類以上のスキャンライン数を設定できるようにしてもよい。いずれの場合でも、前フレームで求められた視差の値が小さいほど、像までの距離が遠いと判断してスキャンラインの数を増大させるようにすることが好ましい。 In steps S40 and S50, the number of scan lines to be set is illustrated as 4 and 8, respectively, but these are examples and do not limit the present invention. Further, by setting a plurality of values for the threshold value dth used for the determination in step S30 and comparing them with the parallax obtained in the previous frame, it is possible to set the number of three or more types of scan lines. In any case, it is preferable to increase the number of scan lines by determining that the distance to the image is longer as the parallax value obtained in the previous frame is smaller.
(第2の実施形態)
次に本発明の第2の実施形態について説明する。本実施形態では、ライン数決定部111においてスキャンラインの数を決定する際に、プロセッサ30で行われた物体検知の結果に基づく領域ごとの距離レンジを利用する例を説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described. In this embodiment, an example of using a distance range for each region based on the result of object detection performed by the
図4は、本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。図4に示すように、本実施形態に係る画像処理装置10は、図2で説明した第1の実施形態と比べて、メモリ12に視差画像保存部104が設けられていない点と、プロセッサ30から出力された領域情報がライン数決定部111へ入力される点が異なっている。この領域情報は、プロセッサ30で行われた物体検知の結果に基づいて物体毎に設定される情報であり、当該物体がステレオカメラ画像内のどの領域に対応するかを表す情報と、当該物体までの距離が近距離と遠距離のどちらの距離レンジに分類されるかを表す情報とを含んでいる。
FIG. 4 is a block diagram showing a configuration of an image processing apparatus according to a second embodiment of the present invention. As shown in FIG. 4, the
本実施形態において、ライン数決定部111は、前フレームのステレオカメラ画像から計算された視差に応じてプロセッサ30から出力される領域情報を入力し、その領域情報における領域ごとの距離レンジの情報に基づいて、視差算出部102が実施する平滑化処理において用いられるスキャンラインの数を決定する。すなわち、本実施形態のライン数決定部111は、過去に視差算出部102により算出された視差に基づき判定された距離レンジの情報を取得し、取得した距離レンジの情報に基づいて、スキャンラインの数を決定する。これ以外の点では、第1の実施形態と同様である。
In the present embodiment, the line
図5は、本発明の第2の実施形態に係る画像処理装置における視差計算のアルゴリズムを示すフローチャートである。図5のフローチャートに示す視差計算は、カメラ20によって新たに撮影されたステレオカメラ画像が現フレームのステレオカメラ画像としてステレオカメラ撮影画像保存部103に格納されると、FPGA11において実施される。
FIG. 5 is a flowchart showing an algorithm for parallax calculation in the image processing apparatus according to the second embodiment of the present invention. The disparity calculation shown in the flowchart of FIG. 5 is performed in the
ステップS10Aにおいて、ライン数決定部111は、前フレームのステレオカメラ画像に対する視差に基づいてプロセッサ30が判定した領域ごとの距離レンジの判定結果を、プロセッサ30から読み込む。ここでは、プロセッサ30から出力される前述の領域情報を取得することで、前フレームのステレオカメラ画像から検知された各物体に対応する各領域の距離レンジが近距離と遠距離のどちらに該当するかを示す情報を読み込む。
In step S10A, the line
ステップS20Aにおいて、視差算出部102は、ステレオカメラ撮影画像保存部103から現フレームのステレオカメラ画像を読み出し、画面端にある画素から順に選択する。
In step S20A, the
ステップS30Aにおいて、ライン数決定部111は、ステップS10Aで読み込んだ前フレームでの距離レンジの判定結果のうち、ステップS20Aで選択した画素に対応する領域の距離レンジの判定結果に基づいて、当該画素に対して前フレームで検知された物体が近距離領域内にあったか否かを判定する。距離レンジの判定結果が近距離である場合は、当該物体が前フレームで近距離領域内にあったと判断してステップS40に進み、距離レンジの判定結果が遠距離である場合は、当該物体が前フレームで近距離領域内にはなかったと判断してステップS50に進む。
In step S30A, the line
ステップS40において、ライン数決定部111は、ステップS20Aで選択された画素は近距離の像に対応すると判断し、当該画素に対するスキャンラインの数を少なく設定する。本実施形態では、第1の実施形態と同様に、例えばスキャンラインの数を4本に決定する。
In step S40, the line
ステップS50において、ライン数決定部111は、ステップS20Aで選択された画素は遠距離の像に対応すると判断し、当該画素に対するスキャンラインの数を多く設定する。本実施形態では、第1の実施形態と同様に、例えばスキャンラインの数を8本に決定する。
In step S50, the line
ステップS40またはS50でライン数決定部111によりスキャンラインの数が決定されたら、視差算出部102はステップS60以降において、第1の実施形態で説明した図3のフローチャートと同様の処理をそれぞれ実施する。すなわち、ステップS60では、ステップS20Aで選択した画素に対して、決定されたスキャンライン数に基づく視差の演算を行い、ステップS70では、全画素に対する演算が終了したか否かを判定する。まだ演算を実施していない画素がある場合はステップS20Aに戻って次の画素を選択した後、上記の処理を繰り返す。全画素に対する演算を終了した場合は、図5のフローチャートに示す視差計算を終了する。
When the number of scan lines is determined by the line
なお、本実施形態でも第1の実施形態と同様に、ステップS40、S50でそれぞれ設定するスキャンラインの数は4本、8本に限定されない。また、プロセッサ30から出力される領域情報が表す各領域の距離レンジの分類数を3つ以上とすることで、3種類以上のスキャンライン数を設定できるようにしてもよい。いずれの場合でも、遠距離に存在する物体ほど、当該物体に対応する画素に対して設定するスキャンラインの数を増大させるようにすることが好ましい。
In this embodiment as well, as in the first embodiment, the number of scan lines set in steps S40 and S50 is not limited to four and eight, respectively. Further, by setting the number of classifications of the distance range of each area represented by the area information output from the
さらに、上記の説明ではスキャンライン数の決定に用いる情報として直前1フレームのステレオカメラ画像から求められた領域情報を用いる例を示したが、これは本発明を限定するものではない。例えば、前フレームと前々フレームのそれぞれの領域情報を元に、現フレームの領域情報を予測して用いることも可能である。また,画像処理装置10が搭載されている車両の走行情報、例えばステアリングの情報を元に、現フレームで予測される領域情報を補正することも可能である。
Further, in the above description, an example is shown in which the area information obtained from the stereo camera image of the immediately preceding frame is used as the information used for determining the number of scan lines, but this is not limited to the present invention. For example, it is also possible to predict and use the area information of the current frame based on the area information of each of the previous frame and the previous frame. Further, it is also possible to correct the area information predicted in the current frame based on the traveling information of the vehicle on which the
前述の第1の実施形態では、画素単位または画素周辺の画素群単位の視差情報に基づいてスキャンライン数を判断しているのに対して、本実施形態では、物体検知により求められた領域単位の距離レンジの情報を用いてスキャンライン数を判断している。そのため、第1の実施形態と比べて、より大域的な情報を元にスキャンライン数を判断できる効果がある。 In the above-mentioned first embodiment, the number of scan lines is determined based on the parallax information of the pixel unit or the pixel group unit around the pixel, whereas in the present embodiment, the area unit obtained by object detection is used. The number of scan lines is determined using the information in the distance range of. Therefore, as compared with the first embodiment, there is an effect that the number of scan lines can be determined based on more global information.
(第3の実施形態)
次に本発明の第3の実施形態について説明する。本実施形態では、ライン数決定部111においてスキャンラインの数を決定する際に、プロセッサ30で行われた物体検知の結果を利用する例を説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In this embodiment, an example of using the result of object detection performed by the
図6は、本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図である。図6に示すように、本実施形態に係る画像処理装置10は、図4で説明した第2の実施形態と比べて、プロセッサ30から出力された物体検知結果の情報がライン数決定部111へ入力される点が異なっている。この情報は、プロセッサ30で行われた物体検知の結果を表す情報であり、ステレオカメラ画像内のどの領域に対して物体が検知されたかを表す情報を含んでいる。
FIG. 6 is a block diagram showing a configuration of an image processing apparatus according to a third embodiment of the present invention. As shown in FIG. 6, in the
本実施形態において、ライン数決定部111は、前フレームのステレオカメラ画像から計算された視差に応じてプロセッサ30から出力される物体検知結果の情報を入力し、その情報に基づいて、視差算出部102が実施する平滑化処理において用いられるスキャンラインの数を決定する。例えば、既に検知済みの物体の像と判定した画素に対しては少ないライン数を採用し、物体検知済みでない像と判定した画素に対しては多いライン数を採用する。すなわち、本実施形態のライン数決定部111は、過去に視差算出部102により算出された視差に基づき検知された物体の情報を取得し、取得した物体の情報に基づいて、スキャンラインの数を決定する。これ以外の点では、第1、第2の実施形態と同様である。
In the present embodiment, the line
図7は、本発明の第3の実施形態に係る画像処理装置におけるスキャンライン数決定の例を示す図である。図7に示すように、前フレームで物体検知済みの車両の像901の領域内画素に対する視差計算では、遠距離であってもライン数911を少なく設定する。一方、前フレームの時点では物体検知されていない車両の像902に対しては、ライン数912を多く設定することで、より精度の高い視差計算を行うようにする。また、物体検知済みの路面903に対しては、より少ないライン数913を設定する。
FIG. 7 is a diagram showing an example of determining the number of scan lines in the image processing apparatus according to the third embodiment of the present invention. As shown in FIG. 7, in the parallax calculation for the pixels in the region of the
本実施形態では、前フレームでの物体検知の結果を用いてスキャンライン数を設定することで、過去に距離情報を得たことの無い像に対しては、より精度の高い視差計算を実施することができる。 In this embodiment, by setting the number of scan lines using the result of object detection in the previous frame, more accurate parallax calculation is performed for an image for which distance information has not been obtained in the past. be able to.
(第4の実施形態)
次に本発明の第4の実施形態について説明する。本実施形態では、ライン数決定部111においてスキャンラインの数を決定する際に、他のセンサで測定した距離情報を利用する例を説明する。
(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described. In this embodiment, an example of using the distance information measured by another sensor when determining the number of scan lines in the line
図8は、本発明の第4の実施形態に係る画像処理装置の構成を示すブロック図である。図8に示すように、本実施形態に係る画像処理装置10は、図4、6図でそれぞれ説明した第2、第3の実施形態と比べて、距離情報を取得可能なセンサの一例であるLIDAR(Light Detection And Ranging)40から出力された距離情報がライン数決定部111へ入力される点が異なっている。なお、図8のLIDAR40は距離情報を取得可能な他のセンサの一例であり、本発明ではこれに限定されない。他にも、例えば赤外線デプスセンサ、超音波センサ、ミリ波レーダー、他のカメラ映像などから出力される距離情報を利用してもよい。
FIG. 8 is a block diagram showing a configuration of an image processing apparatus according to a fourth embodiment of the present invention. As shown in FIG. 8, the
本実施形態において、ライン数決定部111は、カメラ20が撮影するステレオカメラ画像の範囲に対してLIDAR40から出力される距離情報を入力し、この距離情報に基づいて、第1の実施形態と同様に、視差算出部102が実施する平滑化処理において用いられるスキャンラインの数を決定する。すなわち、距離情報が表す各画素の距離を所定の閾値と比較して、距離が閾値よりも大きい画素に対してはスキャンラインの数を少なく設定し、距離が閾値以下の画素に対してはスキャンラインの数を多く設定する。これ以外の点では、第1~第3の実施形態と同様である。
In the present embodiment, the line
(第5の実施形態)
次に本発明の第5の実施形態について説明する。本実施形態では、第1~第4の実施形態で説明したライン数決定部111の代わりに、平滑化計算において間引く画素の割合を表す疎密度を決定する疎密度決定部112を有する画像処理装置の例を説明する。
(Fifth Embodiment)
Next, a fifth embodiment of the present invention will be described. In the present embodiment, instead of the line
図9は、本発明の第5の実施形態に係る画像処理装置の構成を示すブロック図である。図9に示すように、本実施形態に係る画像処理装置10は、図2で説明した第1の実施形態と比べて、FPGA11の条件設定部101がライン数決定部111の代わりに疎密度決定部112を有する点が異なっている。疎密度決定部112は、前フレームのステレオカメラ画像から視差算出部102が生成して視差画像保存部104に格納された視差画像を読み出し、その視差画像に基づいて、視差算出部102が実施する平滑化処理における疎密度を決定する。すなわち、本実施形態の疎密度決定部112は、過去に視差算出部102により算出された視差に基づいて、疎密度を決定する。そして、決定した疎密度を視差算出部102に通知する。本実施形態における条件設定部101は、このようにして疎密度決定部112により決定された疎密度を通知することで、視差算出部102に対する条件設定を行う。
FIG. 9 is a block diagram showing a configuration of an image processing apparatus according to a fifth embodiment of the present invention. As shown in FIG. 9, in the
疎密度決定部112から疎密度の通知が行われると、視差算出部102は、ステレオカメラ撮影画像保存部103から読み出した現フレームのステレオカメラ画像に対して、通知された疎密度に応じた割合で画素の間引きを行う。そして、間引かれなかった残りのステレオカメラ画像の画素を計算対象画素として、平滑化計算を実施する。その後は第1の実施形態と同様に、平滑化計算後のステレオカメラ画像に対して非類似度の計算を画素ごとに実施し、その計算結果に基づいて、画素ごとの視差を演算する。こうして得られた画素単位の視差の算出結果を、視差算出部102は視差画像としてプロセッサ30へ出力するとともに、視差画像保存部104に格納する。
When the sparse
図10は、本発明の第5の実施形態に係る画像処理装置において平滑化計算に用いられる画素の間引きの説明図である。図10(a)は、遠距離の像に対応する画素の平滑化計算で用いられる画素の例を示す図である。前フレームの視差画像で表された視差が小さく、そのため遠距離の像に対応すると判断された画素については、図10(a)に示すように、各スキャンライン上の画素を間引かずに、画像上の狭い範囲で密な平滑化演算が実施されるようにする。一方、図10(b)は、近距離の像に対応する画素の平滑化計算で用いられる画素の例を示す図である。前フレームの視差画像で表された視差が大きく、そのため近距離の像に対応すると判断された画素については、図10(b)に示すように、各スキャンライン上の画素を間引いて、画像上の広い範囲で少ない画素を用いて平滑化演算が実施されるようにする。このように、本実施形態の疎密度決定部112では、前フレームで求められた視差の値が大きいほど、像までの距離が近いと判断してステレオカメラ画像から間引く画素の割合が増大するように、疎密度を決定することが好ましい。
FIG. 10 is an explanatory diagram of pixel thinning used for smoothing calculation in the image processing apparatus according to the fifth embodiment of the present invention. FIG. 10A is a diagram showing an example of pixels used in a pixel smoothing calculation corresponding to a long-distance image. For pixels that are judged to correspond to a long-distance image because the parallax represented by the parallax image of the previous frame is small, as shown in FIG. 10A, the pixels on each scan line are not thinned out. Make sure that dense smoothing operations are performed over a narrow area on the image. On the other hand, FIG. 10B is a diagram showing an example of pixels used in the pixel smoothing calculation corresponding to a short-distance image. For pixels that are judged to correspond to a short-distance image because the parallax represented by the parallax image of the previous frame is large, the pixels on each scan line are thinned out on the image as shown in FIG. 10 (b). The smoothing operation is performed using a small number of pixels in a wide range of. As described above, in the sparse
なお、図10では平滑化演算に用いる画素がスキャンライン上に並んでいる例を説明したが、ライン上に並ぶものに限る必要はない。図11は、本発明の第5の実施形態に係る画像処理装置において平滑化計算に用いられる画素の配置の説明図である。図11(a)は、8本のスキャンライン上に並んで配置された各画素を平滑化計算に採用する例を示している。一方、図11(b)は、スキャンライン上には並んでおらず、所定の配置パターンに従って配置された各画素を平滑化計算に採用する例を示している。図11(a)、図11(b)いずれの配置例においても、疎密度決定部112により決定された疎密度に基づいて前述のような画素の間引きを行い、平滑化演算を実施することができる。このときどの画素を間引くかについては、予め決定しておくことができる。ただし、図11に示した画素の配置は一例であり、平滑化計算に用いる画素の配置はこれに限定されない。
Although the example in which the pixels used for the smoothing calculation are arranged on the scan line has been described with reference to FIG. 10, it is not necessary to limit the pixels to those arranged on the line. FIG. 11 is an explanatory diagram of the arrangement of pixels used for smoothing calculation in the image processing apparatus according to the fifth embodiment of the present invention. FIG. 11A shows an example in which each pixel arranged side by side on eight scan lines is used for smoothing calculation. On the other hand, FIG. 11B shows an example in which each pixel arranged according to a predetermined arrangement pattern, which is not arranged on the scan line, is adopted for the smoothing calculation. In both the arrangement examples of FIGS. 11 (a) and 11 (b), the pixels can be thinned out as described above based on the sparse density determined by the sparse
また、本実施形態では疎密度決定部112において、第1の実施形態で説明したライン数決定部111におけるスキャンライン数の決定と同様に、過去に視差算出部102により算出された視差に基づいて疎密度を決定する例を説明したが、本発明はこれに限定されない。例えば、第2の実施形態におけるスキャンライン数の決定と同様に、過去に視差算出部102により算出された視差に基づき判定された距離レンジの情報をプロセッサ30から取得し、取得した距離レンジの情報に基づいて疎密度を決定してもよい。また、第3の実施形態におけるスキャンライン数の決定と同様に、過去に視差算出部102により算出された視差に基づき検知された物体の情報をプロセッサ30から取得し、取得した物体の情報に基づいて疎密度を決定してもよい。あるいは、第4の実施形態におけるスキャンライン数の決定と同様に、他のセンサで測定されたステレオカメラ画像の範囲に対応する距離情報を取得し、取得した距離情報に基づいて疎密度を決定してもよい。これ以外にも、任意の方法で疎密度を決定することができる。
Further, in the present embodiment, the sparse
(第6の実施形態)
次に本発明の第6の実施形態について説明する。本実施形態では、第1~第4の実施形態で説明したライン数決定部111と、第5の実施形態で説明した疎密度決定部112とを条件設定部101が有する画像処理装置の例を説明する。
(Sixth Embodiment)
Next, a sixth embodiment of the present invention will be described. In the present embodiment, an example of an image processing apparatus in which the
図12は、本発明の第6の実施形態に係る画像処理装置の構成を示すブロック図である。図12に示すように、本実施形態に係る画像処理装置10は、図2で説明した第1の実施形態と比べて、FPGA11の条件設定部101がライン数決定部111に加えて疎密度決定部112をさらに有する点が異なっている。この疎密度決定部112は、第5の実施形態で説明したのと同様である。なお、図12ではメモリ12が視差画像保存部104を有している例を示しているが、ライン数決定部111や疎密度決定部112が第2~第4の各実施形態と同様の手法でスキャンライン数や疎密度の決定を行う場合には、視差画像保存部104をメモリ12に設けずに省略してもよい。また、第4の実施形態で説明したように、他のセンサで測定した距離情報を利用してスキャンライン数や疎密度の決定を行う場合には、当該センサからの距離情報をライン数決定部111や疎密度決定部112へ入力すればよい。
FIG. 12 is a block diagram showing a configuration of an image processing apparatus according to a sixth embodiment of the present invention. As shown in FIG. 12, in the
以上説明した本発明の実施形態によれば、以下の作用効果が得られる。 According to the embodiment of the present invention described above, the following effects can be obtained.
(1)画像処理装置10は、カメラ20により撮影されたステレオカメラ画像に基づいて視差を算出する。画像処理装置10は、ステレオカメラ画像における計算対象画素を決定するための条件を設定する条件設定部101と、条件設定部101により設定された条件に基づいて、ステレオカメラ画像の中で計算対象画素を決定し、計算対象画素の情報を用いて視差を算出する視差算出部102とを備える。このようにしたので、視差の計算に要する計算量を抑制することができる。
(1) The
(2)第1~第4、第6の各実施形態において、条件設定部101は、ステレオカメラ画像をスキャンするスキャンラインの数を決定するライン数決定部111を有する。視差算出部102は、ライン数決定部111により決定された数のスキャンラインをステレオカメラ画像に対して設定し、スキャンライン上にあるステレオカメラ画像の画素を、計算対象画素に決定する。このようにしたので、条件に応じた計算対象画素を適切に決定することができる。
(2) In each of the first to fourth and sixth embodiments, the
(3)第1の実施形態において、ライン数決定部111は、過去に視差算出部102により算出された視差に基づいて、スキャンラインの数を決定する。このときライン数決定部111は、視差の値が小さいほどスキャンラインの数を増大させるようにする。このようにしたので、過去の視差情報から画素ごとの距離に応じた最適なスキャンラインの数を決定することができる。
(3) In the first embodiment, the line
(4)第2の実施形態において、ライン数決定部111は、過去に視差算出部102により算出された視差に基づき判定された距離レンジの情報を取得し、取得した距離レンジの情報に基づいて、スキャンラインの数を決定する。このようにしたので、過去の視差情報から物体ごとの距離に応じた最適なスキャンラインの数を決定することができる。
(4) In the second embodiment, the line
(5)第3の実施形態において、ライン数決定部111は、過去に視差算出部102により算出された視差に基づき検知された物体の情報を取得し、取得した物体の情報に基づいて、スキャンラインの数を決定する。このようにしたので、過去の視差情報から物体ごとに最適なスキャンラインの数を決定することができる。
(5) In the third embodiment, the line
(6)第4の実施形態において、ライン数決定部111は、ステレオカメラ画像の範囲に対する距離情報を取得し、取得した距離情報に基づいて、スキャンラインの数を決定する。このようにしたので、過去のステレオカメラ画像から視差を算出できなかった場合でも、画素ごとの距離に応じた最適なスキャンラインの数を決定することができる。
(6) In the fourth embodiment, the line
(7)第5、第6の各実施形態において、条件設定部101は、ステレオカメラ画像から間引く画素の割合を表す疎密度を決定する疎密度決定部112を有する。視差算出部102は、疎密度決定部112により決定された疎密度に基づいてステレオカメラ画像から間引いた残りの画素を、計算対象画素に決定する。このようにしたので、条件に応じた計算対象画素を適切に決定することができる。
(7) In each of the fifth and sixth embodiments, the
(8)第5、第6の各実施形態において、疎密度決定部112は、過去に視差算出部102により算出された視差に基づいて、疎密度を決定することができる。このとき疎密度決定部112は、視差の値が大きいほどステレオカメラ画像から間引く画素の割合が増大するように疎密度を決定する。このようにしたので、過去の視差情報から画素ごとの距離に応じた最適な疎密度を決定することができる。
(8) In each of the fifth and sixth embodiments, the sparse
(9)第5、第6の各実施形態において、疎密度決定部112は、過去に視差算出部102により算出された視差に基づき判定された距離レンジの情報を取得し、取得した距離レンジの情報に基づいて、疎密度を決定することもできる。また、過去に視差算出部102により算出された視差に基づき検知された物体の情報を取得し、取得した物体の情報に基づいて、疎密度を決定することもできる。さらに、ステレオカメラ画像の範囲に対する距離情報を取得し、取得した距離情報に基づいて、疎密度を決定することもできる。このようにすれば、状況に応じて最適な疎密度を決定することができる。
(9) In each of the fifth and sixth embodiments, the sparse
以上、本発明の実施形態について述べたが、本発明は前述の実施形態に限定されるものでなく、特許請求の範囲に記載された範囲を逸脱しない範囲で種々の変更を行うことができる。例えば、上記の各実施形態では車両に搭載されて使用される画像処理装置10について説明したが、他のシステムで用いられる画像処理装置においても本発明を適用可能である。
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope described in the claims. For example, although the
以上説明した実施形態や変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、上記では種々の実施形態や変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 The embodiments and modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired. Further, although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other aspects considered within the scope of the technical idea of the present invention are also included within the scope of the present invention.
10…画像処理装置、11…FPGA、12…メモリ、20…カメラ、30…プロセッサ、40…LIDAR、101…条件設定部、102…視差算出部(SGM演算)、103…ステレオカメラ撮影画像保存部、104…視差画像保存部、111…ライン数決定部、112…疎密度決定部 10 ... Image processing device, 11 ... FPGA, 12 ... Memory, 20 ... Camera, 30 ... Processor, 40 ... LIDAR, 101 ... Condition setting unit, 102 ... Parallax calculation unit (SGM calculation), 103 ... Stereo camera shooting image storage unit , 104 ... Parallax image storage unit, 111 ... Line number determination unit, 112 ... Sparse density determination unit
Claims (13)
前記ステレオカメラ画像の各画素に対して、当該画素に対応する複数の計算対象画素を決定するための条件を設定する条件設定部と、
前記条件設定部により設定された条件に基づいて、前記ステレオカメラ画像の各画素に対して前記複数の計算対象画素を決定し、前記複数の計算対象画素の情報を用いて前記ステレオカメラ画像の画素ごとに前記視差を算出する視差算出部と、を備え、
前記視差算出部は、前記ステレオカメラ画像の各画素の画素値と、当該画素に対応する前記複数の計算対象画素の各画素値とを平均化する平滑化計算を実施し、前記平滑化計算を実施した前記ステレオカメラ画像の各画素に対して非類似度の計算を実施し、前記非類似度の計算結果に基づいて前記視差を算出する画像処理装置。 An image processing device that calculates parallax based on a stereo camera image taken by a stereo camera.
For each pixel of the stereo camera image, a condition setting unit for setting a condition for determining a plurality of calculation target pixels corresponding to the pixel, and a condition setting unit.
Based on the conditions set by the condition setting unit, the plurality of calculation target pixels are determined for each pixel of the stereo camera image, and the pixels of the stereo camera image are used using the information of the plurality of calculation target pixels. It is equipped with a parallax calculation unit that calculates the misalignment for each .
The parallax calculation unit performs a smoothing calculation that averages the pixel value of each pixel of the stereo camera image and each pixel value of the plurality of calculation target pixels corresponding to the pixel, and performs the smoothing calculation. An image processing device that calculates the dissimilarity for each pixel of the stereo camera image and calculates the disparity based on the calculation result of the dissimilarity .
前記条件設定部は、前記平滑化計算において前記ステレオカメラ画像をスキャンするスキャンラインの数を決定するライン数決定部を有し、
前記視差算出部は、前記ライン数決定部により決定された数の前記スキャンラインを前記ステレオカメラ画像に対して画素ごとに設定し、前記スキャンライン上にある前記ステレオカメラ画像の各画素を、前記計算対象画素に決定する画像処理装置。 In the image processing apparatus according to claim 1,
The condition setting unit has a line number determination unit that determines the number of scan lines that scan the stereo camera image in the smoothing calculation .
The parallax calculation unit sets the number of scan lines determined by the line number determination unit for each pixel of the stereo camera image, and sets each pixel of the stereo camera image on the scan line to the stereo camera image. An image processing device that determines the pixel to be calculated.
前記ライン数決定部は、過去に前記視差算出部により算出された前記視差に基づいて、前記スキャンラインの数を決定する画像処理装置。 In the image processing apparatus according to claim 2,
The line number determination unit is an image processing device that determines the number of scan lines based on the parallax calculated in the past by the parallax calculation unit.
前記ライン数決定部は、前記視差の値が小さいほど前記スキャンラインの数を増大させる画像処理装置。 In the image processing apparatus according to claim 3,
The line number determining unit is an image processing device that increases the number of scan lines as the parallax value becomes smaller.
前記ライン数決定部は、過去に前記視差算出部により算出された前記視差に基づき判定された距離レンジの情報を取得し、取得した前記距離レンジの情報に基づいて、前記スキャンラインの数を決定する画像処理装置。 In the image processing apparatus according to claim 2,
The line number determination unit acquires information on a distance range determined based on the parallax calculated in the past by the parallax calculation unit, and determines the number of scan lines based on the acquired information on the distance range. Image processing device.
前記ライン数決定部は、過去に前記視差算出部により算出された前記視差に基づき検知された物体の情報を取得し、取得した前記物体の情報に基づいて、前記スキャンラインの数を決定する画像処理装置。 In the image processing apparatus according to claim 2,
The line number determination unit acquires information on an object detected based on the parallax calculated in the past by the parallax calculation unit, and determines the number of scan lines based on the acquired information on the object. Processing device.
前記ライン数決定部は、前記ステレオカメラ画像の範囲に対する距離情報を取得し、取得した前記距離情報に基づいて、前記スキャンラインの数を決定する画像処理装置。 In the image processing apparatus according to claim 2,
The line number determination unit is an image processing device that acquires distance information with respect to the range of the stereo camera image and determines the number of scan lines based on the acquired distance information.
前記条件設定部は、前記平滑化計算において前記ステレオカメラ画像から間引く画素の割合を表す疎密度を決定する疎密度決定部を有し、
前記視差算出部は、前記疎密度決定部により決定された前記疎密度に基づいて、前記ステレオカメラ画像の画素ごとに、当該画素の周囲に存在する画素の中で間引き対象の画素を決定し、前記間引き対象の画素を間引いた残りの各画素を、前記計算対象画素に決定する画像処理装置。 The image processing apparatus according to any one of claims 1 to 7.
The condition setting unit has a sparse density determining unit that determines the sparse density representing the ratio of pixels thinned from the stereo camera image in the smoothing calculation .
Based on the sparse density determined by the sparse density determination unit, the parallax calculation unit determines a pixel to be thinned out among the pixels existing around the pixel for each pixel of the stereo camera image. An image processing device that determines the remaining pixels obtained by thinning out the pixels to be thinned out as the calculation target pixels.
前記疎密度決定部は、過去に前記視差算出部により算出された前記視差に基づいて、前記疎密度を決定する画像処理装置。 In the image processing apparatus according to claim 8,
The sparse density determination unit is an image processing device that determines the sparse density based on the parallax calculated by the parallax calculation unit in the past.
前記疎密度決定部は、前記視差の値が大きいほど前記ステレオカメラ画像から間引く画素の割合が増大するように前記疎密度を決定する画像処理装置。 In the image processing apparatus according to claim 9,
The sparse density determining unit is an image processing device that determines the sparse density so that the proportion of pixels thinned out from the stereo camera image increases as the value of the parallax increases.
前記疎密度決定部は、過去に前記視差算出部により算出された前記視差に基づき判定された距離レンジの情報を取得し、取得した前記距離レンジの情報に基づいて、前記疎密度を決定する画像処理装置。 In the image processing apparatus according to claim 8,
The sparse density determination unit acquires information on a distance range determined based on the parallax calculated in the past by the parallax calculation unit, and determines the sparse density based on the acquired information on the distance range. Processing device.
前記疎密度決定部は、過去に前記視差算出部により算出された前記視差に基づき検知された物体の情報を取得し、取得した前記物体の情報に基づいて、前記疎密度を決定する画像処理装置。 In the image processing apparatus according to claim 8,
The sparse density determination unit acquires information on an object detected based on the parallax calculated in the past by the parallax calculation unit, and determines the sparse density based on the acquired information on the object. ..
前記疎密度決定部は、前記ステレオカメラ画像の範囲に対する距離情報を取得し、取得した前記距離情報に基づいて、前記疎密度を決定する画像処理装置。 In the image processing apparatus according to claim 8,
The sparse density determining unit is an image processing device that acquires distance information with respect to the range of the stereo camera image and determines the sparse density based on the acquired distance information.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168862A JP7066580B2 (en) | 2018-09-10 | 2018-09-10 | Image processing equipment |
PCT/JP2019/033762 WO2020054429A1 (en) | 2018-09-10 | 2019-08-28 | Image processing device |
CN201980049733.5A CN112513572B (en) | 2018-09-10 | 2019-08-28 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168862A JP7066580B2 (en) | 2018-09-10 | 2018-09-10 | Image processing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020041891A JP2020041891A (en) | 2020-03-19 |
JP7066580B2 true JP7066580B2 (en) | 2022-05-13 |
Family
ID=69777549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168862A Active JP7066580B2 (en) | 2018-09-10 | 2018-09-10 | Image processing equipment |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7066580B2 (en) |
CN (1) | CN112513572B (en) |
WO (1) | WO2020054429A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001266128A (en) | 2000-03-21 | 2001-09-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for obtaining depth information and recording medium recording depth information obtaining program |
JP2004279031A (en) | 2003-03-12 | 2004-10-07 | Toyota Central Res & Dev Lab Inc | Apparatus and method for detecting distance distribution |
JP2008241273A (en) | 2007-03-26 | 2008-10-09 | Ihi Corp | Laser radar device and its control method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004309868A (en) * | 2003-04-08 | 2004-11-04 | Sony Corp | Imaging device and stereoscopic video generating device |
US10122986B2 (en) * | 2011-02-18 | 2018-11-06 | Sony Corporation | Image processing device and image processing method |
WO2014097734A1 (en) * | 2012-12-19 | 2014-06-26 | 富士フイルム株式会社 | Image processing device, imaging device, image processing method, and image processing program |
CN104537668B (en) * | 2014-12-29 | 2017-08-15 | 浙江宇视科技有限公司 | A kind of quick parallax image computational methods and device |
WO2018037479A1 (en) * | 2016-08-23 | 2018-03-01 | 株式会社日立製作所 | Image processing device, stereo camera device, and image processing method |
-
2018
- 2018-09-10 JP JP2018168862A patent/JP7066580B2/en active Active
-
2019
- 2019-08-28 CN CN201980049733.5A patent/CN112513572B/en active Active
- 2019-08-28 WO PCT/JP2019/033762 patent/WO2020054429A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001266128A (en) | 2000-03-21 | 2001-09-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for obtaining depth information and recording medium recording depth information obtaining program |
JP2004279031A (en) | 2003-03-12 | 2004-10-07 | Toyota Central Res & Dev Lab Inc | Apparatus and method for detecting distance distribution |
JP2008241273A (en) | 2007-03-26 | 2008-10-09 | Ihi Corp | Laser radar device and its control method |
Also Published As
Publication number | Publication date |
---|---|
CN112513572B (en) | 2022-10-18 |
WO2020054429A1 (en) | 2020-03-19 |
CN112513572A (en) | 2021-03-16 |
JP2020041891A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8818077B2 (en) | Stereo image matching apparatus and method | |
JP5404263B2 (en) | Parallax calculation method and parallax calculation device | |
JP5870273B2 (en) | Object detection apparatus, object detection method, and program | |
JP3367170B2 (en) | Obstacle detection device | |
JP6208260B2 (en) | Object recognition device | |
JP5752618B2 (en) | Stereo parallax calculation device | |
CN105335955A (en) | Object detection method and object detection apparatus | |
CN105627932A (en) | Distance measurement method and device based on binocular vision | |
JP2006236104A (en) | Object determining device | |
JP2006090896A (en) | Stereo image processor | |
US11928805B2 (en) | Information processing apparatus, information processing method, and storage medium for defect inspection and detection | |
JP2008064628A (en) | Object detector and detecting method | |
JP2019207456A (en) | Geometric transformation matrix estimation device, geometric transformation matrix estimation method, and program | |
TWI571099B (en) | Device and method for depth estimation | |
JP6395429B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
JP2009092551A (en) | Method, apparatus and system for measuring obstacle | |
JP7136721B2 (en) | Arithmetic device, parallax calculation method | |
JP7066580B2 (en) | Image processing equipment | |
JP2021051347A (en) | Distance image generation apparatus and distance image generation method | |
JP2004245701A (en) | Distance distribution detecting apparatus | |
JP6852406B2 (en) | Distance measuring device, distance measuring method and distance measuring program | |
KR101569165B1 (en) | Method and apparatus for vanishing point detection | |
JP6655869B2 (en) | Image processing apparatus, image processing method, and program | |
JP7134780B2 (en) | stereo camera device | |
WO2020095549A1 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7066580 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |