JP2006322797A - Apparatus, method, and program for processing image - Google Patents
Apparatus, method, and program for processing image Download PDFInfo
- Publication number
- JP2006322797A JP2006322797A JP2005145826A JP2005145826A JP2006322797A JP 2006322797 A JP2006322797 A JP 2006322797A JP 2005145826 A JP2005145826 A JP 2005145826A JP 2005145826 A JP2005145826 A JP 2005145826A JP 2006322797 A JP2006322797 A JP 2006322797A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- window
- imaging
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、所定の視野を撮像して生成する画像に対して画像処理を施す画像処理装置、画像処理方法および画像処理プログラムに関し、特に車載用として好適な画像処理装置、画像処理方法および画像処理プログラムに関するものである。 The present invention relates to an image processing device, an image processing method, and an image processing program for performing image processing on an image generated by imaging a predetermined field of view, and more particularly to an image processing device, an image processing method, and an image processing suitable for use in a vehicle. It is about the program.
従来、自動車等の車両に搭載され、自車両の前方を走行する先行車両を撮像した画像を処理し、自車両から先行車両までの距離を検出する車間距離検出装置が知られている(たとえば、特許文献1参照)。この車間距離検出装置は、画像上で先行車両を捕捉するために、画像内の所定位置に複数の測距用ウインドウを設定し、この設定した各測距用ウインドウ内で画像を処理して任意の対象物までの距離を演算し、演算した結果と測距用ウインドウの位置情報とをもとに先行車両の撮像位置を認識している。 2. Description of the Related Art Conventionally, an inter-vehicle distance detection device is known that is mounted on a vehicle such as an automobile and processes an image obtained by imaging a preceding vehicle that travels in front of the host vehicle, and detects a distance from the host vehicle to the preceding vehicle (for example, Patent Document 1). This inter-vehicle distance detection device sets a plurality of distance measurement windows at predetermined positions in the image in order to capture the preceding vehicle on the image, and processes the image within each of the set distance measurement windows to arbitrarily set the distance measurement window. The distance to the target object is calculated, and the imaging position of the preceding vehicle is recognized based on the calculated result and the position information of the distance measurement window.
ところで、上述した従来の車間距離検出装置では、撮像位置が不明な先行車両を捕捉するため、測距用ウインドウは画像のほぼ全域をカバーするように設定する必要があった。この結果、画像のほぼ全域を処理して距離演算を行うので、演算処理の負荷が大きく、処理時間がかかるという問題があった。 By the way, in the conventional inter-vehicle distance detection device described above, in order to capture a preceding vehicle whose imaging position is unknown, the distance measurement window needs to be set so as to cover almost the entire area of the image. As a result, since the distance calculation is performed by processing almost the entire area of the image, there is a problem that the load of the calculation process is large and the processing time is long.
本発明は、上記に鑑みてなされたものであって、撮像した画像を処理し、先行車両等の所定の物体までの距離を演算する場合に、演算処理の負荷を軽減し、高速に距離情報を出力することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and when processing a captured image and calculating a distance to a predetermined object such as a preceding vehicle, the load of calculation processing is reduced, and distance information can be obtained at high speed. Is to provide an image processing apparatus, an image processing method, and an image processing program.
上記の目的を達成するために、本発明の請求項1にかかる画像処理装置は、移動体に搭載され、所定の撮像視野を有し、該撮像視野に対応する画像信号群を生成する撮像手段と、前記画像信号群を処理して前記撮像視野内に位置する物体までの距離を演算する演算手段と、複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、前記演算手段における画像処理範囲を該選択した画像処理範囲に切り換える切換処理手段と、を備え、前記演算手段は、前記切換処理手段が切り換えた前記画像処理範囲に対応する画像信号群に基づいて前記物体までの距離を演算することを特徴とする。 In order to achieve the above object, an image processing apparatus according to claim 1 of the present invention is mounted on a moving body, has an imaging field of view, and generates an image signal group corresponding to the imaging field of view. A calculation means for processing the image signal group to calculate a distance to an object located in the imaging field of view, and selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges Switching processing means for switching the image processing range in the computing means to the selected image processing range, and the computing means is based on an image signal group corresponding to the image processing range switched by the switching processing means. And calculating the distance to the object.
また、本発明の請求項2にかかる画像処理装置は、上記の発明において、前記移動情報を取得し、取得した該移動情報を前記切換処理手段に出力する移動情報取得手段を備え、前記切換処理手段は、前記移動情報取得手段から出力された前記移動情報をもとに、前記複数の画像処理範囲の中から該移動情報に対応した前記画像処理範囲を選択することを特徴とする。 An image processing apparatus according to claim 2 of the present invention is the image processing apparatus according to the above invention, further comprising movement information acquisition means for acquiring the movement information and outputting the acquired movement information to the switching processing means. The means selects the image processing range corresponding to the movement information from the plurality of image processing ranges based on the movement information output from the movement information acquisition means.
また、本発明の請求項3にかかる画像処理装置は、上記の発明において、前記移動情報は、前記移動体の移動速度、前記移動体の移動加速度、前記移動体の移動方向、前記移動体の移動方位および/または前記移動体の位置情報であることを特徴とする。
In the image processing apparatus according to
また、本発明の請求項4にかかる画像処理装置は、上記の発明において、前記撮像手段は、第1の光路を介して撮像した第1の前記画像信号群と、第2の光路を介して撮像した第2の前記画像信号群とを生成し、前記演算手段は、前記第2の画像信号群の中から前記第1の画像信号群の任意の画像信号と整合する画像信号を検出し、該検出した画像信号における前記任意の画像信号からの移動量に基づいて前記物体までの距離を演算することを特徴とする。なお、ここで述べた移動量は、一般的に言われる視差量を示す。
The image processing apparatus according to
また、本発明の請求項5にかかる画像処理装置は、上記の発明において、前記撮像手段は、一対の撮像光学系と、前記一対の撮像光学系の各々が出力する光信号を電気信号に変換する一対の撮像素子と、を備えたことを特徴とする。
In the image processing apparatus according to
また、本発明の請求項6にかかる画像処理装置は、上記の発明において、前記撮像手段は、一対の導光光学系と、各導光光学系に対する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子と、を備えたことを特徴とする。 In the image processing apparatus according to claim 6 of the present invention, in the above invention, the imaging unit includes a pair of light guiding optical systems and imaging regions for the light guiding optical systems. And an imaging device that converts the guided optical signal into an electrical signal in each imaging region.
また、本発明の請求項7にかかる画像処理装置は、上記の発明において、前記移動体は、車両であることを特徴とする。 According to a seventh aspect of the present invention, in the above invention, the moving body is a vehicle.
また、本発明の請求項8にかかる画像処理方法は、移動体に搭載され、所定の撮像視野を有する撮像手段によって生成された、該撮像視野に対応する画像信号群を処理する画像処理方法であって、 複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、前記画像信号群に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理ステップと、前記切換処理ステップにおいて切り換えられた前記画像処理範囲に対応する画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算ステップと、を含むことを特徴とする。 An image processing method according to an eighth aspect of the present invention is an image processing method for processing an image signal group corresponding to an imaging field generated by an imaging unit mounted on a moving body and having a predetermined imaging field. A switching process step of selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges, and switching the image processing range for the image signal group to the selected image processing range; A calculation step of calculating a distance to an object located in the imaging field based on the image signal group corresponding to the image processing range switched in the switching processing step.
また、本発明の請求項9にかかる画像処理プログラムは、移動体に搭載され、所定の撮像視野を有する撮像手段によって生成された、該撮像視野に対応する画像信号群を処理する画像処理プログラムであって、複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、前記画像信号群に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理手順と、前記切換処理手順において切り換えられた前記画像処理範囲に対応する画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算手段と、を含むことを特徴とする。 An image processing program according to claim 9 of the present invention is an image processing program for processing an image signal group corresponding to an imaging field generated by an imaging unit mounted on a moving body and having a predetermined imaging field. A switching processing procedure for selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges, and switching the image processing range for the image signal group to the selected image processing range; Calculating means for calculating a distance to an object located in the imaging field of view based on an image signal group corresponding to the image processing range switched in the switching processing procedure.
本発明の画像処理装置、画像処理方法および画像処理プログラムによれば、撮像した画像を処理し、先行車両等の所定の物体までの距離を演算する場合に、演算処理の負荷を軽減し、高速に距離情報を出力することができる。 According to the image processing device, the image processing method, and the image processing program of the present invention, when processing a captured image and calculating a distance to a predetermined object such as a preceding vehicle, the load of the calculation process is reduced, and high speed Can output distance information.
以下、添付図面を参照して、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムの好適な実施の形態を詳細に説明する。 Exemplary embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described below in detail with reference to the accompanying drawings.
(実施の形態1)
図1は、本発明の実施の形態1にかかる画像処理装置の構成を示すブロック図である。図1に示す画像処理装置1は、所定の撮像視野を有し、撮像視野に対応する画像を撮像し画像信号群を生成する撮像部10と、撮像部10が生成した画像信号群を解析し処理する画像処理部20と、画像処理装置1の全体の処理および動作を制御する制御部30と、距離情報を含む各種情報を出力する出力部40と、距離情報を含む各種情報を記憶する記憶部50と、画像処理装置1が搭載される四輪自動車等の移動体である自車両の移動情報を探知する探知部60とを備える。撮像部10、画像処理部20、出力部40、記憶部50および探知部60は、制御部30に電気的に接続される。なお、この接続の形態は、有線に限らず無線も含む。
(Embodiment 1)
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. An image processing apparatus 1 shown in FIG. 1 has a predetermined imaging field of view, images an image corresponding to the imaging field of view and generates an image signal group, and analyzes the image signal group generated by the imaging unit 10. An
撮像部10は、ステレオカメラであり、左右に並んで配置された右カメラ11aと、左カメラ11bとを備える。右カメラ11aは、レンズ12aと、撮像素子13aと、アナログ/デジタル(A/D)変換部14aと、フレームメモリ15aとを備える。レンズ12aは、所定の撮像視野内に位置する任意の物体からの光を撮像素子13a上に集光する。撮像素子13aは、CCDあるいはCMOS等の撮像素子であり、レンズ12aが集光した物体からの光を光信号として検知し、アナログ信号である電気信号に変換し、出力する。A/D変換部14aは、撮像素子13aが出力したアナログ信号をデジタル信号に変換し、出力する。フレームメモリ15aは、A/D変換部14aが出力したデジタル信号を記憶し、1枚の撮像画像に対応するデジタル信号群を、撮像視野に対応した画像信号群である画像情報として随時出力する。一方、左カメラ11bは、右カメラ11aと同様の構成であり、レンズ12bと、撮像素子13bと、A/D変換部14bと、フレームメモリ15bとを備える。左カメラ11bの各構成部位は、右カメラ11aの対応する各構成部位と同様の機能を備える。
The imaging unit 10 is a stereo camera and includes a
撮像部10が備える一対の撮像光学系としてのレンズ12a,12bは、光軸を平行にし、距離Lだけ離れて位置する。撮像素子13a,13bは、それぞれレンズ12a,12bから光軸上で距離fだけ離れて位置する。右カメラ11aおよび左カメラ11bは、同一の物体を互いに異なる位置から異なる光路を介して撮像する。なお、レンズ12a,12bは、通常は複数のレンズを組み合わせて構成され、たとえばディストーション等のレンズの収差を良好に補正した状態にある。
The
画像処理部20は、撮像部10から取得した画像信号群を処理し、撮像した物体までの距離を演算する演算部21を備える。演算部21は、右カメラ11aが出力する右画像信号群の中から、左カメラ11bが出力する左画像信号群の中の任意の左画像信号と整合する右画像信号を検出し、この検出した右画像信号の、対応する左画像信号からの距離である移動量に基づいて、撮像視野内に位置する物体までの距離を演算する。換言すると、演算部21は、右カメラ11aが生成した右画像信号群と、左カメラ11bが生成した左画像信号群とを、それぞれの撮像光学系の光軸の位置を基準に重ね合わせ、左画像信号群の中の任意の左画像信号と、これに最も整合する右画像信号群の中の右画像信号とを検出し、対応する左画像信号から右画像信号までの撮像素子上での距離である移動量Iを求め、三角測量の原理に基づく以下の(1)式を利用し、たとえば図1における撮像部10から車両Cまでの距離Rを演算する。なお、移動量Iは、撮像素子の画素数と画素ピッチとをもとに求めるとよい。なお、ここでは簡単のため、平行ステレオで説明したが、光軸が角度を持って交差したり、焦点距離がおのおの違う、撮像素子とレンズの位置関係が異なる等をキャリブレーションし、レクティフィケーションにより補正し、演算処理による平行ステレオを実現しても良い。
R=f・L/I ・・・(1)
The
R = f · L / I (1)
演算部21は、画像処理範囲内の任意の画像信号に対応する物体までの距離を演算する。画像処理部20は、演算部21が演算した物体までの距離と画像内の物体の位置とを対応させ距離情報を作成し、制御部30に出力する。なお、ここで距離演算の対象となる物体は、有体物である物体に限らず、撮像した任意の被写体であって、路面や空等の背景も含まれる。
The
制御部30は、記憶部50が記憶する処理プログラムを実行するCPUを備え、撮像部10、画像処理部20、出力部40、記憶部50および探知部60が行う各種処理および動作を制御する。特に、この実施の形態1にかかる制御部30は、ウインドウ切換部31を備える。ウインドウ切換部31は、探知部60から移動情報を取得し、この移動情報に適合するウインドウをウインドウ情報51が記憶する複数のウインドウ情報の中から選択し、演算部21で設定するウインドウをこの選択したウインドウに切り換える指示情報を、ウインドウ情報とともに画像処理部20に出力する。なお、ウインドウ情報とは、ウインドウの大きさや形状等に関する情報である。
The
出力部40は、距離情報を含む各種情報を出力する。たとえば、出力部40は、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイ等の表示装置を備え、撮像部10が撮像した画像等、各種の表示可能な情報を距離情報とともに表示する。さらに、スピーカー等の音声出力装置を備え、距離情報や距離情報に基づく警告等、各種音声情報を出力するように構成してもよい。
The
記憶部50は、所定のOSを起動するプログラムや画像処理プログラム等の各種情報が予め記憶されたROMと、各処理の演算パラメータや各構成部位に入出力される各種情報等を記憶するRAMとを備える。さらに、記憶部50は、ウインドウ切換部31が選択する複数のウインドウ情報を格納したウインドウ情報51、探知部60が探知した探知情報52、撮像部10が撮像した画像情報53および演算部21が演算し作成した距離情報54を記憶する。
The
探知部60は、自車両の移動情報を各種センサで検出する。特に、この実施の形態1にかかる探知部60は、自車両の移動速度を検出する速度センサ61を備える。速度センサ61は、自動車等が通常備える速度計である。探知部60は、速度センサ61が検出する速度情報を自車両の移動情報として制御部30に出力する。なお、速度センサ61は、自車両から走行する路面を観測し速度を演算するセンサ、加速度を検出し速度を演算するセンサ等であってもよい。
The
つぎに、画像処理装置1が実行する処理について、図2のフローチャートにしたがって説明する。図2は、画像処理装置1が、撮像した画像に対応する距離情報を出力するまでの処理手順を示すフローチャートである。 Next, processing executed by the image processing apparatus 1 will be described with reference to the flowchart of FIG. FIG. 2 is a flowchart illustrating a processing procedure until the image processing apparatus 1 outputs distance information corresponding to a captured image.
図2に示すように、速度センサ61が、自車両の移動速度を検出し、検出した速度を探知情報として制御部30に出力する速度探知処理を行い(ステップS102)、ウインドウ切換部31が、探知部60から取得した探知情報に適合するウインドウをウインドウ情報51の中から選択し、選択したウインドウへの切り換えを画像処理部20に指示するウインドウ切換処理を行う(ステップS104)。このステップS104で、ウインドウ切換部31は、選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。つぎに、撮像部10が、所定の視野を撮像し、生成した画像信号群を画像情報として画像処理部20に出力する撮像処理を行い(ステップS106)、演算部21が、ウインドウ切換部31から指示されたウインドウに対応する画像信号群をもとに物体までの距離を演算し、演算した距離と画像上の物体の位置とを対応させた距離情報を作成し、制御部30に出力する距離演算処理を行う(ステップS108)。制御部30は、この距離情報およびこの距離情報に基づく所定の処理情報を出力部40に出力し(ステップS110)、一連の処理を終了する。なお、制御部30は、各処理ステップで生成された情報である探知情報52、画像情報53および距離情報54を記憶部50に随時記憶する。
As shown in FIG. 2, the speed sensor 61 detects the moving speed of the host vehicle, performs speed detection processing that outputs the detected speed to the
上述した一連の処理は、たとえば、自車両の搭乗者等から所定の処理終了あるいは中断の指示がない限り、継続して繰り返す。また、上述した一連の処理は、逐次実行するものとして説明したが、処理機構が独立している処理を並行して実行し、処理サイクルを高速化することが好ましい。さらに、探知情報52が記憶する時系列の速度情報をもとに以降の速度状態を予測し、速度探知処理を適宜スキップして処理サイクルの高速化をはかってもよい。なお、ステップS106の撮像処理は、ステップS102またはステップS104の直前で行うようにしてもよい。 The above-described series of processing is continuously repeated unless, for example, a predetermined processing end or interruption instruction is given from the passenger of the host vehicle. In addition, although the series of processes described above has been described as being executed sequentially, it is preferable to speed up the processing cycle by executing processes independent of the processing mechanism in parallel. Further, the subsequent speed state may be predicted based on the time-series speed information stored in the detection information 52, and the speed detection process may be skipped as appropriate to speed up the processing cycle. Note that the imaging process in step S106 may be performed immediately before step S102 or step S104.
つぎに、図2に示したステップS104のウインドウ切換処理について説明する。図3は、ウインドウ切換処理の処理手順を示すフローチャートである。図3に示すように、ウインドウ切換部31は、探知部60から探知情報を取得し(ステップS122)、自車両の速度が低速か、または高速かを判断し(ステップS124)、低速であると判断した場合(ステップS124:低速)、ウインドウ情報51から低速用ウインドウを選択し(ステップS126)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS128)、ステップS104にリターンする。一方、高速であると判断した場合(ステップS124:高速)、ウインドウ切換部31は、ウインドウ情報51から高速用ウインドウを選択し(ステップS130)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS132)、ステップS104にリターンする。
Next, the window switching process in step S104 shown in FIG. 2 will be described. FIG. 3 is a flowchart showing the processing procedure of the window switching process. As shown in FIG. 3, the
なお、図3に示すフローチャートでは、自車両の速度をもとに低速用ウインドウまたは高速用ウインドウの2種類のウインドウを選択するようにしたが、さらに多くの速度状態を判断し、種々の大きさのウインドウを選択できるようにしてもよく、実質的に任意の速度に対して異なる大きさのウインドウを選択できるようにしてもよい。 In the flowchart shown in FIG. 3, two types of windows, the low speed window and the high speed window, are selected based on the speed of the host vehicle, but more speed states are determined and various sizes are selected. May be selectable, or windows of different sizes may be selected for virtually any speed.
つぎに、ウインドウ切換部31が選択するウインドウの一例について説明する。図4は、低速用ウインドウの一例を示す図である。図4に示す低速用ウインドウ51aは、撮像部10の撮像視野に対応する撮像範囲17の略全域に対応する。この低速用ウインドウ15aは、撮像視野内で自車両から近距離ないし遠距離の範囲に位置する物体を画像上で捕捉する。一方、図5は、高速用ウインドウの一例を示す図である。図5に示す高速用ウインドウ51bは、低速用ウインドウ51aに比して小さく、撮像範囲17の中央部の部分領域に対応する。この高速用ウインドウ51bは、撮像視野内で自車両から遠距離に位置する物体を画像上で選択的に捕捉することができ、この結果、高速走行時に重要な遠方の画像情報を抽出することができる。
Next, an example of a window selected by the
図6は、画像18aに低速用ウインドウ51aを重ね合わせた図である。低速用ウインドウ51aは、図6に示すように、自車両から近い位置を走行する車両C1を背景とともに捕捉し、距離演算の対象とする。一方、図7は、画像18bに高速用ウインドウ51bを重ね合わせた図である。高速用ウインドウ51bは、図7に示すように、自車両から遠い位置を走行する車両C2を背景とともに捕捉し、距離演算の対象とする。なお、画像18a,18bは、撮像部10の右カメラ11aまたは左カメラ11bの一方が撮像した画像である。
FIG. 6 is a diagram in which the low-
つぎに、演算部21が演算し、作成する距離情報の一例について説明する。図8は、図6に示した画像18aおよび低速用ウインドウ51aをもとに、演算部21が作成した距離情報54aを示す図である。距離情報54aでは、演算結果21aが、低速用ウインドウ51a内の距離演算の結果を表す。演算結果21aは、図8に示すように、演算部21が、低速用ウインドウ51a内を所定のマトリクス状の小領域に分割し、この分割した小領域ごとに対応する物体までの平均距離を演算した結果を数値で表す。この演算結果21aでは、領域Esaに含まれる結果が画像18aの背景である空に対応する距離を表し、領域Ec1に含まれる結果が車両C1に対応する距離を表し、これら以外の結果が路面に対応する距離を表している。一方、図9は、図7に示す画像18bおよび高速用ウインドウ51bをもとに、演算部21が作成した距離情報54bを示す図である。距離情報54bでは、演算結果21bが、高速用ウインドウ51b内の距離演算の結果を表す。演算結果21bは、演算結果21aと同様に、小領域ごとに演算した物体までの平均距離を数値で表す。この演算結果21bでは、領域Esbに含まれる結果が空に対応し、領域Ec2に含まれる結果が車両C2に対応し、これら以外の結果が路面に対応する。なお、演算結果21a、21bで示される数値は、所定の単位系で距離を表した数値であって、たとえばメートル単位で表した数値である。
Next, an example of distance information calculated and created by the
以上説明したこの実施の形態1にかかる画像処理装置1は、自車両の移動速度をもとに画像処理範囲を選択し、選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置1は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。 The image processing apparatus 1 according to the first embodiment described above selects an image processing range based on the moving speed of the host vehicle, and performs a distance calculation based on an image signal group corresponding to the selected image processing range. Therefore, compared to a conventional image processing apparatus that performs distance calculation on all image signals in the image signal group, it is possible to reduce the load of distance calculation processing and to shorten the time required for distance calculation. As a result, the image processing apparatus 1 can shorten the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.
(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、速度センサ61が検出した速度をもとに、ウインドウ切換部31がウインドウを選択するようにしていたが、この実施の形態2では、自車両の移動方向を検出し、ウインドウを選択するようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the
図10は、本発明の実施の形態2にかかる画像処理装置の構成を示すブロック図である。図10に示す画像処理装置201は、上述した実施の形態1にかかる画像処理装置1の探知部60に代えて探知部260を備え、探知部260は、操舵角センサ261を備える。また、画像処理装置201は、制御部30に代えて制御部230を備え、制御部230は、ウインドウ切換部231を備える。さらに、画像処理装置201は、記憶部50に代えて記憶部250を備え、記憶部250は、ウインドウ切換部231が選択する複数のウインドウ情報を格納したウインドウ情報251と、探知部260が探知した探知情報252とを記憶するとともに、記憶部50と同様に画像情報53および距離情報54を記憶する。その他の構成は実施の形態1と同じであり、同一構成部分には同一符号を付している。
FIG. 10 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. An image processing apparatus 201 illustrated in FIG. 10 includes a
操舵角センサ261は、移動方向として前輪の左右の回転角である操舵角を検出するセンサであって、たとえば、ハンドルの回転角と回転方向とをもとに操舵角を検出するセンサである。探知部260は、操舵角センサ261が検出した操舵角を自車両の移動情報として制御部230に出力する。なお、操舵角センサ261は、ジャイロスコープを利用して移動方向を検知するセンサ、方向指示器の点滅状態によって移動方向を検知するセンサ等でもよい。
The
つぎに、画像処理装置201が実行する処理について説明する。図11は、画像処理装置201が、撮像した画像に対応する距離情報を出力するまでの処理手順を示すフローチャートである。 Next, processing executed by the image processing apparatus 201 will be described. FIG. 11 is a flowchart illustrating a processing procedure until the image processing apparatus 201 outputs distance information corresponding to a captured image.
図11に示すように、操舵角センサ261が、自車両の操舵角を検出し、検出した操舵角を探知情報として制御部230に出力する操舵角探知処理を行い(ステップS202)、ウインドウ切換部231が、探知部260から取得した探知情報に適合するウインドウをウインドウ情報251の中から選択し、選択したウインドウへの切り換えを画像処理部20に指示するウインドウ切換処理を行う(ステップS204)。ここで、ウインドウ切換部231は、選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。その後、画像処理装置201は、図11に示すように、撮像処理(ステップS206)、距離演算処理(ステップS208)および距離情報出力(ステップS210)を、それぞれ図2に示したステップS106、ステップS108およびステップS110と同様に実行する。ただし、ステップS208の距離演算処理で使用するウインドウが自車両の操舵角に対応するウインドウである点と、操舵角センサ261が検出した操舵角を探知情報252として記憶する点において、画像処理装置201の処理は画像処理装置1の処理と異なる。
As shown in FIG. 11, the
なお、画像処理装置201でも画像処理装置1と同様に、処理機構が独立している処理を並行して実行し、処理サイクルを高速化することが好ましい。さらに、探知情報252が記憶する時系列の操舵角情報をもとに以降の操舵角の状態を予測し、操舵角探知処理を適宜スキップして処理サイクルの高速化をはかってもよい。なお、ステップS206の撮像処理は、ステップS202またはステップS204の直前で行うようにしてもよい。 Note that, similarly to the image processing apparatus 1, the image processing apparatus 201 preferably executes processes with independent processing mechanisms in parallel to increase the processing cycle speed. Further, the state of the subsequent steering angle may be predicted based on the time-series steering angle information stored in the detection information 252 and the steering angle detection process may be appropriately skipped to speed up the processing cycle. Note that the imaging process in step S206 may be performed immediately before step S202 or step S204.
つぎに、図11に示したステップS204のウインドウ切換処理について説明する。図12は、ウインドウ切換処理の処理手順を示すフローチャートである。図12に示すように、ウインドウ切換部231は、探知部260から探知情報を取得し(ステップS222)、自車両の進行方向が右方向か、左方向か、または直進方向かを判断し(ステップS224)、右方向と判断した場合(ステップS224:右)、ウインドウ情報251から右用ウインドウを選択し(ステップS226)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS228)、ステップS204にリターンする。一方、ウインドウ切換部231は、左方向と判断した場合(ステップS224:左)、左用ウインドウを選択し(ステップS230)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS232)、ステップS204にリターンする。他方、ウインドウ切換部231は、直進方向と判断した場合(ステップS224:直進)、直進用ウインドウを選択し(ステップS234)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS236)、ステップS204にリターンする。
Next, the window switching process in step S204 shown in FIG. 11 will be described. FIG. 12 is a flowchart showing the processing procedure of the window switching process. As shown in FIG. 12, the
なお、図12に示すフローチャートでは、自車両の操舵角をもとに右用ウインドウ、左用ウインドウあるいは直進用ウインドウの3種類のウインドウを選択するようにしたが、さらに多くの操舵角状態を判断し、種々の位置および大きさのウインドウを選択できるようにしてもよく、実質的に任意の操舵角に対して異なるウインドウを選択できるようにしてもよい。 In the flowchart shown in FIG. 12, three types of windows, the right window, the left window, and the straight traveling window, are selected based on the steering angle of the host vehicle, but more steering angle states are determined. Various windows with different positions and sizes may be selected, and different windows may be selected for virtually any steering angle.
つぎに、ウインドウ切換部231が選択するウインドウの一例について説明する。図13は、右用ウインドウの一例を示す図である。図13に示す右用ウインドウ251aは、
撮像範囲17の右半分の略全域に対応する。この右用ウインドウ251aは、撮像視野内の右側に位置する物体を画像上で選択的に捕捉することができ、この結果、右方向に進路変更する際に重要な右前方の画像情報を抽出することができる。一方、図14は、左用ウインドウの一例を示す図である。図14に示す左用ウインドウ251bは、撮像範囲17の左半分の略全域に対応する。この左用ウインドウ251bは、撮像視野内の左側に位置する物体を画像上で選択的に捕捉し、左前方の画像情報を抽出することができる。他方、図15は、直進用ウインドウの一例を示す図である。図15に示す直進用ウインドウ251cは、撮像範囲17の略全域に対応する。この直進用ウインドウ251cは、撮像視野内の略全域に位置する物体を画像上で捕捉する。
Next, an example of a window selected by the
This corresponds to substantially the entire right half of the imaging range 17. The
以上説明したこの実施の形態2にかかる画像処理装置201は、自車両の操舵角をもとに画像処理範囲を選択し、選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置201は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。 The image processing apparatus 201 according to the second embodiment described above selects an image processing range based on the steering angle of the host vehicle, and performs distance calculation based on the image signal group corresponding to the selected image processing range. Therefore, compared to a conventional image processing apparatus that performs distance calculation on all image signals in the image signal group, it is possible to reduce the load of distance calculation processing and to shorten the time required for distance calculation. As a result, the image processing apparatus 201 can shorten the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.
(実施の形態3)
つぎに、本発明の実施の形態3について説明する。上述した実施の形態1、2では、探知部が検出した速度あるいは操舵角をもとに、ウインドウ切換部がウインドウを選択するようにしていたが、この実施の形態3では、自車両の位置を検知し、検知した位置をもとに地図情報を参照し、参照した地図情報をもとにウインドウを選択するようにしている。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In Embodiments 1 and 2 described above, the window switching unit selects a window based on the speed or steering angle detected by the detection unit. However, in
図16は、本発明の実施の形態3にかかる画像処理装置の構成を示すブロック図である。図16に示す画像処理装置301は、上述した実施の形態1にかかる画像処理装置1の探知部60に代えて外部通信部370を備える。また、画像処理装置301は、制御部30に代えて制御部330を備え、制御部330は、ウインドウ切換部331を備える。さらに、画像処理装置301は、記憶部50に代えて記憶部350を備え、記憶部350は、ウインドウ切換部331が選択する複数のウインドウ情報を格納したウインドウ情報351と、外部通信部370が受信した位置情報352と、位置情報352をもとにウインドウ切換部331が参照する地図情報353とを記憶するとともに、記憶部50と同様に画像情報53および距離情報54を記憶する。その他の構成は実施の形態1と同じであり、同一構成部分には同一符号を付している。
FIG. 16 is a block diagram showing the configuration of the image processing apparatus according to the third embodiment of the present invention. An image processing apparatus 301 illustrated in FIG. 16 includes an
外部通信部370は、自車両の位置を検知する手段であって、たとえば、GPS(Global Positioning System)を利用した通信手段である。外部通信部370は、検知した位置を自車両の移動情報として制御部330に出力する。なお、外部通信部370は、自車両の位置を検知するとともに、検知した位置付近の地図情報を取得するようにしてもよい。また、外部通信部370は、通信手段に代えて、ジャイロスコープや速度計を応用した位置を検知するセンサ等にしてもよい。
The
つぎに、画像処理装置301が実行する処理について説明する。図17は、画像処理装置301が、撮像した画像に対応する距離情報を出力するまでの処理手順を示すフローチャートである。 Next, processing executed by the image processing apparatus 301 will be described. FIG. 17 is a flowchart illustrating a processing procedure until the image processing apparatus 301 outputs distance information corresponding to a captured image.
図17に示すように、外部通信部370が、自車両の位置情報を受信し、受信した位置情報を移動情報として制御部330に出力する位置情報受信を行い(ステップS302)、ウインドウ切換部331が、外部通信部370から取得した位置情報をもとに地図情報353を参照し、参照した地図情報に適合するウインドウをウインドウ情報351の中から選択し、選択したウインドウへの切り換えを画像処理部20に指示するウインドウ切換処理を行う(ステップS304)。ここで、ウインドウ切換部331は、選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。その後、画像処理装置301は、図17に示すように、撮像処理(ステップS306)、距離演算処理(ステップS308)および距離情報出力(ステップS310)を、それぞれ図2に示したステップS106、ステップS108およびステップS110と同様に実行する。ただし、ステップS308の距離演算処理で使用するウインドウが位置情報および地図情報に対応するウインドウである点と、外部通信部370が検知した位置を位置情報352として記憶する点において、画像処理装置301の処理は画像処理装置1の処理と異なる。
As illustrated in FIG. 17, the
なお、画像処理装置301でも画像処理装置1と同様に、処理機構が独立している処理を並行して実行し、処理サイクルを高速化することが好ましい。さらに、位置情報352が記憶する時系列の位置情報等をもとに以降の位置を予測し、ステップS302の位置情報受信を適宜スキップして処理サイクルの高速化をはかってもよい。なお、ステップS306の撮像処理は、ステップS302またはステップS304の直前で行うようにしてもよい。
Note that, similarly to the image processing apparatus 1, the image processing apparatus 301 preferably executes processes with independent processing mechanisms in parallel to increase the processing cycle. Further, the subsequent position may be predicted based on time-series position information stored in the
つぎに、図17に示したステップS304のウインドウ切換処理の一例について説明する。図18は、ウインドウ切換処理の処理手順の一例を示すフローチャートである。図18に示すように、ウインドウ切換部331は、外部通信部370から位置情報を取得し(ステップS322)、取得した位置情報をもとに地図情報353を参照し(ステップS324)、自車両が自動車専用道路を走行しているか否かを判断する(ステップS326)。ウインドウ切換部331は、自車両が自動車専用道路を走行していると判断した場合(ステップS326:Yes)、ウインドウ情報351から専用道路用ウインドウを選択し(ステップS328)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS330)、ステップS304にリターンする。一方、ウインドウ切換部331は、自車両が自動車専用道路を走行していないと判断した場合(ステップS326:No)、標準ウインドウを選択し(ステップS332)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS334)、ステップS304にリターンする。
Next, an example of the window switching process in step S304 shown in FIG. 17 will be described. FIG. 18 is a flowchart illustrating an example of the processing procedure of the window switching process. As shown in FIG. 18, the
ここで、ウインドウ切換部331が選択するウインドウの一例について説明する。図19は、専用道路用ウインドウの一例を示す図である。図19に示す専用道路用ウインドウ351aは、撮像範囲17の中央部に設けた複数の小ウインドウで構成されるウインドウである。この専用道路用ウインドウ351aは、撮像視野内の中央部に位置する物体を画像上で選択的に捕捉することができ、さらに、この捕捉した範囲の画像情報から所定の割合で画像情報を抽出することができる。この結果、この専用道路用ウインドウ351aは、自動車専用道路上を走行する際に重要な道路上の画像情報を、適当な画像分解能で抽出することができる。一方、図20は、標準ウインドウの一例を示す図である。図20に示す標準ウインドウ351bは、撮像範囲17の略全域に対応する。この標準ウインドウ351bは、道路上に限らず撮像視野内の略全域に位置する物体を画像上で捕捉する。
Here, an example of a window selected by the
なお、専用道路用ウインドウのパターンは、様々に設定することができる。たとえば、図19に示す専用道路用ウインドウ351aのスリットパターンを一層細く多数のスリットを含むスリットパターンとしてもよく、あるいは四角形の微小なウインドウをランダムに複数配置したドットパターンとしてもよく、これら以外にも種々のパターンが適用可能である。なお、ドットパターンのドットの形状は、四角形に限らず任意の多角形または円形もしくは楕円形にしてもよい。
Various patterns can be set for the dedicated road window. For example, the slit pattern of the
つぎに、図17に示したステップS304のウインドウ切換処理の別の一例について説明する。図21は、走行する道路の路面勾配の傾向をもとにウインドウを選択する処理を含んだウインドウ切換処理の処理手順を示すフローチャートである。図21に示すように、ウインドウ切換部331は、外部通信部370からの位置情報を取得し(ステップS342)、取得した位置情報をもとに地図情報353を参照し(ステップS344)、自車両が走行する路面が凹曲面か、凸曲面か、あるいは平坦面かを判断する(ステップS346)。ウインドウ切換部331は、自車両が走行する路面が凹曲面と判断した場合(ステップS346:凹曲面)、ウインドウ情報351から凹曲面用ウインドウを選択し(ステップS348)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS350)、ステップS304にリターンする。一方、ウインドウ切換部331は、路面が凸曲面と判断した場合(ステップS346:凸曲面)、凸曲面用ウインドウを選択し(ステップS352)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS354)、ステップS304にリターンする。他方、ウインドウ切換部331は、路面が平坦面と判断した場合(ステップS346:平坦面)、標準ウインドウを選択し(ステップS356)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS358)、ステップS304にリターンする。
Next, another example of the window switching process in step S304 shown in FIG. 17 will be described. FIG. 21 is a flowchart showing a processing procedure of window switching processing including processing for selecting a window based on the tendency of the road surface gradient of the traveling road. As shown in FIG. 21, the
なお、路面が凹曲面であるとは、路面勾配が仰角方向に増加する傾向であることを意味し、たとえば、平坦路面から上り坂にかわる路面、下り坂から平坦路面にかわる路面が適合する。一方、路面が凸曲面とは、路面勾配が俯角方向に増加する傾向にあることを意味し、たとえば、平坦路面から下り坂にかわる路面、上り坂から平坦路面にかわる路面が適合する。 Note that the road surface being a concave curved surface means that the road surface gradient tends to increase in the elevation angle direction. For example, a road surface that changes from a flat road surface to an uphill road and a road surface that changes from a downhill road to a flat road surface are suitable. On the other hand, a road surface having a convex curved surface means that the road surface gradient tends to increase in the depression direction. For example, a road surface that changes from a flat road surface to a downward slope and a road surface that changes from an uphill road to a flat road surface are suitable.
ここで、路面勾配の傾向をもとにウインドウ切換部331が選択するウインドウの一例について説明する。図22は、凹曲面用ウインドウの一例を示す図である。図22に示す凹曲面用ウインドウ351cは、撮像範囲17の上半分の略全域に対応する。この凹曲面用ウインドウ351cは、撮像視野内の上側に位置する物体を画像上で選択的に捕捉することができ、この結果、凹曲面である路面を進行する際に重要な前方上側の画像情報を抽出することができる。一方、図22は、凸曲面用ウインドウの一例を示す図である。図23に示す凸曲面用ウインドウ351dは、撮像範囲17の下半分の略全域に対応する。この凸曲面用ウインドウ351dは、撮像視野内の下側に位置する物体を画像上で選択的に捕捉し、前方下側の画像情報を抽出することができる。なお、平坦面である場合に選択する標準ウインドウは、図20に示す標準ウインドウ351bと同一である。
Here, an example of the window selected by the
ところで、図18および図21に示すフローチャートでは、地図情報として自車両が走行する道路の種別あるいは路面勾配の傾向をもとにウインドウを選択するようにしたが、たとえば、走行する道路もしくは車線の幅の大小、現在位置がトンネル内か否か、現在位置が市街地か否か等、様々な地図情報をもとに各種のウインドウを選択するようにしてもよい。 By the way, in the flowcharts shown in FIGS. 18 and 21, the window is selected based on the type of road on which the host vehicle is traveling or the tendency of the road surface gradient as the map information. Various windows may be selected based on various map information, such as whether the current position is in a tunnel, whether the current position is in an urban area, or the like.
以上説明したこの実施の形態3にかかる画像処理装置301は、自車両の位置情報と、この位置情報をもとに参照した地図情報とをもとに画像処理範囲を選択し、この選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置301は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。 The image processing apparatus 301 according to the third embodiment described above selects an image processing range based on the position information of the own vehicle and the map information referred to based on the position information, and selects the selected image. Since the distance calculation is performed based on the image signal group corresponding to the processing range, the load of the distance calculation process is reduced compared to the conventional image processing apparatus that performs the distance calculation on all the image signals of the image signal group, The time required for the distance calculation can be shortened. As a result, the image processing apparatus 301 can shorten the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.
(実施の形態4)
つぎに、本発明の実施の形態4について説明する。この実施の形態4にかかる画像処理装置は、上述した実施の形態1〜3にかかる画像処理装置1,201,301がそれぞれ備えた速度センサ61、操舵角センサ261および外部通信部370をすべて備え、自車両の移動情報を多角的に検知し、検知した移動情報に適合するウインドウを選択するようにしている。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. The image processing apparatus according to the fourth embodiment includes all of the speed sensor 61, the
図24は、本発明の実施の形態4にかかる画像処理装置の構成を示すブロック図である。図24に示す画像処理装置401は、上述した実施の形態3にかかる画像処理装置301においてさらに探知部460を備え、探知部460は、速度センサ61および操舵角センサ261を備える。また、画像処理装置401は、制御部330に代えて制御部430を備え、制御部430は、ウインドウ切換部431を備える。さらに、画像処理装置401は、記憶部350に代えて記憶部450を備え、記憶部450は、ウインドウ切換部431が選択する複数のウインドウ情報を格納したウインドウ情報451と、探知部460が探知した探知情報452とを記憶するとともに、記憶部350と同様に画像情報53、距離情報54、位置情報352および地図情報353を記憶する。その他の構成は実施の形態3と同じであり、同一構成部分には同一符号を付している。
FIG. 24 is a block diagram showing the configuration of the image processing apparatus according to the fourth embodiment of the present invention. An image processing device 401 illustrated in FIG. 24 further includes a
画像処理装置401では、ウインドウ切換部431が、速度センサ61が検出した速度と、操舵角センサ261が検出した操舵角と、外部通信部370が受信した位置情報に基づく地図情報とを、個別あるいは総合的に判断し、この判断結果に適合するウインドウをウインドウ情報451から選択し、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。その後、演算部21が、上述した実施の形態1〜3と同様に、選択したウインドウに対応する画像信号群に基づいて物体までの距離演算を行い、距離情報を作成し、出力する。なお、ウインドウ切換部431は、探知部460もしくは外部通信部370から取得する各種移動情報の可能な1以上の組み合わせをモードとして認識し、自車両の搭乗者等が指定したモードについて自車両の状態を判断するようにしてもよい。また、ウインドウ切換部431は、探知情報452および位置情報352が記憶する時系列の移動情報をもとに以降の自車両の状態を予測してもよい。
In the image processing apparatus 401, the
以上説明したこの実施の形態4にかかる画像処理装置401は、自車両の種々の移動情報を個別あるいは総合的に判断した結果をもとに画像処理範囲を選択し、この選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置401は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。 The image processing apparatus 401 according to the fourth embodiment described above selects an image processing range based on the result of individually or comprehensively determining various pieces of movement information of the host vehicle, and sets the selected image processing range. Since distance calculation is performed based on the corresponding image signal group, the load of distance calculation processing is reduced compared to the conventional image processing apparatus that performs distance calculation on all image signals of the image signal group. The time required can be shortened. As a result, the image processing apparatus 401 can reduce the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.
(実施の形態5)
つぎに、本発明の実施の形態5について説明する。上述した実施の形態1〜4では、撮像部10からの画像信号群を処理して撮像した物体までの距離を検出するようにしていたが、この実施の形態5では、撮像視野内に位置する物体までの距離をレーダで検出するようにしている。
(Embodiment 5)
Next, a fifth embodiment of the present invention will be described. In the first to fourth embodiments described above, the image signal group from the imaging unit 10 is processed to detect the distance to the imaged object, but in the fifth embodiment, the distance is within the imaging field of view. The distance to the object is detected by the radar.
図25は、本発明の実施の形態5にかかる画像処理装置の構成を示すブロック図である。図25に示す画像処理装置501は、上述した実施の形態4にかかる画像処理装置401にさらにレーダ580を備え、また、制御部430に代えて、さらにレーダ580を制御する機能を有した制御部530を備える。その他の構成は実施の形態4と同じであり、同一構成部分には同一符号を付している。
FIG. 25 is a block diagram showing the configuration of the image processing apparatus according to the fifth embodiment of the present invention. An image processing apparatus 501 shown in FIG. 25 further includes a
レーダ580は、所定の発信波を送信し、この発信波が物体表面で反射した反射波を受信し、発信状態および受信状態をもとに、レーダ580から発信波を反射した物体までの距離と、その物体が位置する方向とを検出する。レーダ580は、発信波の発信角度、反射波の入射角度、反射波の受信強度、発信波を発信してから反射波を受信するまでの時間、受信波および反射波における周波数変化をもとに、発信波を反射した物体までの距離および方向を検出する。レーダ580は、撮像部10の撮像視野内に位置する物体までの距離を、その物体が位置する方向とともに制御部530に出力する。レーダ580は、送信波として、たとえば、レーザ光、赤外光、ミリ波、マイクロ波、超音波などを送信する。
The
この実施の形態5にかかる画像処理装置501では、撮像部10からの画像情報を処理して距離を演算する代わりにレーダ580により距離を検出するため、一層高速かつ高精度に距離情報を取得できる。
In the image processing apparatus 501 according to the fifth embodiment, since the distance is detected by the
なお、画像処理装置501では、撮像部10によって撮像された画像信号群における位置関係とレーダ580の検出範囲における位置関係との整合は、以下のように予め求めたうえで各処理を行う。たとえば、画像処理装置501は、形状が既知の物体に対して、撮像部10による撮像処理およびレーダ580による検出処理を行い、撮像部10およびレーダ580のそれぞれによって処理した既知の物体の位置を求める。その後、画像処理装置501は、最小2乗法などを用いて、撮像部10およびレーダ580のそれぞれによって処理した既知の物体の位置の関係を求め、撮像部10によって撮像された画像信号群における位置関係とレーダ580の検出範囲における位置関係とを整合する。
In the image processing apparatus 501, the matching between the positional relationship in the image signal group captured by the imaging unit 10 and the positional relationship in the detection range of the
また、画像処理装置501では、撮像部10の撮像原点とレーダ580の検出原点とがずれている場合があっても、撮像点および検出点から画像処理装置501までの距離が十分に離れた場合であれば、撮像原点と検出原点とがほぼ重なっているものとみなすことができる。さらに、撮像部10によって撮像された画像信号群における位置関係とレーダ580の検出範囲における位置関係との整合が正確に行われている場合には、幾何変換によって、撮像原点と検出原点とのずれを補正することも可能である。
Further, in the image processing apparatus 501, even when the imaging origin of the imaging unit 10 and the detection origin of the
なお、画像処理装置501では、撮像部10によって撮像された画像信号群の各画像信号が位置する画素行に、レーダ580の各レーダ検出点が所定間隔で位置するように設定するとよい。また、このように各レーダ検出点が設定されない場合、各画像信号の近傍に位置する複数のレーダ検出点をもとに、一次補間法などを用いて各画像信号と同一画素行にレーダ検出点の補間点を求め、この補間点を用いて検出処理を行うようにすればよい。
Note that the image processing apparatus 501 may be set so that the radar detection points of the
(実施の形態6)
つぎに、本発明の実施の形態6について説明する。上述した実施の形態1〜5では、右カメラ11aおよび左カメラ11bの2台のカメラによってステレオ画像を撮像していたが、この実施の形態6では、一対の導光光学系と、各導光光学系に対応する撮像領域を有し、各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子によってステレオ画像を撮像するようにしている。
(Embodiment 6)
Next, a sixth embodiment of the present invention will be described. In Embodiments 1 to 5 described above, a stereo image is picked up by two cameras, the
図26は、本発明の実施の形態6にかかる画像処理装置の一部構成を示すブロック図である。図26に示す撮像部110は、上述した実施の形態1〜5にかかる画像処理装置における撮像部10に代わり、この実施の形態6にかかる画像処理装置が備える撮像部である。図26に示す以外の画像処理装置の構成は、上述した実施の形態1〜5のいずれかと同じである。 FIG. 26 is a block diagram showing a partial configuration of the image processing apparatus according to the sixth embodiment of the present invention. An imaging unit 110 illustrated in FIG. 26 is an imaging unit included in the image processing device according to the sixth embodiment instead of the imaging unit 10 in the image processing device according to the first to fifth embodiments. The configuration of the image processing apparatus other than that shown in FIG. 26 is the same as that of any of the first to fifth embodiments described above.
撮像部110は、撮像部10の右カメラ11aあるいは左カメラ11bと同様の構成および機能を有した撮像装置としてのカメラ111を備える。カメラ111は、レンズ112と、撮像素子113と、A/D変換部114と、フレームメモリ115とを備える。さらに、撮像部110は、カメラ111の前方に、ミラー119a〜119dによって構成された一対の導光光学系としてのステレオアダプタ119を備える。ステレオアダプタ119は、図26に示すように、ミラー119a,119bを組として反射面を略平行に対向して備え、ミラー119c,119dを別の組として反射面を略平行に対向して備える。ステレオアダプタ119は、この2組の一対のミラー系を、レンズ112の光軸を基準に左右対称に隣接して備える。
The imaging unit 110 includes a camera 111 as an imaging device having the same configuration and function as the
撮像部110は、撮像視野内に位置する物体からの光をステレオアダプタ119の左右2組のミラー系で受光し、撮像光学系としてのレンズ112で集光し、撮像素子113で撮像する。このとき、図27に示すように、撮像素子113は、ミラー119a,119bによる右の組のミラー系を介した右画像116aと、ミラー119c,119dによる左の組のミラー系を介した左画像116bとを、左右にずらした全く重ならない撮像領域で撮像する。なお、このようなステレオアダプタを用いた技術は、たとえば、特許文献2に開示されている。
The imaging unit 110 receives light from an object located in the imaging field of view with the two left and right mirror systems of the stereo adapter 119, collects it with a lens 112 as an imaging optical system, and captures an image with the
この実施の形態6にかかる撮像部110では、ステレオアダプタを備えた1台のカメラでステレオ画像を撮像するため、2台のカメラでステレオ画像を撮像する場合に比べ、撮像部を簡易化してコンパクトにできるとともに、機械的強度を増強し、左右の画像を相対的に常に安定した状態で撮像することができる。さらに、左右の画像を、共通のレンズおよび撮像素子を使用して撮像するため、固体差に起因するばらつきを抑え、キャリブレーションの手間や、位置合わせ等の組み立ての煩雑さを軽減できる。 Since the imaging unit 110 according to the sixth embodiment captures a stereo image with one camera provided with a stereo adapter, the imaging unit is simplified and compact compared to the case of capturing a stereo image with two cameras. In addition, the mechanical strength can be increased and the left and right images can be captured in a relatively stable state. Furthermore, since the left and right images are picked up using a common lens and an image pickup device, variations caused by individual differences can be suppressed, and the labor of calibration and the complexity of assembly such as alignment can be reduced.
なお、ステレオアダプタの構成として、図26では、平面鏡を略平行に対向して組み合わせた例を示したが、さらにレンズ群を組み合わせて構成してもよく、また、凸面鏡や凹面鏡等、曲率を有した反射鏡を組み合わせて構成してもよく、反射鏡の代わりにプリズムで反射面を構成してもよい。 As an example of the configuration of the stereo adapter, FIG. 26 shows an example in which plane mirrors are combined so as to face each other in parallel. However, a lens group may be combined, and a convex mirror, concave mirror, or the like has a curvature. The reflecting mirrors may be combined, and the reflecting surface may be configured by a prism instead of the reflecting mirror.
また、図27に示すように、この実施の形態6では、左右の画像を全く重ならないように撮像したが、左右の画像の一部ないし全部が重なるようにし、たとえば、受光部に設けたシャッター等により左右で受光する光を順次切り換えて撮像し、わずかな時間差をもって撮像した左右の画像をステレオ画像として画像処理に供してもよい。 As shown in FIG. 27, in the sixth embodiment, the left and right images are picked up so as not to overlap at all, but part or all of the left and right images are overlapped, for example, a shutter provided in the light receiving unit. For example, the left and right images may be sequentially switched and imaged, and the left and right images captured with a slight time difference may be subjected to image processing as a stereo image.
さらに、この実施の形態6では、左右の画像を左右に位置をずらして撮像する構成としたが、たとえば、ステレオアダプタの平面鏡を略直行に組み合わせて構成し、左右の画像を上下に位置をずらして撮像するようにしてもよい。 Further, in the sixth embodiment, the left and right images are picked up by shifting the position to the left and right. For example, the stereo adapter is configured by combining the plane mirrors in a substantially orthogonal manner, and the left and right images are shifted in the vertical direction. You may make it image.
ところで、以上の実施の形態1〜6では、自車両の移動情報として移動速度、移動方向もしくは位置情報を検知し、ウインドウを選択するようにしたが、移動加速度、移動方位等を検出し、ウインドウを選択するようにしてもよい。また、自車両の運転者の顔の向きや視線を検知し、ウインドウを選択するようにしてもよい。 By the way, in the above first to sixth embodiments, the moving speed, moving direction or position information is detected as the moving information of the host vehicle and the window is selected. However, the moving acceleration, moving direction and the like are detected, and the window May be selected. Further, the window may be selected by detecting the face direction and line of sight of the driver of the host vehicle.
さらに、実施の形態1〜5における撮像部10、あるいは実施の形態6における撮像部110の構成について、一対のカメラあるいはステレオアダプタの受光部が、左右に並んで配置されるとして説明したが、上下に並んで配置される構成としてもよく、また、斜め方向に並んで配置される構成としてもよい。 Furthermore, although the configuration of the imaging unit 10 in the first to fifth embodiments or the imaging unit 110 in the sixth embodiment has been described on the assumption that the light receiving units of a pair of cameras or stereo adapters are arranged side by side, It is good also as a structure arrange | positioned side by side, and good also as a structure arrange | positioned along with the diagonal direction.
また、撮像部のステレオカメラとして、いわゆる3眼ステレオカメラ、あるいは4眼ステレオカメラを構成してもよい。3眼あるいは4眼ステレオカメラを用いると、3次元再構成処理などにおいて、より信頼度が高く、安定した処理結果が得られることが知られている(富田文明:情報処理学会発行「情報処理」第42巻第4号の「高機能3次元視覚システム」等を参照)。特に、複数のカメラを2方向の基線長を持つように配置すると、より複雑なシーンで3次元再構成が可能になることが知られている。また、1つの基線長方向にカメラを複数台配置すると、いわゆるマルチベースライン方式のステレオカメラを実現することが可能となり、より高精度なステレオ計測が可能となる。 Further, a so-called three-eye stereo camera or a four-eye stereo camera may be configured as the stereo camera of the imaging unit. It is known that using a three-lens or four-lens stereo camera provides more reliable and stable processing results in three-dimensional reconstruction processing and the like (Fumiaki Tomita: “Information Processing” published by Information Processing Society of Japan) (Refer to Volume 42, No. 4, “Highly Functional 3D Vision System”). In particular, it is known that if a plurality of cameras are arranged so as to have a baseline length in two directions, three-dimensional reconstruction can be performed in a more complicated scene. If a plurality of cameras are arranged in one base line length direction, a so-called multi-baseline stereo camera can be realized, and more accurate stereo measurement can be performed.
一方、撮像部のカメラとして、複眼であるステレオカメラの代わりに単眼のカメラを用いてもよい。その場合には、演算部21において、たとえば、シェイプフロムフォーカス(shape from focus)法、シェイプフロムデフォーカス(shape from defocus)法、シェイプフロムモーション(shape from motion)法、シェイプフロムシェーディング(shape from shading)法等の3次元再構成技術を適用することにより、撮像視野内にある物体までの距離を演算することができる。ここで、シェイプフロムフォーカス法とは、最もよく合焦したときのフォーカス位置から距離を求める方法である。また、シェイプフロムデフォーカス法とは、合焦距離の異なる複数の画像から相対的なボケ量を求め、ボケ量と距離との相関関係をもとに距離を求める方法である。また、シェイプフロムモーション法とは、時間的に連続する複数の画像における所定の特徴点の移動軌跡をもとに物体までの距離を求める方法である。また、シェイプフロムシェーディング法とは、画像における陰影、対象となる物体の反射特性および光源情報をもとに物体までの距離を求める方法である。
On the other hand, a monocular camera may be used instead of a stereo camera that is a compound eye as a camera of the imaging unit. In this case, in the
また、上述の実施の形態1〜6では、自動車等の車両に搭載される画像処理装置について説明したが、他の移動体に搭載して適用することもできる。さらに、画像処理装置全体が移動体に搭載されなくてもよく、たとえば、撮像部および出力部が移動体に搭載され、その他の構成部位が移動体の外に構成され、これらの間を無線通信で接続してもよい。 In the first to sixth embodiments described above, the image processing apparatus mounted on a vehicle such as an automobile has been described. However, the image processing apparatus may be mounted and applied to another moving body. Further, the entire image processing apparatus may not be mounted on the moving body. For example, the imaging unit and the output unit are mounted on the moving body, and other components are configured outside the moving body, and wireless communication is performed between them. You may connect with.
1 画像処理装置
10 撮像部
11a 右カメラ
11b 左カメラ
12a,12b レンズ
13a,13b 撮像素子
14a,14b A/D変換部
15a,15b フレームメモリ
17 撮像範囲
18a,18b 画像
20 画像処理部
21 演算部
30 制御部
31 ウインドウ切換部
40 出力部
50 記憶部
51a 低速用ウインドウ
51b 高速用ウインドウ
54a,54b 距離情報
60 探知部
61 速度センサ
110 撮像部
111 カメラ
112 レンズ
113 撮像素子
114 A/D変換部
115 フレームメモリ
116 画像
119 ステレオアダプタ
119a,119b,119c,119d ミラー
251a 右用ウインドウ
251b 左用ウインドウ
251c 直進用ウインドウ
260 探知部
261 操舵角センサ
351a 専用道路用ウインドウ
351b 標準ウインドウ
351c 凹曲面用ウインドウ
351d 凸曲面用ウインドウ
370 外部通信部
580 レーダ
C,C1,C2 車両
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10
Claims (9)
前記画像信号群を処理して前記撮像視野内に位置する物体までの距離を演算する演算手段と、
前記演算手段における複数の画像処理範囲の中から前記移動体の移動情報に対応した画像処理範囲を選択し、前記演算手段における画像処理範囲を該選択した画像処理範囲に切り換える切換処理手段と、
を備え、
前記演算手段は、前記切換処理手段が切り換えた画像処理範囲に対応する前記画像信号群に基づいて前記物体までの距離を演算することを特徴とする画像処理装置。 An imaging means mounted on a moving body, having a predetermined imaging field of view, and generating an image signal group corresponding to the imaging field;
A computing means for processing the image signal group and computing a distance to an object located in the imaging field;
Switching processing means for selecting an image processing range corresponding to movement information of the moving body from among a plurality of image processing ranges in the computing means, and switching the image processing range in the computing means to the selected image processing range;
With
The image processing apparatus, wherein the calculating means calculates a distance to the object based on the image signal group corresponding to the image processing range switched by the switching processing means.
前記切換処理手段は、前記移動情報取得手段から出力された前記移動情報をもとに、前記複数の画像処理範囲の中から該移動情報に対応した前記画像処理範囲を選択することを特徴とする請求項1に記載の画像処理装置。 The movement information acquisition means for acquiring the movement information and outputting the acquired movement information to the switching processing means,
The switching processing unit selects the image processing range corresponding to the movement information from the plurality of image processing ranges based on the movement information output from the movement information acquisition unit. The image processing apparatus according to claim 1.
前記演算手段は、前記第2の画像信号群の中から前記第1の画像信号群の任意の画像信号と整合する画像信号を検出し、該検出した画像信号における前記任意の画像信号からの移動量に基づいて前記物体までの距離を演算することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。 The imaging means generates a first group of image signals captured through a first optical path and a second group of image signals captured through a second optical path;
The computing means detects an image signal that matches an arbitrary image signal of the first image signal group from the second image signal group, and moves the detected image signal from the arbitrary image signal. The image processing apparatus according to claim 1, wherein a distance to the object is calculated based on a quantity.
一対の撮像光学系と、
前記一対の撮像光学系の各々が出力する光信号を電気信号に変換する一対の撮像素子と、
を備えたことを特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。 The imaging means includes
A pair of imaging optical systems;
A pair of imaging elements for converting an optical signal output from each of the pair of imaging optical systems into an electrical signal;
The image processing apparatus according to claim 1, further comprising:
一対の導光光学系と、
各導光光学系に対する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子と、
を備えたことを特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。 The imaging means includes
A pair of light guiding optical systems;
An imaging device that has an imaging region for each light guide optical system and converts an optical signal guided by each light guide optical system into an electrical signal in each imaging region;
The image processing apparatus according to claim 1, further comprising:
複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、処理画像に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理ステップと、
所定の撮像視野に対応する画像信号群を生成する撮像ステップと、
前記切換処理ステップにおいて切り換えられた前記画像処理範囲に対応する前記画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算ステップと、
を含むことを特徴とする画像処理方法。 In an image processing method for processing an image captured by an imaging unit mounted on a moving body,
A switching process step of selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges, and switching the image processing range for the processed image to the selected image processing range;
An imaging step for generating an image signal group corresponding to a predetermined imaging field;
A calculation step of calculating a distance to an object located in the imaging field based on the image signal group corresponding to the image processing range switched in the switching processing step;
An image processing method comprising:
複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、処理画像に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理手順と、
所定の撮像視野に対応する画像信号群を生成する撮像手順と、
前記切換処理手順において切り換えられた前記画像処理範囲に対応する前記画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算手順と、
を含むことを特徴とする画像処理プログラム。
In an image processing program for processing an image captured by an imaging unit mounted on a moving body,
A switching processing procedure for selecting an image processing range corresponding to movement information of the moving object from a plurality of image processing ranges and switching the image processing range for a processed image to the selected image processing range;
An imaging procedure for generating an image signal group corresponding to a predetermined imaging visual field;
A calculation procedure for calculating a distance to an object located in the imaging field based on the image signal group corresponding to the image processing range switched in the switching processing procedure;
An image processing program comprising:
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005145826A JP2006322797A (en) | 2005-05-18 | 2005-05-18 | Apparatus, method, and program for processing image |
PCT/JP2006/309419 WO2006121087A1 (en) | 2005-05-10 | 2006-05-10 | Image processing device, image processing method, and image processing program |
EP06746229A EP1881450A1 (en) | 2005-05-10 | 2006-05-10 | Image processing apparatus, image processing method, and image processing program |
US11/936,492 US20080088707A1 (en) | 2005-05-10 | 2007-11-07 | Image processing apparatus, image processing method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005145826A JP2006322797A (en) | 2005-05-18 | 2005-05-18 | Apparatus, method, and program for processing image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006322797A true JP2006322797A (en) | 2006-11-30 |
Family
ID=37542594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005145826A Withdrawn JP2006322797A (en) | 2005-05-10 | 2005-05-18 | Apparatus, method, and program for processing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006322797A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145230A (en) * | 2007-12-14 | 2009-07-02 | Toyota Motor Corp | Object surveillance device for vehicle, and image analysis apparatus for vehicle |
JP2009146217A (en) * | 2007-12-14 | 2009-07-02 | Hitachi Ltd | Stereo camera device |
WO2009101687A1 (en) * | 2008-02-14 | 2009-08-20 | Konica Minolta Holdings, Inc. | Range finder |
JP2012020662A (en) * | 2010-07-15 | 2012-02-02 | Koito Mfg Co Ltd | Vehicle detector and headlight control device equipped with the same |
KR101467895B1 (en) * | 2013-02-28 | 2014-12-03 | 삼성중공업(주) | A localization method of marking unit and an appartus for marking using the same |
JP2015018515A (en) * | 2013-07-12 | 2015-01-29 | 矢崎エナジーシステム株式会社 | On-vehicle device |
WO2015083228A1 (en) * | 2013-12-03 | 2015-06-11 | 富士通株式会社 | Display control apparatus, display control method, and program |
JP2015203703A (en) * | 2014-04-16 | 2015-11-16 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | System and method for stereo object detection and distance calculation |
JP2016014610A (en) * | 2014-07-02 | 2016-01-28 | 株式会社リコー | Camera system, distance measurement method, and program |
WO2016027289A1 (en) * | 2014-08-21 | 2016-02-25 | 三菱電機株式会社 | Drive assist device, drive assist method, and program |
JP2017111762A (en) * | 2015-12-18 | 2017-06-22 | 株式会社リコー | Information processing apparatus, information processing system, and information processing program |
JP2017129543A (en) * | 2016-01-22 | 2017-07-27 | 京セラ株式会社 | Stereo camera device and vehicle |
US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
JP2021033605A (en) * | 2019-08-23 | 2021-03-01 | 株式会社デンソーテン | Image processor and method for processing image |
JP2022141664A (en) * | 2017-12-26 | 2022-09-29 | ウェイモ エルエルシー | Adjustable vertical field of view |
-
2005
- 2005-05-18 JP JP2005145826A patent/JP2006322797A/en not_active Withdrawn
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145230A (en) * | 2007-12-14 | 2009-07-02 | Toyota Motor Corp | Object surveillance device for vehicle, and image analysis apparatus for vehicle |
JP2009146217A (en) * | 2007-12-14 | 2009-07-02 | Hitachi Ltd | Stereo camera device |
WO2009101687A1 (en) * | 2008-02-14 | 2009-08-20 | Konica Minolta Holdings, Inc. | Range finder |
JP2012020662A (en) * | 2010-07-15 | 2012-02-02 | Koito Mfg Co Ltd | Vehicle detector and headlight control device equipped with the same |
KR101467895B1 (en) * | 2013-02-28 | 2014-12-03 | 삼성중공업(주) | A localization method of marking unit and an appartus for marking using the same |
JP2015018515A (en) * | 2013-07-12 | 2015-01-29 | 矢崎エナジーシステム株式会社 | On-vehicle device |
WO2015083228A1 (en) * | 2013-12-03 | 2015-06-11 | 富士通株式会社 | Display control apparatus, display control method, and program |
JPWO2015083228A1 (en) * | 2013-12-03 | 2017-03-16 | 富士通株式会社 | Display control apparatus, display control method, and program |
JP2015203703A (en) * | 2014-04-16 | 2015-11-16 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | System and method for stereo object detection and distance calculation |
JP2016014610A (en) * | 2014-07-02 | 2016-01-28 | 株式会社リコー | Camera system, distance measurement method, and program |
JP6062122B2 (en) * | 2014-08-21 | 2017-01-18 | 三菱電機株式会社 | Driving support device, driving support method and program |
WO2016027289A1 (en) * | 2014-08-21 | 2016-02-25 | 三菱電機株式会社 | Drive assist device, drive assist method, and program |
JPWO2016027289A1 (en) * | 2014-08-21 | 2017-04-27 | 三菱電機株式会社 | Driving support device, driving support method and program |
US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
JP2017111762A (en) * | 2015-12-18 | 2017-06-22 | 株式会社リコー | Information processing apparatus, information processing system, and information processing program |
JP2017129543A (en) * | 2016-01-22 | 2017-07-27 | 京セラ株式会社 | Stereo camera device and vehicle |
JP2022141664A (en) * | 2017-12-26 | 2022-09-29 | ウェイモ エルエルシー | Adjustable vertical field of view |
JP7486547B2 (en) | 2017-12-26 | 2024-05-17 | ウェイモ エルエルシー | Adjustable vertical field of view |
JP2021033605A (en) * | 2019-08-23 | 2021-03-01 | 株式会社デンソーテン | Image processor and method for processing image |
JP7303064B2 (en) | 2019-08-23 | 2023-07-04 | 株式会社デンソーテン | Image processing device and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006322797A (en) | Apparatus, method, and program for processing image | |
US20080088707A1 (en) | Image processing apparatus, image processing method, and computer program product | |
JP5729158B2 (en) | Parking assistance device and parking assistance method | |
JPWO2018042801A1 (en) | Imaging device | |
US7656508B2 (en) | Distance measuring apparatus, distance measuring method, and computer program product | |
WO2006121088A1 (en) | Image processing device, image processing method, and image processing program | |
WO2012086070A1 (en) | Road surface shape recognition apparatus and autonomous mobile apparatus utilizing same | |
JPWO2018003532A1 (en) | Object detection display device, moving object and object detection display method | |
JP2006322853A (en) | Distance measuring device, distance measuring method and distance measuring program | |
JP2008027309A (en) | Collision determination system and collision determination method | |
KR20150144681A (en) | Electronic apparatus and control method thereof | |
JP7098790B2 (en) | Imaging control device and moving object | |
JP2006322795A (en) | Image processing device, image processing method and image processing program | |
US20140055572A1 (en) | Image processing apparatus for a vehicle | |
JP2010044009A (en) | Vehicle vicinity monitoring apparatus | |
JP2006318059A (en) | Apparatus, method, and program for image processing | |
KR20150144201A (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
JP2013157770A (en) | On-vehicle camera exposure control device | |
JP2006323693A (en) | Processor, and method and program for processing image | |
JP2006322796A (en) | Image processing device, image processing method and image processing program | |
US20220381913A1 (en) | Distance measurement sensor, signal processing method, and distance measurement module | |
CN113614810B (en) | Image processing device, vehicle control device, method, and program | |
JP2006031101A (en) | Image generation method and device therefor | |
JP2006318061A (en) | Apparatus, method, and program for image processing | |
JP2007278869A (en) | Range finder, periphery monitor for vehicle, range finding method, and program for range finding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080805 |