JP2006322797A - Apparatus, method, and program for processing image - Google Patents

Apparatus, method, and program for processing image Download PDF

Info

Publication number
JP2006322797A
JP2006322797A JP2005145826A JP2005145826A JP2006322797A JP 2006322797 A JP2006322797 A JP 2006322797A JP 2005145826 A JP2005145826 A JP 2005145826A JP 2005145826 A JP2005145826 A JP 2005145826A JP 2006322797 A JP2006322797 A JP 2006322797A
Authority
JP
Japan
Prior art keywords
image processing
image
window
imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005145826A
Other languages
Japanese (ja)
Inventor
Hidekazu Iwaki
秀和 岩城
Akio Kosaka
明生 小坂
Takashi Miyoshi
貴史 三由
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005145826A priority Critical patent/JP2006322797A/en
Priority to PCT/JP2006/309419 priority patent/WO2006121087A1/en
Priority to EP06746229A priority patent/EP1881450A1/en
Publication of JP2006322797A publication Critical patent/JP2006322797A/en
Priority to US11/936,492 priority patent/US20080088707A1/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To output distance information at high speed by reducing the load required to process distance computations. <P>SOLUTION: This image processing apparatus 1 is provided with: an imaging part 10 mounted to a mobile body for creating a group of image signals corresponding to a prescribed imaging field of view; a detection part 60 for acquiring movement information of the mobile body; a window changeover part 31 for performing the processing of both the selection of a window matched with the movement information acquired by the detection part 60 and changeover to the selected window; and an operation part 21 for processing a group of image signals corresponding to an image processing range specified by the window changed by the window changeover part 31 and computing the distance to an object located within the imaging field of view. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、所定の視野を撮像して生成する画像に対して画像処理を施す画像処理装置、画像処理方法および画像処理プログラムに関し、特に車載用として好適な画像処理装置、画像処理方法および画像処理プログラムに関するものである。   The present invention relates to an image processing device, an image processing method, and an image processing program for performing image processing on an image generated by imaging a predetermined field of view, and more particularly to an image processing device, an image processing method, and an image processing suitable for use in a vehicle. It is about the program.

従来、自動車等の車両に搭載され、自車両の前方を走行する先行車両を撮像した画像を処理し、自車両から先行車両までの距離を検出する車間距離検出装置が知られている(たとえば、特許文献1参照)。この車間距離検出装置は、画像上で先行車両を捕捉するために、画像内の所定位置に複数の測距用ウインドウを設定し、この設定した各測距用ウインドウ内で画像を処理して任意の対象物までの距離を演算し、演算した結果と測距用ウインドウの位置情報とをもとに先行車両の撮像位置を認識している。   2. Description of the Related Art Conventionally, an inter-vehicle distance detection device is known that is mounted on a vehicle such as an automobile and processes an image obtained by imaging a preceding vehicle that travels in front of the host vehicle, and detects a distance from the host vehicle to the preceding vehicle (for example, Patent Document 1). This inter-vehicle distance detection device sets a plurality of distance measurement windows at predetermined positions in the image in order to capture the preceding vehicle on the image, and processes the image within each of the set distance measurement windows to arbitrarily set the distance measurement window. The distance to the target object is calculated, and the imaging position of the preceding vehicle is recognized based on the calculated result and the position information of the distance measurement window.

特許第2635246号公報Japanese Patent No. 2635246 特開平8−171151号公報JP-A-8-171151

ところで、上述した従来の車間距離検出装置では、撮像位置が不明な先行車両を捕捉するため、測距用ウインドウは画像のほぼ全域をカバーするように設定する必要があった。この結果、画像のほぼ全域を処理して距離演算を行うので、演算処理の負荷が大きく、処理時間がかかるという問題があった。   By the way, in the conventional inter-vehicle distance detection device described above, in order to capture a preceding vehicle whose imaging position is unknown, the distance measurement window needs to be set so as to cover almost the entire area of the image. As a result, since the distance calculation is performed by processing almost the entire area of the image, there is a problem that the load of the calculation process is large and the processing time is long.

本発明は、上記に鑑みてなされたものであって、撮像した画像を処理し、先行車両等の所定の物体までの距離を演算する場合に、演算処理の負荷を軽減し、高速に距離情報を出力することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and when processing a captured image and calculating a distance to a predetermined object such as a preceding vehicle, the load of calculation processing is reduced, and distance information can be obtained at high speed. Is to provide an image processing apparatus, an image processing method, and an image processing program.

上記の目的を達成するために、本発明の請求項1にかかる画像処理装置は、移動体に搭載され、所定の撮像視野を有し、該撮像視野に対応する画像信号群を生成する撮像手段と、前記画像信号群を処理して前記撮像視野内に位置する物体までの距離を演算する演算手段と、複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、前記演算手段における画像処理範囲を該選択した画像処理範囲に切り換える切換処理手段と、を備え、前記演算手段は、前記切換処理手段が切り換えた前記画像処理範囲に対応する画像信号群に基づいて前記物体までの距離を演算することを特徴とする。   In order to achieve the above object, an image processing apparatus according to claim 1 of the present invention is mounted on a moving body, has an imaging field of view, and generates an image signal group corresponding to the imaging field of view. A calculation means for processing the image signal group to calculate a distance to an object located in the imaging field of view, and selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges Switching processing means for switching the image processing range in the computing means to the selected image processing range, and the computing means is based on an image signal group corresponding to the image processing range switched by the switching processing means. And calculating the distance to the object.

また、本発明の請求項2にかかる画像処理装置は、上記の発明において、前記移動情報を取得し、取得した該移動情報を前記切換処理手段に出力する移動情報取得手段を備え、前記切換処理手段は、前記移動情報取得手段から出力された前記移動情報をもとに、前記複数の画像処理範囲の中から該移動情報に対応した前記画像処理範囲を選択することを特徴とする。   An image processing apparatus according to claim 2 of the present invention is the image processing apparatus according to the above invention, further comprising movement information acquisition means for acquiring the movement information and outputting the acquired movement information to the switching processing means. The means selects the image processing range corresponding to the movement information from the plurality of image processing ranges based on the movement information output from the movement information acquisition means.

また、本発明の請求項3にかかる画像処理装置は、上記の発明において、前記移動情報は、前記移動体の移動速度、前記移動体の移動加速度、前記移動体の移動方向、前記移動体の移動方位および/または前記移動体の位置情報であることを特徴とする。   In the image processing apparatus according to claim 3 of the present invention, in the above invention, the movement information includes a moving speed of the moving body, a moving acceleration of the moving body, a moving direction of the moving body, It is a moving direction and / or position information of the moving body.

また、本発明の請求項4にかかる画像処理装置は、上記の発明において、前記撮像手段は、第1の光路を介して撮像した第1の前記画像信号群と、第2の光路を介して撮像した第2の前記画像信号群とを生成し、前記演算手段は、前記第2の画像信号群の中から前記第1の画像信号群の任意の画像信号と整合する画像信号を検出し、該検出した画像信号における前記任意の画像信号からの移動量に基づいて前記物体までの距離を演算することを特徴とする。なお、ここで述べた移動量は、一般的に言われる視差量を示す。   The image processing apparatus according to claim 4 of the present invention is the image processing apparatus according to the above invention, wherein the imaging means is configured to transmit the first image signal group captured through the first optical path and the second optical path. Generating the imaged second image signal group, and the computing means detects an image signal that matches an arbitrary image signal of the first image signal group from the second image signal group, The distance to the object is calculated based on the amount of movement from the arbitrary image signal in the detected image signal. Note that the movement amount described here indicates a parallax amount generally referred to.

また、本発明の請求項5にかかる画像処理装置は、上記の発明において、前記撮像手段は、一対の撮像光学系と、前記一対の撮像光学系の各々が出力する光信号を電気信号に変換する一対の撮像素子と、を備えたことを特徴とする。   In the image processing apparatus according to claim 5 of the present invention, in the above invention, the imaging unit converts a pair of imaging optical systems and an optical signal output from each of the pair of imaging optical systems into an electrical signal. And a pair of imaging elements.

また、本発明の請求項6にかかる画像処理装置は、上記の発明において、前記撮像手段は、一対の導光光学系と、各導光光学系に対する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子と、を備えたことを特徴とする。   In the image processing apparatus according to claim 6 of the present invention, in the above invention, the imaging unit includes a pair of light guiding optical systems and imaging regions for the light guiding optical systems. And an imaging device that converts the guided optical signal into an electrical signal in each imaging region.

また、本発明の請求項7にかかる画像処理装置は、上記の発明において、前記移動体は、車両であることを特徴とする。   According to a seventh aspect of the present invention, in the above invention, the moving body is a vehicle.

また、本発明の請求項8にかかる画像処理方法は、移動体に搭載され、所定の撮像視野を有する撮像手段によって生成された、該撮像視野に対応する画像信号群を処理する画像処理方法であって、 複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、前記画像信号群に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理ステップと、前記切換処理ステップにおいて切り換えられた前記画像処理範囲に対応する画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算ステップと、を含むことを特徴とする。   An image processing method according to an eighth aspect of the present invention is an image processing method for processing an image signal group corresponding to an imaging field generated by an imaging unit mounted on a moving body and having a predetermined imaging field. A switching process step of selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges, and switching the image processing range for the image signal group to the selected image processing range; A calculation step of calculating a distance to an object located in the imaging field based on the image signal group corresponding to the image processing range switched in the switching processing step.

また、本発明の請求項9にかかる画像処理プログラムは、移動体に搭載され、所定の撮像視野を有する撮像手段によって生成された、該撮像視野に対応する画像信号群を処理する画像処理プログラムであって、複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、前記画像信号群に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理手順と、前記切換処理手順において切り換えられた前記画像処理範囲に対応する画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算手段と、を含むことを特徴とする。   An image processing program according to claim 9 of the present invention is an image processing program for processing an image signal group corresponding to an imaging field generated by an imaging unit mounted on a moving body and having a predetermined imaging field. A switching processing procedure for selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges, and switching the image processing range for the image signal group to the selected image processing range; Calculating means for calculating a distance to an object located in the imaging field of view based on an image signal group corresponding to the image processing range switched in the switching processing procedure.

本発明の画像処理装置、画像処理方法および画像処理プログラムによれば、撮像した画像を処理し、先行車両等の所定の物体までの距離を演算する場合に、演算処理の負荷を軽減し、高速に距離情報を出力することができる。   According to the image processing device, the image processing method, and the image processing program of the present invention, when processing a captured image and calculating a distance to a predetermined object such as a preceding vehicle, the load of the calculation process is reduced, and high speed Can output distance information.

以下、添付図面を参照して、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムの好適な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described below in detail with reference to the accompanying drawings.

(実施の形態1)
図1は、本発明の実施の形態1にかかる画像処理装置の構成を示すブロック図である。図1に示す画像処理装置1は、所定の撮像視野を有し、撮像視野に対応する画像を撮像し画像信号群を生成する撮像部10と、撮像部10が生成した画像信号群を解析し処理する画像処理部20と、画像処理装置1の全体の処理および動作を制御する制御部30と、距離情報を含む各種情報を出力する出力部40と、距離情報を含む各種情報を記憶する記憶部50と、画像処理装置1が搭載される四輪自動車等の移動体である自車両の移動情報を探知する探知部60とを備える。撮像部10、画像処理部20、出力部40、記憶部50および探知部60は、制御部30に電気的に接続される。なお、この接続の形態は、有線に限らず無線も含む。
(Embodiment 1)
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. An image processing apparatus 1 shown in FIG. 1 has a predetermined imaging field of view, images an image corresponding to the imaging field of view and generates an image signal group, and analyzes the image signal group generated by the imaging unit 10. An image processing unit 20 to be processed, a control unit 30 that controls the overall processing and operation of the image processing apparatus 1, an output unit 40 that outputs various types of information including distance information, and a memory that stores various types of information including distance information. Unit 50 and a detection unit 60 that detects movement information of the host vehicle that is a moving body such as a four-wheeled vehicle on which the image processing apparatus 1 is mounted. The imaging unit 10, the image processing unit 20, the output unit 40, the storage unit 50, and the detection unit 60 are electrically connected to the control unit 30. Note that this form of connection includes not only wired but also wireless.

撮像部10は、ステレオカメラであり、左右に並んで配置された右カメラ11aと、左カメラ11bとを備える。右カメラ11aは、レンズ12aと、撮像素子13aと、アナログ/デジタル(A/D)変換部14aと、フレームメモリ15aとを備える。レンズ12aは、所定の撮像視野内に位置する任意の物体からの光を撮像素子13a上に集光する。撮像素子13aは、CCDあるいはCMOS等の撮像素子であり、レンズ12aが集光した物体からの光を光信号として検知し、アナログ信号である電気信号に変換し、出力する。A/D変換部14aは、撮像素子13aが出力したアナログ信号をデジタル信号に変換し、出力する。フレームメモリ15aは、A/D変換部14aが出力したデジタル信号を記憶し、1枚の撮像画像に対応するデジタル信号群を、撮像視野に対応した画像信号群である画像情報として随時出力する。一方、左カメラ11bは、右カメラ11aと同様の構成であり、レンズ12bと、撮像素子13bと、A/D変換部14bと、フレームメモリ15bとを備える。左カメラ11bの各構成部位は、右カメラ11aの対応する各構成部位と同様の機能を備える。   The imaging unit 10 is a stereo camera and includes a right camera 11a and a left camera 11b arranged side by side. The right camera 11a includes a lens 12a, an image sensor 13a, an analog / digital (A / D) converter 14a, and a frame memory 15a. The lens 12a collects light from an arbitrary object located within a predetermined imaging field on the imaging device 13a. The image pickup device 13a is an image pickup device such as a CCD or a CMOS, detects light from an object condensed by the lens 12a as an optical signal, converts it into an electrical signal that is an analog signal, and outputs it. The A / D converter 14a converts the analog signal output from the image sensor 13a into a digital signal and outputs the digital signal. The frame memory 15a stores the digital signal output from the A / D converter 14a, and outputs a digital signal group corresponding to one captured image as image information that is an image signal group corresponding to the imaging field. On the other hand, the left camera 11b has the same configuration as the right camera 11a, and includes a lens 12b, an image sensor 13b, an A / D conversion unit 14b, and a frame memory 15b. Each component of the left camera 11b has the same function as each corresponding component of the right camera 11a.

撮像部10が備える一対の撮像光学系としてのレンズ12a,12bは、光軸を平行にし、距離Lだけ離れて位置する。撮像素子13a,13bは、それぞれレンズ12a,12bから光軸上で距離fだけ離れて位置する。右カメラ11aおよび左カメラ11bは、同一の物体を互いに異なる位置から異なる光路を介して撮像する。なお、レンズ12a,12bは、通常は複数のレンズを組み合わせて構成され、たとえばディストーション等のレンズの収差を良好に補正した状態にある。   The lenses 12a and 12b as a pair of imaging optical systems provided in the imaging unit 10 are positioned with a parallel optical axis and separated by a distance L. The image sensors 13a and 13b are located at a distance f on the optical axis from the lenses 12a and 12b, respectively. The right camera 11a and the left camera 11b capture the same object from different positions through different optical paths. The lenses 12a and 12b are usually configured by combining a plurality of lenses, and are in a state where lens aberrations such as distortion are corrected satisfactorily.

画像処理部20は、撮像部10から取得した画像信号群を処理し、撮像した物体までの距離を演算する演算部21を備える。演算部21は、右カメラ11aが出力する右画像信号群の中から、左カメラ11bが出力する左画像信号群の中の任意の左画像信号と整合する右画像信号を検出し、この検出した右画像信号の、対応する左画像信号からの距離である移動量に基づいて、撮像視野内に位置する物体までの距離を演算する。換言すると、演算部21は、右カメラ11aが生成した右画像信号群と、左カメラ11bが生成した左画像信号群とを、それぞれの撮像光学系の光軸の位置を基準に重ね合わせ、左画像信号群の中の任意の左画像信号と、これに最も整合する右画像信号群の中の右画像信号とを検出し、対応する左画像信号から右画像信号までの撮像素子上での距離である移動量Iを求め、三角測量の原理に基づく以下の(1)式を利用し、たとえば図1における撮像部10から車両Cまでの距離Rを演算する。なお、移動量Iは、撮像素子の画素数と画素ピッチとをもとに求めるとよい。なお、ここでは簡単のため、平行ステレオで説明したが、光軸が角度を持って交差したり、焦点距離がおのおの違う、撮像素子とレンズの位置関係が異なる等をキャリブレーションし、レクティフィケーションにより補正し、演算処理による平行ステレオを実現しても良い。
R=f・L/I ・・・(1)
The image processing unit 20 includes a calculation unit 21 that processes the image signal group acquired from the imaging unit 10 and calculates the distance to the captured object. The computing unit 21 detects a right image signal that matches an arbitrary left image signal in the left image signal group output from the left camera 11b from the right image signal group output from the right camera 11a, and detects the detected right image signal. Based on the amount of movement of the right image signal, which is the distance from the corresponding left image signal, the distance to the object located in the imaging field of view is calculated. In other words, the calculation unit 21 superimposes the right image signal group generated by the right camera 11a and the left image signal group generated by the left camera 11b on the basis of the position of the optical axis of each imaging optical system. Detects any left image signal in the image signal group and the right image signal in the right image signal group that most closely matches this, and the distance on the image sensor from the corresponding left image signal to the right image signal For example, the distance R from the imaging unit 10 to the vehicle C in FIG. 1 is calculated using the following equation (1) based on the principle of triangulation. The movement amount I may be obtained based on the number of pixels of the image sensor and the pixel pitch. For simplicity, the parallel stereo is explained here, but the optical axes intersect with an angle, the focal lengths are different, the positional relationship between the image sensor and the lens is calibrated, and so on. It is also possible to realize parallel stereo by arithmetic processing.
R = f · L / I (1)

演算部21は、画像処理範囲内の任意の画像信号に対応する物体までの距離を演算する。画像処理部20は、演算部21が演算した物体までの距離と画像内の物体の位置とを対応させ距離情報を作成し、制御部30に出力する。なお、ここで距離演算の対象となる物体は、有体物である物体に限らず、撮像した任意の被写体であって、路面や空等の背景も含まれる。   The calculation unit 21 calculates a distance to an object corresponding to an arbitrary image signal within the image processing range. The image processing unit 20 creates distance information by associating the distance to the object calculated by the calculation unit 21 with the position of the object in the image, and outputs the distance information to the control unit 30. Note that the object that is the target of the distance calculation here is not limited to a tangible object, but is an arbitrary subject that has been imaged, and includes backgrounds such as road surfaces and the sky.

制御部30は、記憶部50が記憶する処理プログラムを実行するCPUを備え、撮像部10、画像処理部20、出力部40、記憶部50および探知部60が行う各種処理および動作を制御する。特に、この実施の形態1にかかる制御部30は、ウインドウ切換部31を備える。ウインドウ切換部31は、探知部60から移動情報を取得し、この移動情報に適合するウインドウをウインドウ情報51が記憶する複数のウインドウ情報の中から選択し、演算部21で設定するウインドウをこの選択したウインドウに切り換える指示情報を、ウインドウ情報とともに画像処理部20に出力する。なお、ウインドウ情報とは、ウインドウの大きさや形状等に関する情報である。   The control unit 30 includes a CPU that executes a processing program stored in the storage unit 50, and controls various processes and operations performed by the imaging unit 10, the image processing unit 20, the output unit 40, the storage unit 50, and the detection unit 60. In particular, the control unit 30 according to the first embodiment includes a window switching unit 31. The window switching unit 31 acquires movement information from the detection unit 60, selects a window that matches the movement information from among a plurality of window information stored in the window information 51, and selects the window set by the calculation unit 21 Instruction information for switching to the window is output to the image processing unit 20 together with the window information. The window information is information regarding the size and shape of the window.

出力部40は、距離情報を含む各種情報を出力する。たとえば、出力部40は、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイ等の表示装置を備え、撮像部10が撮像した画像等、各種の表示可能な情報を距離情報とともに表示する。さらに、スピーカー等の音声出力装置を備え、距離情報や距離情報に基づく警告等、各種音声情報を出力するように構成してもよい。   The output unit 40 outputs various types of information including distance information. For example, the output unit 40 includes a display device such as a liquid crystal display or an organic EL (Electroluminescence) display, and displays various displayable information such as an image captured by the imaging unit 10 together with distance information. Furthermore, a voice output device such as a speaker may be provided, and various voice information such as distance information and a warning based on the distance information may be output.

記憶部50は、所定のOSを起動するプログラムや画像処理プログラム等の各種情報が予め記憶されたROMと、各処理の演算パラメータや各構成部位に入出力される各種情報等を記憶するRAMとを備える。さらに、記憶部50は、ウインドウ切換部31が選択する複数のウインドウ情報を格納したウインドウ情報51、探知部60が探知した探知情報52、撮像部10が撮像した画像情報53および演算部21が演算し作成した距離情報54を記憶する。   The storage unit 50 includes a ROM in which various types of information such as a program for starting a predetermined OS and an image processing program are stored in advance, and a RAM in which various processing parameters for each process and various types of information input to and output from each component are stored. Is provided. In addition, the storage unit 50 stores window information 51 storing a plurality of window information selected by the window switching unit 31, detection information 52 detected by the detection unit 60, image information 53 captured by the imaging unit 10, and calculation by the calculation unit 21. Then, the created distance information 54 is stored.

探知部60は、自車両の移動情報を各種センサで検出する。特に、この実施の形態1にかかる探知部60は、自車両の移動速度を検出する速度センサ61を備える。速度センサ61は、自動車等が通常備える速度計である。探知部60は、速度センサ61が検出する速度情報を自車両の移動情報として制御部30に出力する。なお、速度センサ61は、自車両から走行する路面を観測し速度を演算するセンサ、加速度を検出し速度を演算するセンサ等であってもよい。   The detection unit 60 detects movement information of the host vehicle using various sensors. In particular, the detection unit 60 according to the first embodiment includes a speed sensor 61 that detects the moving speed of the host vehicle. The speed sensor 61 is a speedometer normally provided in an automobile or the like. The detection unit 60 outputs speed information detected by the speed sensor 61 to the control unit 30 as movement information of the host vehicle. The speed sensor 61 may be a sensor that observes a road surface traveling from the host vehicle and calculates a speed, a sensor that detects acceleration and calculates a speed, and the like.

つぎに、画像処理装置1が実行する処理について、図2のフローチャートにしたがって説明する。図2は、画像処理装置1が、撮像した画像に対応する距離情報を出力するまでの処理手順を示すフローチャートである。   Next, processing executed by the image processing apparatus 1 will be described with reference to the flowchart of FIG. FIG. 2 is a flowchart illustrating a processing procedure until the image processing apparatus 1 outputs distance information corresponding to a captured image.

図2に示すように、速度センサ61が、自車両の移動速度を検出し、検出した速度を探知情報として制御部30に出力する速度探知処理を行い(ステップS102)、ウインドウ切換部31が、探知部60から取得した探知情報に適合するウインドウをウインドウ情報51の中から選択し、選択したウインドウへの切り換えを画像処理部20に指示するウインドウ切換処理を行う(ステップS104)。このステップS104で、ウインドウ切換部31は、選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。つぎに、撮像部10が、所定の視野を撮像し、生成した画像信号群を画像情報として画像処理部20に出力する撮像処理を行い(ステップS106)、演算部21が、ウインドウ切換部31から指示されたウインドウに対応する画像信号群をもとに物体までの距離を演算し、演算した距離と画像上の物体の位置とを対応させた距離情報を作成し、制御部30に出力する距離演算処理を行う(ステップS108)。制御部30は、この距離情報およびこの距離情報に基づく所定の処理情報を出力部40に出力し(ステップS110)、一連の処理を終了する。なお、制御部30は、各処理ステップで生成された情報である探知情報52、画像情報53および距離情報54を記憶部50に随時記憶する。   As shown in FIG. 2, the speed sensor 61 detects the moving speed of the host vehicle, performs speed detection processing that outputs the detected speed to the control unit 30 as detection information (step S102), and the window switching unit 31 A window that matches the detection information acquired from the detection unit 60 is selected from the window information 51, and a window switching process for instructing the image processing unit 20 to switch to the selected window is performed (step S104). In step S104, the window switching unit 31 outputs instruction information for switching to the selected window to the image processing unit 20 together with the window information. Next, the imaging unit 10 captures a predetermined field of view, performs an imaging process of outputting the generated image signal group to the image processing unit 20 as image information (step S106), and the calculation unit 21 starts from the window switching unit 31. The distance to the object is calculated based on the image signal group corresponding to the instructed window, distance information is created by associating the calculated distance with the position of the object on the image, and the distance is output to the control unit 30 Arithmetic processing is performed (step S108). The control unit 30 outputs the distance information and predetermined processing information based on the distance information to the output unit 40 (step S110), and ends a series of processing. The control unit 30 stores detection information 52, image information 53, and distance information 54, which are information generated in each processing step, in the storage unit 50 as needed.

上述した一連の処理は、たとえば、自車両の搭乗者等から所定の処理終了あるいは中断の指示がない限り、継続して繰り返す。また、上述した一連の処理は、逐次実行するものとして説明したが、処理機構が独立している処理を並行して実行し、処理サイクルを高速化することが好ましい。さらに、探知情報52が記憶する時系列の速度情報をもとに以降の速度状態を予測し、速度探知処理を適宜スキップして処理サイクルの高速化をはかってもよい。なお、ステップS106の撮像処理は、ステップS102またはステップS104の直前で行うようにしてもよい。   The above-described series of processing is continuously repeated unless, for example, a predetermined processing end or interruption instruction is given from the passenger of the host vehicle. In addition, although the series of processes described above has been described as being executed sequentially, it is preferable to speed up the processing cycle by executing processes independent of the processing mechanism in parallel. Further, the subsequent speed state may be predicted based on the time-series speed information stored in the detection information 52, and the speed detection process may be skipped as appropriate to speed up the processing cycle. Note that the imaging process in step S106 may be performed immediately before step S102 or step S104.

つぎに、図2に示したステップS104のウインドウ切換処理について説明する。図3は、ウインドウ切換処理の処理手順を示すフローチャートである。図3に示すように、ウインドウ切換部31は、探知部60から探知情報を取得し(ステップS122)、自車両の速度が低速か、または高速かを判断し(ステップS124)、低速であると判断した場合(ステップS124:低速)、ウインドウ情報51から低速用ウインドウを選択し(ステップS126)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS128)、ステップS104にリターンする。一方、高速であると判断した場合(ステップS124:高速)、ウインドウ切換部31は、ウインドウ情報51から高速用ウインドウを選択し(ステップS130)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS132)、ステップS104にリターンする。   Next, the window switching process in step S104 shown in FIG. 2 will be described. FIG. 3 is a flowchart showing the processing procedure of the window switching process. As shown in FIG. 3, the window switching unit 31 acquires detection information from the detection unit 60 (step S122), determines whether the speed of the host vehicle is low or high (step S124), and is low. If it is determined (step S124: low speed), a low speed window is selected from the window information 51 (step S126), and instruction information for switching to the selected window is output to the image processing unit 20 together with the window information (step S128). The process returns to S104. On the other hand, when it is determined that the speed is high (step S124: high speed), the window switching unit 31 selects a high speed window from the window information 51 (step S130), and the instruction information for switching to the selected window is displayed together with the window information. The data is output to the processing unit 20 (step S132), and the process returns to step S104.

なお、図3に示すフローチャートでは、自車両の速度をもとに低速用ウインドウまたは高速用ウインドウの2種類のウインドウを選択するようにしたが、さらに多くの速度状態を判断し、種々の大きさのウインドウを選択できるようにしてもよく、実質的に任意の速度に対して異なる大きさのウインドウを選択できるようにしてもよい。   In the flowchart shown in FIG. 3, two types of windows, the low speed window and the high speed window, are selected based on the speed of the host vehicle, but more speed states are determined and various sizes are selected. May be selectable, or windows of different sizes may be selected for virtually any speed.

つぎに、ウインドウ切換部31が選択するウインドウの一例について説明する。図4は、低速用ウインドウの一例を示す図である。図4に示す低速用ウインドウ51aは、撮像部10の撮像視野に対応する撮像範囲17の略全域に対応する。この低速用ウインドウ15aは、撮像視野内で自車両から近距離ないし遠距離の範囲に位置する物体を画像上で捕捉する。一方、図5は、高速用ウインドウの一例を示す図である。図5に示す高速用ウインドウ51bは、低速用ウインドウ51aに比して小さく、撮像範囲17の中央部の部分領域に対応する。この高速用ウインドウ51bは、撮像視野内で自車両から遠距離に位置する物体を画像上で選択的に捕捉することができ、この結果、高速走行時に重要な遠方の画像情報を抽出することができる。   Next, an example of a window selected by the window switching unit 31 will be described. FIG. 4 is a diagram illustrating an example of a low speed window. The low-speed window 51a illustrated in FIG. 4 corresponds to substantially the entire imaging range 17 corresponding to the imaging field of the imaging unit 10. The low-speed window 15a captures an object located within a range of a short distance or a long distance from the own vehicle within the imaging field of view on the image. On the other hand, FIG. 5 is a diagram illustrating an example of a high-speed window. The high-speed window 51b shown in FIG. 5 is smaller than the low-speed window 51a, and corresponds to a partial area in the center of the imaging range 17. This high-speed window 51b can selectively capture on the image an object located at a long distance from the host vehicle within the imaging field of view, and as a result, it is possible to extract distant image information that is important during high-speed traveling. it can.

図6は、画像18aに低速用ウインドウ51aを重ね合わせた図である。低速用ウインドウ51aは、図6に示すように、自車両から近い位置を走行する車両C1を背景とともに捕捉し、距離演算の対象とする。一方、図7は、画像18bに高速用ウインドウ51bを重ね合わせた図である。高速用ウインドウ51bは、図7に示すように、自車両から遠い位置を走行する車両C2を背景とともに捕捉し、距離演算の対象とする。なお、画像18a,18bは、撮像部10の右カメラ11aまたは左カメラ11bの一方が撮像した画像である。   FIG. 6 is a diagram in which the low-speed window 51a is superimposed on the image 18a. As shown in FIG. 6, the low speed window 51 a captures the vehicle C <b> 1 traveling near the host vehicle together with the background, and sets it as a target for distance calculation. On the other hand, FIG. 7 is a diagram in which the high-speed window 51b is superimposed on the image 18b. As shown in FIG. 7, the high-speed window 51 b captures the vehicle C <b> 2 traveling at a position far from the own vehicle together with the background, and sets it as a distance calculation target. The images 18a and 18b are images captured by either the right camera 11a or the left camera 11b of the imaging unit 10.

つぎに、演算部21が演算し、作成する距離情報の一例について説明する。図8は、図6に示した画像18aおよび低速用ウインドウ51aをもとに、演算部21が作成した距離情報54aを示す図である。距離情報54aでは、演算結果21aが、低速用ウインドウ51a内の距離演算の結果を表す。演算結果21aは、図8に示すように、演算部21が、低速用ウインドウ51a内を所定のマトリクス状の小領域に分割し、この分割した小領域ごとに対応する物体までの平均距離を演算した結果を数値で表す。この演算結果21aでは、領域Esaに含まれる結果が画像18aの背景である空に対応する距離を表し、領域Ec1に含まれる結果が車両C1に対応する距離を表し、これら以外の結果が路面に対応する距離を表している。一方、図9は、図7に示す画像18bおよび高速用ウインドウ51bをもとに、演算部21が作成した距離情報54bを示す図である。距離情報54bでは、演算結果21bが、高速用ウインドウ51b内の距離演算の結果を表す。演算結果21bは、演算結果21aと同様に、小領域ごとに演算した物体までの平均距離を数値で表す。この演算結果21bでは、領域Esbに含まれる結果が空に対応し、領域Ec2に含まれる結果が車両C2に対応し、これら以外の結果が路面に対応する。なお、演算結果21a、21bで示される数値は、所定の単位系で距離を表した数値であって、たとえばメートル単位で表した数値である。   Next, an example of distance information calculated and created by the calculation unit 21 will be described. FIG. 8 is a diagram showing distance information 54a created by the calculation unit 21 based on the image 18a and the low speed window 51a shown in FIG. In the distance information 54a, the calculation result 21a represents the result of the distance calculation in the low speed window 51a. As shown in FIG. 8, the calculation unit 21 divides the inside of the low-speed window 51a into predetermined matrix-like small areas, and calculates the average distance to the corresponding object for each of the divided small areas, as shown in FIG. The result is expressed numerically. In the calculation result 21a, the result included in the area Esa represents the distance corresponding to the sky that is the background of the image 18a, the result included in the area Ec1 represents the distance corresponding to the vehicle C1, and the other results are on the road surface. It represents the corresponding distance. On the other hand, FIG. 9 is a diagram showing distance information 54b created by the calculation unit 21 based on the image 18b and the high-speed window 51b shown in FIG. In the distance information 54b, the calculation result 21b represents the result of the distance calculation in the high speed window 51b. Similar to the calculation result 21a, the calculation result 21b represents the average distance to the object calculated for each small area by a numerical value. In the calculation result 21b, the result included in the area Esb corresponds to the sky, the result included in the area Ec2 corresponds to the vehicle C2, and the other results correspond to the road surface. The numerical values indicated by the calculation results 21a and 21b are numerical values representing distances in a predetermined unit system, for example, numerical values expressed in meters.

以上説明したこの実施の形態1にかかる画像処理装置1は、自車両の移動速度をもとに画像処理範囲を選択し、選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置1は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。   The image processing apparatus 1 according to the first embodiment described above selects an image processing range based on the moving speed of the host vehicle, and performs a distance calculation based on an image signal group corresponding to the selected image processing range. Therefore, compared to a conventional image processing apparatus that performs distance calculation on all image signals in the image signal group, it is possible to reduce the load of distance calculation processing and to shorten the time required for distance calculation. As a result, the image processing apparatus 1 can shorten the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、速度センサ61が検出した速度をもとに、ウインドウ切換部31がウインドウを選択するようにしていたが、この実施の形態2では、自車両の移動方向を検出し、ウインドウを選択するようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the window switching unit 31 selects a window based on the speed detected by the speed sensor 61. However, in the second embodiment, the moving direction of the host vehicle is detected. , I am trying to select a window.

図10は、本発明の実施の形態2にかかる画像処理装置の構成を示すブロック図である。図10に示す画像処理装置201は、上述した実施の形態1にかかる画像処理装置1の探知部60に代えて探知部260を備え、探知部260は、操舵角センサ261を備える。また、画像処理装置201は、制御部30に代えて制御部230を備え、制御部230は、ウインドウ切換部231を備える。さらに、画像処理装置201は、記憶部50に代えて記憶部250を備え、記憶部250は、ウインドウ切換部231が選択する複数のウインドウ情報を格納したウインドウ情報251と、探知部260が探知した探知情報252とを記憶するとともに、記憶部50と同様に画像情報53および距離情報54を記憶する。その他の構成は実施の形態1と同じであり、同一構成部分には同一符号を付している。   FIG. 10 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. An image processing apparatus 201 illustrated in FIG. 10 includes a detection unit 260 instead of the detection unit 60 of the image processing apparatus 1 according to the first embodiment described above, and the detection unit 260 includes a steering angle sensor 261. The image processing apparatus 201 includes a control unit 230 instead of the control unit 30, and the control unit 230 includes a window switching unit 231. Further, the image processing apparatus 201 includes a storage unit 250 instead of the storage unit 50. The storage unit 250 detects window information 251 storing a plurality of window information selected by the window switching unit 231, and the detection unit 260 detects the window information. The detection information 252 is stored, and the image information 53 and the distance information 54 are stored in the same manner as the storage unit 50. Other configurations are the same as those of the first embodiment, and the same reference numerals are given to the same components.

操舵角センサ261は、移動方向として前輪の左右の回転角である操舵角を検出するセンサであって、たとえば、ハンドルの回転角と回転方向とをもとに操舵角を検出するセンサである。探知部260は、操舵角センサ261が検出した操舵角を自車両の移動情報として制御部230に出力する。なお、操舵角センサ261は、ジャイロスコープを利用して移動方向を検知するセンサ、方向指示器の点滅状態によって移動方向を検知するセンサ等でもよい。   The steering angle sensor 261 is a sensor that detects a steering angle that is a left and right rotation angle of the front wheel as a movement direction. For example, the steering angle sensor 261 is a sensor that detects a steering angle based on a rotation angle and a rotation direction of a handle. The detecting unit 260 outputs the steering angle detected by the steering angle sensor 261 to the control unit 230 as movement information of the host vehicle. The steering angle sensor 261 may be a sensor that detects a moving direction using a gyroscope, a sensor that detects a moving direction based on a blinking state of a direction indicator, or the like.

つぎに、画像処理装置201が実行する処理について説明する。図11は、画像処理装置201が、撮像した画像に対応する距離情報を出力するまでの処理手順を示すフローチャートである。   Next, processing executed by the image processing apparatus 201 will be described. FIG. 11 is a flowchart illustrating a processing procedure until the image processing apparatus 201 outputs distance information corresponding to a captured image.

図11に示すように、操舵角センサ261が、自車両の操舵角を検出し、検出した操舵角を探知情報として制御部230に出力する操舵角探知処理を行い(ステップS202)、ウインドウ切換部231が、探知部260から取得した探知情報に適合するウインドウをウインドウ情報251の中から選択し、選択したウインドウへの切り換えを画像処理部20に指示するウインドウ切換処理を行う(ステップS204)。ここで、ウインドウ切換部231は、選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。その後、画像処理装置201は、図11に示すように、撮像処理(ステップS206)、距離演算処理(ステップS208)および距離情報出力(ステップS210)を、それぞれ図2に示したステップS106、ステップS108およびステップS110と同様に実行する。ただし、ステップS208の距離演算処理で使用するウインドウが自車両の操舵角に対応するウインドウである点と、操舵角センサ261が検出した操舵角を探知情報252として記憶する点において、画像処理装置201の処理は画像処理装置1の処理と異なる。   As shown in FIG. 11, the steering angle sensor 261 detects the steering angle of the host vehicle, performs a steering angle detection process that outputs the detected steering angle as detection information to the control unit 230 (step S202), and a window switching unit. 231 selects a window suitable for the detection information acquired from the detection unit 260 from the window information 251, and performs window switching processing for instructing the image processing unit 20 to switch to the selected window (step S204). Here, the window switching unit 231 outputs instruction information for switching to the selected window to the image processing unit 20 together with the window information. Thereafter, as shown in FIG. 11, the image processing apparatus 201 performs the imaging process (step S206), the distance calculation process (step S208), and the distance information output (step S210), respectively, as shown in step S106 and step S108 shown in FIG. And it performs similarly to step S110. However, the image processing apparatus 201 is different in that the window used in the distance calculation process in step S208 is a window corresponding to the steering angle of the host vehicle and the steering angle detected by the steering angle sensor 261 is stored as the detection information 252. This process is different from the process of the image processing apparatus 1.

なお、画像処理装置201でも画像処理装置1と同様に、処理機構が独立している処理を並行して実行し、処理サイクルを高速化することが好ましい。さらに、探知情報252が記憶する時系列の操舵角情報をもとに以降の操舵角の状態を予測し、操舵角探知処理を適宜スキップして処理サイクルの高速化をはかってもよい。なお、ステップS206の撮像処理は、ステップS202またはステップS204の直前で行うようにしてもよい。   Note that, similarly to the image processing apparatus 1, the image processing apparatus 201 preferably executes processes with independent processing mechanisms in parallel to increase the processing cycle speed. Further, the state of the subsequent steering angle may be predicted based on the time-series steering angle information stored in the detection information 252 and the steering angle detection process may be appropriately skipped to speed up the processing cycle. Note that the imaging process in step S206 may be performed immediately before step S202 or step S204.

つぎに、図11に示したステップS204のウインドウ切換処理について説明する。図12は、ウインドウ切換処理の処理手順を示すフローチャートである。図12に示すように、ウインドウ切換部231は、探知部260から探知情報を取得し(ステップS222)、自車両の進行方向が右方向か、左方向か、または直進方向かを判断し(ステップS224)、右方向と判断した場合(ステップS224:右)、ウインドウ情報251から右用ウインドウを選択し(ステップS226)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS228)、ステップS204にリターンする。一方、ウインドウ切換部231は、左方向と判断した場合(ステップS224:左)、左用ウインドウを選択し(ステップS230)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS232)、ステップS204にリターンする。他方、ウインドウ切換部231は、直進方向と判断した場合(ステップS224:直進)、直進用ウインドウを選択し(ステップS234)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS236)、ステップS204にリターンする。   Next, the window switching process in step S204 shown in FIG. 11 will be described. FIG. 12 is a flowchart showing the processing procedure of the window switching process. As shown in FIG. 12, the window switching unit 231 acquires detection information from the detection unit 260 (step S222), and determines whether the traveling direction of the host vehicle is the right direction, the left direction, or the straight direction (step). If it is determined that the direction is right (step S224: right), the right window is selected from the window information 251 (step S226), and the instruction information for switching to the selected window is output to the image processing unit 20 together with the window information. (Step S228), the process returns to Step S204. On the other hand, when the window switching unit 231 determines that the direction is the left direction (step S224: left), the window switching unit 231 selects the left window (step S230), and outputs instruction information for switching to the selected window to the image processing unit 20 together with the window information. (Step S232), the process returns to Step S204. On the other hand, when the window switching unit 231 determines that the vehicle is traveling straight (step S224: straight traveling), the window switching unit 231 selects a straight traveling window (step S234), and outputs instruction information for switching to the selected window to the image processing unit 20 together with the window information. (Step S236), the process returns to step S204.

なお、図12に示すフローチャートでは、自車両の操舵角をもとに右用ウインドウ、左用ウインドウあるいは直進用ウインドウの3種類のウインドウを選択するようにしたが、さらに多くの操舵角状態を判断し、種々の位置および大きさのウインドウを選択できるようにしてもよく、実質的に任意の操舵角に対して異なるウインドウを選択できるようにしてもよい。   In the flowchart shown in FIG. 12, three types of windows, the right window, the left window, and the straight traveling window, are selected based on the steering angle of the host vehicle, but more steering angle states are determined. Various windows with different positions and sizes may be selected, and different windows may be selected for virtually any steering angle.

つぎに、ウインドウ切換部231が選択するウインドウの一例について説明する。図13は、右用ウインドウの一例を示す図である。図13に示す右用ウインドウ251aは、
撮像範囲17の右半分の略全域に対応する。この右用ウインドウ251aは、撮像視野内の右側に位置する物体を画像上で選択的に捕捉することができ、この結果、右方向に進路変更する際に重要な右前方の画像情報を抽出することができる。一方、図14は、左用ウインドウの一例を示す図である。図14に示す左用ウインドウ251bは、撮像範囲17の左半分の略全域に対応する。この左用ウインドウ251bは、撮像視野内の左側に位置する物体を画像上で選択的に捕捉し、左前方の画像情報を抽出することができる。他方、図15は、直進用ウインドウの一例を示す図である。図15に示す直進用ウインドウ251cは、撮像範囲17の略全域に対応する。この直進用ウインドウ251cは、撮像視野内の略全域に位置する物体を画像上で捕捉する。
Next, an example of a window selected by the window switching unit 231 will be described. FIG. 13 is a diagram illustrating an example of the right window. The right window 251a shown in FIG.
This corresponds to substantially the entire right half of the imaging range 17. The right window 251a can selectively capture an object located on the right side in the imaging field of view on the image, and as a result, extracts image information on the right front that is important when changing the course in the right direction. be able to. On the other hand, FIG. 14 is a diagram illustrating an example of the left window. A left window 251 b illustrated in FIG. 14 corresponds to substantially the entire left half of the imaging range 17. The left window 251b can selectively capture an object located on the left side in the imaging field of view on the image and extract image information on the left front. On the other hand, FIG. 15 is a diagram illustrating an example of a straight traveling window. A straight traveling window 251 c illustrated in FIG. 15 corresponds to substantially the entire imaging range 17. This straight-advancing window 251c captures on the image objects located in substantially the entire area within the imaging field of view.

以上説明したこの実施の形態2にかかる画像処理装置201は、自車両の操舵角をもとに画像処理範囲を選択し、選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置201は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。   The image processing apparatus 201 according to the second embodiment described above selects an image processing range based on the steering angle of the host vehicle, and performs distance calculation based on the image signal group corresponding to the selected image processing range. Therefore, compared to a conventional image processing apparatus that performs distance calculation on all image signals in the image signal group, it is possible to reduce the load of distance calculation processing and to shorten the time required for distance calculation. As a result, the image processing apparatus 201 can shorten the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.

(実施の形態3)
つぎに、本発明の実施の形態3について説明する。上述した実施の形態1、2では、探知部が検出した速度あるいは操舵角をもとに、ウインドウ切換部がウインドウを選択するようにしていたが、この実施の形態3では、自車両の位置を検知し、検知した位置をもとに地図情報を参照し、参照した地図情報をもとにウインドウを選択するようにしている。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In Embodiments 1 and 2 described above, the window switching unit selects a window based on the speed or steering angle detected by the detection unit. However, in Embodiment 3, the position of the host vehicle is determined. Detection is performed, map information is referred to based on the detected position, and a window is selected based on the referenced map information.

図16は、本発明の実施の形態3にかかる画像処理装置の構成を示すブロック図である。図16に示す画像処理装置301は、上述した実施の形態1にかかる画像処理装置1の探知部60に代えて外部通信部370を備える。また、画像処理装置301は、制御部30に代えて制御部330を備え、制御部330は、ウインドウ切換部331を備える。さらに、画像処理装置301は、記憶部50に代えて記憶部350を備え、記憶部350は、ウインドウ切換部331が選択する複数のウインドウ情報を格納したウインドウ情報351と、外部通信部370が受信した位置情報352と、位置情報352をもとにウインドウ切換部331が参照する地図情報353とを記憶するとともに、記憶部50と同様に画像情報53および距離情報54を記憶する。その他の構成は実施の形態1と同じであり、同一構成部分には同一符号を付している。   FIG. 16 is a block diagram showing the configuration of the image processing apparatus according to the third embodiment of the present invention. An image processing apparatus 301 illustrated in FIG. 16 includes an external communication unit 370 instead of the detection unit 60 of the image processing apparatus 1 according to the first embodiment described above. The image processing apparatus 301 includes a control unit 330 instead of the control unit 30, and the control unit 330 includes a window switching unit 331. Furthermore, the image processing apparatus 301 includes a storage unit 350 instead of the storage unit 50. The storage unit 350 receives window information 351 storing a plurality of window information selected by the window switching unit 331, and the external communication unit 370 receives. The position information 352 and the map information 353 referred to by the window switching unit 331 based on the position information 352 are stored, and the image information 53 and the distance information 54 are stored in the same manner as the storage unit 50. Other configurations are the same as those of the first embodiment, and the same reference numerals are given to the same components.

外部通信部370は、自車両の位置を検知する手段であって、たとえば、GPS(Global Positioning System)を利用した通信手段である。外部通信部370は、検知した位置を自車両の移動情報として制御部330に出力する。なお、外部通信部370は、自車両の位置を検知するとともに、検知した位置付近の地図情報を取得するようにしてもよい。また、外部通信部370は、通信手段に代えて、ジャイロスコープや速度計を応用した位置を検知するセンサ等にしてもよい。   The external communication unit 370 is a means for detecting the position of the host vehicle, for example, a communication means using GPS (Global Positioning System). The external communication unit 370 outputs the detected position to the control unit 330 as movement information of the host vehicle. The external communication unit 370 may detect the position of the host vehicle and acquire map information around the detected position. Further, the external communication unit 370 may be a sensor that detects a position to which a gyroscope or a speedometer is applied instead of the communication unit.

つぎに、画像処理装置301が実行する処理について説明する。図17は、画像処理装置301が、撮像した画像に対応する距離情報を出力するまでの処理手順を示すフローチャートである。   Next, processing executed by the image processing apparatus 301 will be described. FIG. 17 is a flowchart illustrating a processing procedure until the image processing apparatus 301 outputs distance information corresponding to a captured image.

図17に示すように、外部通信部370が、自車両の位置情報を受信し、受信した位置情報を移動情報として制御部330に出力する位置情報受信を行い(ステップS302)、ウインドウ切換部331が、外部通信部370から取得した位置情報をもとに地図情報353を参照し、参照した地図情報に適合するウインドウをウインドウ情報351の中から選択し、選択したウインドウへの切り換えを画像処理部20に指示するウインドウ切換処理を行う(ステップS304)。ここで、ウインドウ切換部331は、選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。その後、画像処理装置301は、図17に示すように、撮像処理(ステップS306)、距離演算処理(ステップS308)および距離情報出力(ステップS310)を、それぞれ図2に示したステップS106、ステップS108およびステップS110と同様に実行する。ただし、ステップS308の距離演算処理で使用するウインドウが位置情報および地図情報に対応するウインドウである点と、外部通信部370が検知した位置を位置情報352として記憶する点において、画像処理装置301の処理は画像処理装置1の処理と異なる。   As illustrated in FIG. 17, the external communication unit 370 receives position information of the host vehicle, receives position information that is output to the control unit 330 as the received position information as movement information (step S <b> 302), and the window switching unit 331. Refers to the map information 353 based on the position information acquired from the external communication unit 370, selects a window that matches the referenced map information from the window information 351, and switches the selected window to the image processing unit. The window switching process instructed to 20 is performed (step S304). Here, the window switching unit 331 outputs instruction information for switching to the selected window to the image processing unit 20 together with the window information. Thereafter, as shown in FIG. 17, the image processing apparatus 301 performs the imaging process (step S306), the distance calculation process (step S308), and the distance information output (step S310), respectively, in steps S106 and S108 shown in FIG. And it performs similarly to step S110. However, in that the window used in the distance calculation process in step S308 is a window corresponding to the position information and the map information, and the position detected by the external communication unit 370 is stored as the position information 352. The processing is different from the processing of the image processing apparatus 1.

なお、画像処理装置301でも画像処理装置1と同様に、処理機構が独立している処理を並行して実行し、処理サイクルを高速化することが好ましい。さらに、位置情報352が記憶する時系列の位置情報等をもとに以降の位置を予測し、ステップS302の位置情報受信を適宜スキップして処理サイクルの高速化をはかってもよい。なお、ステップS306の撮像処理は、ステップS302またはステップS304の直前で行うようにしてもよい。   Note that, similarly to the image processing apparatus 1, the image processing apparatus 301 preferably executes processes with independent processing mechanisms in parallel to increase the processing cycle. Further, the subsequent position may be predicted based on time-series position information stored in the position information 352, and the position information reception in step S302 may be appropriately skipped to speed up the processing cycle. Note that the imaging process in step S306 may be performed immediately before step S302 or step S304.

つぎに、図17に示したステップS304のウインドウ切換処理の一例について説明する。図18は、ウインドウ切換処理の処理手順の一例を示すフローチャートである。図18に示すように、ウインドウ切換部331は、外部通信部370から位置情報を取得し(ステップS322)、取得した位置情報をもとに地図情報353を参照し(ステップS324)、自車両が自動車専用道路を走行しているか否かを判断する(ステップS326)。ウインドウ切換部331は、自車両が自動車専用道路を走行していると判断した場合(ステップS326:Yes)、ウインドウ情報351から専用道路用ウインドウを選択し(ステップS328)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS330)、ステップS304にリターンする。一方、ウインドウ切換部331は、自車両が自動車専用道路を走行していないと判断した場合(ステップS326:No)、標準ウインドウを選択し(ステップS332)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS334)、ステップS304にリターンする。   Next, an example of the window switching process in step S304 shown in FIG. 17 will be described. FIG. 18 is a flowchart illustrating an example of the processing procedure of the window switching process. As shown in FIG. 18, the window switching unit 331 acquires position information from the external communication unit 370 (step S322), refers to the map information 353 based on the acquired position information (step S324), and the host vehicle It is determined whether or not the vehicle is traveling on an automobile road (step S326). If the window switching unit 331 determines that the host vehicle is traveling on an automobile-only road (step S326: Yes), the window switching unit 331 selects a dedicated road window from the window information 351 (step S328), and switches to the selected window. The instruction information is output to the image processing unit 20 together with the window information (step S330), and the process returns to step S304. On the other hand, when the window switching unit 331 determines that the host vehicle is not traveling on the automobile road (step S326: No), the window switching unit 331 selects a standard window (step S332), and displays instruction information for switching to the selected window. The information is output to the image processing unit 20 together with the information (step S334), and the process returns to step S304.

ここで、ウインドウ切換部331が選択するウインドウの一例について説明する。図19は、専用道路用ウインドウの一例を示す図である。図19に示す専用道路用ウインドウ351aは、撮像範囲17の中央部に設けた複数の小ウインドウで構成されるウインドウである。この専用道路用ウインドウ351aは、撮像視野内の中央部に位置する物体を画像上で選択的に捕捉することができ、さらに、この捕捉した範囲の画像情報から所定の割合で画像情報を抽出することができる。この結果、この専用道路用ウインドウ351aは、自動車専用道路上を走行する際に重要な道路上の画像情報を、適当な画像分解能で抽出することができる。一方、図20は、標準ウインドウの一例を示す図である。図20に示す標準ウインドウ351bは、撮像範囲17の略全域に対応する。この標準ウインドウ351bは、道路上に限らず撮像視野内の略全域に位置する物体を画像上で捕捉する。   Here, an example of a window selected by the window switching unit 331 will be described. FIG. 19 is a diagram illustrating an example of a dedicated road window. A dedicated road window 351 a shown in FIG. 19 is a window composed of a plurality of small windows provided at the center of the imaging range 17. The dedicated road window 351a can selectively capture on the image an object located in the center of the imaging field of view, and further extracts image information at a predetermined ratio from the captured image information. be able to. As a result, the dedicated road window 351a can extract image information on the road that is important when traveling on an automobile-only road with an appropriate image resolution. On the other hand, FIG. 20 is a diagram illustrating an example of a standard window. A standard window 351 b shown in FIG. 20 corresponds to substantially the entire imaging range 17. The standard window 351b captures on the image an object that is located not only on the road but in a substantially entire area within the imaging field of view.

なお、専用道路用ウインドウのパターンは、様々に設定することができる。たとえば、図19に示す専用道路用ウインドウ351aのスリットパターンを一層細く多数のスリットを含むスリットパターンとしてもよく、あるいは四角形の微小なウインドウをランダムに複数配置したドットパターンとしてもよく、これら以外にも種々のパターンが適用可能である。なお、ドットパターンのドットの形状は、四角形に限らず任意の多角形または円形もしくは楕円形にしてもよい。   Various patterns can be set for the dedicated road window. For example, the slit pattern of the dedicated road window 351a shown in FIG. 19 may be a narrower slit pattern including a large number of slits, or may be a dot pattern in which a plurality of rectangular small windows are randomly arranged. Various patterns are applicable. The dot shape of the dot pattern is not limited to a quadrangle, and may be an arbitrary polygon, a circle, or an ellipse.

つぎに、図17に示したステップS304のウインドウ切換処理の別の一例について説明する。図21は、走行する道路の路面勾配の傾向をもとにウインドウを選択する処理を含んだウインドウ切換処理の処理手順を示すフローチャートである。図21に示すように、ウインドウ切換部331は、外部通信部370からの位置情報を取得し(ステップS342)、取得した位置情報をもとに地図情報353を参照し(ステップS344)、自車両が走行する路面が凹曲面か、凸曲面か、あるいは平坦面かを判断する(ステップS346)。ウインドウ切換部331は、自車両が走行する路面が凹曲面と判断した場合(ステップS346:凹曲面)、ウインドウ情報351から凹曲面用ウインドウを選択し(ステップS348)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS350)、ステップS304にリターンする。一方、ウインドウ切換部331は、路面が凸曲面と判断した場合(ステップS346:凸曲面)、凸曲面用ウインドウを選択し(ステップS352)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS354)、ステップS304にリターンする。他方、ウインドウ切換部331は、路面が平坦面と判断した場合(ステップS346:平坦面)、標準ウインドウを選択し(ステップS356)、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力し(ステップS358)、ステップS304にリターンする。   Next, another example of the window switching process in step S304 shown in FIG. 17 will be described. FIG. 21 is a flowchart showing a processing procedure of window switching processing including processing for selecting a window based on the tendency of the road surface gradient of the traveling road. As shown in FIG. 21, the window switching unit 331 acquires position information from the external communication unit 370 (step S342), refers to the map information 353 based on the acquired position information (step S344), and the host vehicle It is determined whether the road surface on which the vehicle travels is a concave curved surface, a convex curved surface, or a flat surface (step S346). When the window switching unit 331 determines that the road surface on which the host vehicle is traveling is a concave curved surface (step S346: concave curved surface), the window switching unit 331 selects a concave curved surface window from the window information 351 (step S348), and instructs to switch to the selected window. The information is output to the image processing unit 20 together with the window information (step S350), and the process returns to step S304. On the other hand, when the window switching unit 331 determines that the road surface is a convex curved surface (step S346: convex curved surface), the window switching unit 331 selects a convex curved surface window (step S352), and performs image processing with the window information and instruction information for switching to the selected window. The data is output to the unit 20 (step S354), and the process returns to step S304. On the other hand, if the window switching unit 331 determines that the road surface is a flat surface (step S346: flat surface), the window switching unit 331 selects a standard window (step S356), and the image processing unit 20 includes instruction information for switching to the selected window together with the window information. (Step S358), and the process returns to step S304.

なお、路面が凹曲面であるとは、路面勾配が仰角方向に増加する傾向であることを意味し、たとえば、平坦路面から上り坂にかわる路面、下り坂から平坦路面にかわる路面が適合する。一方、路面が凸曲面とは、路面勾配が俯角方向に増加する傾向にあることを意味し、たとえば、平坦路面から下り坂にかわる路面、上り坂から平坦路面にかわる路面が適合する。   Note that the road surface being a concave curved surface means that the road surface gradient tends to increase in the elevation angle direction. For example, a road surface that changes from a flat road surface to an uphill road and a road surface that changes from a downhill road to a flat road surface are suitable. On the other hand, a road surface having a convex curved surface means that the road surface gradient tends to increase in the depression direction. For example, a road surface that changes from a flat road surface to a downward slope and a road surface that changes from an uphill road to a flat road surface are suitable.

ここで、路面勾配の傾向をもとにウインドウ切換部331が選択するウインドウの一例について説明する。図22は、凹曲面用ウインドウの一例を示す図である。図22に示す凹曲面用ウインドウ351cは、撮像範囲17の上半分の略全域に対応する。この凹曲面用ウインドウ351cは、撮像視野内の上側に位置する物体を画像上で選択的に捕捉することができ、この結果、凹曲面である路面を進行する際に重要な前方上側の画像情報を抽出することができる。一方、図22は、凸曲面用ウインドウの一例を示す図である。図23に示す凸曲面用ウインドウ351dは、撮像範囲17の下半分の略全域に対応する。この凸曲面用ウインドウ351dは、撮像視野内の下側に位置する物体を画像上で選択的に捕捉し、前方下側の画像情報を抽出することができる。なお、平坦面である場合に選択する標準ウインドウは、図20に示す標準ウインドウ351bと同一である。   Here, an example of the window selected by the window switching unit 331 based on the tendency of the road surface gradient will be described. FIG. 22 is a diagram illustrating an example of a concave curved window. A concave curved surface window 351 c shown in FIG. 22 corresponds to substantially the entire upper half of the imaging range 17. The concave curved surface window 351c can selectively capture an object located on the upper side in the imaging field of view on the image, and as a result, image information on the upper front side that is important when traveling on a road surface that is a concave curved surface. Can be extracted. On the other hand, FIG. 22 is a diagram illustrating an example of a convex curved window. A convex curved surface window 351 d shown in FIG. 23 corresponds to substantially the entire lower half of the imaging range 17. The convex curved surface window 351d can selectively capture an object located on the lower side in the imaging field of view on the image and extract image information on the lower front side. Note that the standard window selected in the case of a flat surface is the same as the standard window 351b shown in FIG.

ところで、図18および図21に示すフローチャートでは、地図情報として自車両が走行する道路の種別あるいは路面勾配の傾向をもとにウインドウを選択するようにしたが、たとえば、走行する道路もしくは車線の幅の大小、現在位置がトンネル内か否か、現在位置が市街地か否か等、様々な地図情報をもとに各種のウインドウを選択するようにしてもよい。   By the way, in the flowcharts shown in FIGS. 18 and 21, the window is selected based on the type of road on which the host vehicle is traveling or the tendency of the road surface gradient as the map information. Various windows may be selected based on various map information, such as whether the current position is in a tunnel, whether the current position is in an urban area, or the like.

以上説明したこの実施の形態3にかかる画像処理装置301は、自車両の位置情報と、この位置情報をもとに参照した地図情報とをもとに画像処理範囲を選択し、この選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置301は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。   The image processing apparatus 301 according to the third embodiment described above selects an image processing range based on the position information of the own vehicle and the map information referred to based on the position information, and selects the selected image. Since the distance calculation is performed based on the image signal group corresponding to the processing range, the load of the distance calculation process is reduced compared to the conventional image processing apparatus that performs the distance calculation on all the image signals of the image signal group, The time required for the distance calculation can be shortened. As a result, the image processing apparatus 301 can shorten the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.

(実施の形態4)
つぎに、本発明の実施の形態4について説明する。この実施の形態4にかかる画像処理装置は、上述した実施の形態1〜3にかかる画像処理装置1,201,301がそれぞれ備えた速度センサ61、操舵角センサ261および外部通信部370をすべて備え、自車両の移動情報を多角的に検知し、検知した移動情報に適合するウインドウを選択するようにしている。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. The image processing apparatus according to the fourth embodiment includes all of the speed sensor 61, the steering angle sensor 261, and the external communication unit 370 included in the image processing apparatuses 1, 201, and 301 according to the first to third embodiments. The vehicle movement information is detected from various angles, and a window that matches the detected movement information is selected.

図24は、本発明の実施の形態4にかかる画像処理装置の構成を示すブロック図である。図24に示す画像処理装置401は、上述した実施の形態3にかかる画像処理装置301においてさらに探知部460を備え、探知部460は、速度センサ61および操舵角センサ261を備える。また、画像処理装置401は、制御部330に代えて制御部430を備え、制御部430は、ウインドウ切換部431を備える。さらに、画像処理装置401は、記憶部350に代えて記憶部450を備え、記憶部450は、ウインドウ切換部431が選択する複数のウインドウ情報を格納したウインドウ情報451と、探知部460が探知した探知情報452とを記憶するとともに、記憶部350と同様に画像情報53、距離情報54、位置情報352および地図情報353を記憶する。その他の構成は実施の形態3と同じであり、同一構成部分には同一符号を付している。   FIG. 24 is a block diagram showing the configuration of the image processing apparatus according to the fourth embodiment of the present invention. An image processing device 401 illustrated in FIG. 24 further includes a detection unit 460 in the image processing device 301 according to the third embodiment described above, and the detection unit 460 includes a speed sensor 61 and a steering angle sensor 261. The image processing apparatus 401 includes a control unit 430 instead of the control unit 330, and the control unit 430 includes a window switching unit 431. Furthermore, the image processing apparatus 401 includes a storage unit 450 instead of the storage unit 350. The storage unit 450 detects window information 451 that stores a plurality of window information selected by the window switching unit 431, and the detection unit 460 detects. The detection information 452 is stored, and the image information 53, the distance information 54, the position information 352, and the map information 353 are stored in the same manner as the storage unit 350. Other configurations are the same as those of the third embodiment, and the same components are denoted by the same reference numerals.

画像処理装置401では、ウインドウ切換部431が、速度センサ61が検出した速度と、操舵角センサ261が検出した操舵角と、外部通信部370が受信した位置情報に基づく地図情報とを、個別あるいは総合的に判断し、この判断結果に適合するウインドウをウインドウ情報451から選択し、この選択したウインドウに切り換える指示情報をウインドウ情報とともに画像処理部20に出力する。その後、演算部21が、上述した実施の形態1〜3と同様に、選択したウインドウに対応する画像信号群に基づいて物体までの距離演算を行い、距離情報を作成し、出力する。なお、ウインドウ切換部431は、探知部460もしくは外部通信部370から取得する各種移動情報の可能な1以上の組み合わせをモードとして認識し、自車両の搭乗者等が指定したモードについて自車両の状態を判断するようにしてもよい。また、ウインドウ切換部431は、探知情報452および位置情報352が記憶する時系列の移動情報をもとに以降の自車両の状態を予測してもよい。   In the image processing apparatus 401, the window switching unit 431 individually or separately displays the speed detected by the speed sensor 61, the steering angle detected by the steering angle sensor 261, and the map information based on the position information received by the external communication unit 370. A window that matches the determination result is selected from the window information 451, and instruction information for switching to the selected window is output to the image processing unit 20 together with the window information. Thereafter, as in the first to third embodiments, the calculation unit 21 calculates the distance to the object based on the image signal group corresponding to the selected window, and generates and outputs distance information. The window switching unit 431 recognizes, as a mode, one or more possible combinations of various types of movement information acquired from the detection unit 460 or the external communication unit 370, and the state of the host vehicle for the mode specified by the passenger of the host vehicle or the like. May be determined. Further, the window switching unit 431 may predict the subsequent state of the host vehicle based on time-series movement information stored in the detection information 452 and the position information 352.

以上説明したこの実施の形態4にかかる画像処理装置401は、自車両の種々の移動情報を個別あるいは総合的に判断した結果をもとに画像処理範囲を選択し、この選択した画像処理範囲に対応する画像信号群に基づいて距離演算を行うため、画像信号群のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。この結果、画像処理装置401は、画像を取得してから距離情報を出力するまでに要する処理時間を短縮し、高速に距離情報を出力することができる。   The image processing apparatus 401 according to the fourth embodiment described above selects an image processing range based on the result of individually or comprehensively determining various pieces of movement information of the host vehicle, and sets the selected image processing range. Since distance calculation is performed based on the corresponding image signal group, the load of distance calculation processing is reduced compared to the conventional image processing apparatus that performs distance calculation on all image signals of the image signal group. The time required can be shortened. As a result, the image processing apparatus 401 can reduce the processing time required to output the distance information after acquiring the image, and can output the distance information at high speed.

(実施の形態5)
つぎに、本発明の実施の形態5について説明する。上述した実施の形態1〜4では、撮像部10からの画像信号群を処理して撮像した物体までの距離を検出するようにしていたが、この実施の形態5では、撮像視野内に位置する物体までの距離をレーダで検出するようにしている。
(Embodiment 5)
Next, a fifth embodiment of the present invention will be described. In the first to fourth embodiments described above, the image signal group from the imaging unit 10 is processed to detect the distance to the imaged object, but in the fifth embodiment, the distance is within the imaging field of view. The distance to the object is detected by the radar.

図25は、本発明の実施の形態5にかかる画像処理装置の構成を示すブロック図である。図25に示す画像処理装置501は、上述した実施の形態4にかかる画像処理装置401にさらにレーダ580を備え、また、制御部430に代えて、さらにレーダ580を制御する機能を有した制御部530を備える。その他の構成は実施の形態4と同じであり、同一構成部分には同一符号を付している。   FIG. 25 is a block diagram showing the configuration of the image processing apparatus according to the fifth embodiment of the present invention. An image processing apparatus 501 shown in FIG. 25 further includes a radar 580 in addition to the image processing apparatus 401 according to the above-described fourth embodiment, and further has a function of controlling the radar 580 in place of the control unit 430. 530. Other configurations are the same as those of the fourth embodiment, and the same components are denoted by the same reference numerals.

レーダ580は、所定の発信波を送信し、この発信波が物体表面で反射した反射波を受信し、発信状態および受信状態をもとに、レーダ580から発信波を反射した物体までの距離と、その物体が位置する方向とを検出する。レーダ580は、発信波の発信角度、反射波の入射角度、反射波の受信強度、発信波を発信してから反射波を受信するまでの時間、受信波および反射波における周波数変化をもとに、発信波を反射した物体までの距離および方向を検出する。レーダ580は、撮像部10の撮像視野内に位置する物体までの距離を、その物体が位置する方向とともに制御部530に出力する。レーダ580は、送信波として、たとえば、レーザ光、赤外光、ミリ波、マイクロ波、超音波などを送信する。   The radar 580 transmits a predetermined transmitted wave, receives a reflected wave reflected by the object surface, and based on the transmission state and the reception state, the distance from the radar 580 to the object that reflects the transmitted wave The direction in which the object is located is detected. The radar 580 is based on the transmission angle of the transmitted wave, the incident angle of the reflected wave, the reception intensity of the reflected wave, the time from when the transmitted wave is transmitted until it is received, and the frequency change in the received wave and the reflected wave. Detect the distance and direction to the object that reflected the transmitted wave. The radar 580 outputs the distance to the object located within the imaging field of the imaging unit 10 to the control unit 530 together with the direction in which the object is located. The radar 580 transmits, for example, laser light, infrared light, millimeter waves, microwaves, and ultrasonic waves as transmission waves.

この実施の形態5にかかる画像処理装置501では、撮像部10からの画像情報を処理して距離を演算する代わりにレーダ580により距離を検出するため、一層高速かつ高精度に距離情報を取得できる。   In the image processing apparatus 501 according to the fifth embodiment, since the distance is detected by the radar 580 instead of calculating the distance by processing the image information from the imaging unit 10, the distance information can be acquired with higher speed and higher accuracy. .

なお、画像処理装置501では、撮像部10によって撮像された画像信号群における位置関係とレーダ580の検出範囲における位置関係との整合は、以下のように予め求めたうえで各処理を行う。たとえば、画像処理装置501は、形状が既知の物体に対して、撮像部10による撮像処理およびレーダ580による検出処理を行い、撮像部10およびレーダ580のそれぞれによって処理した既知の物体の位置を求める。その後、画像処理装置501は、最小2乗法などを用いて、撮像部10およびレーダ580のそれぞれによって処理した既知の物体の位置の関係を求め、撮像部10によって撮像された画像信号群における位置関係とレーダ580の検出範囲における位置関係とを整合する。   In the image processing apparatus 501, the matching between the positional relationship in the image signal group captured by the imaging unit 10 and the positional relationship in the detection range of the radar 580 is obtained in advance as follows, and each process is performed. For example, the image processing apparatus 501 performs an imaging process by the imaging unit 10 and a detection process by the radar 580 on an object having a known shape, and obtains the positions of the known objects processed by the imaging unit 10 and the radar 580, respectively. . Thereafter, the image processing apparatus 501 obtains the positional relationship of the known objects processed by the imaging unit 10 and the radar 580 using the least square method, and the positional relationship in the image signal group captured by the imaging unit 10. And the positional relationship in the detection range of the radar 580 are matched.

また、画像処理装置501では、撮像部10の撮像原点とレーダ580の検出原点とがずれている場合があっても、撮像点および検出点から画像処理装置501までの距離が十分に離れた場合であれば、撮像原点と検出原点とがほぼ重なっているものとみなすことができる。さらに、撮像部10によって撮像された画像信号群における位置関係とレーダ580の検出範囲における位置関係との整合が正確に行われている場合には、幾何変換によって、撮像原点と検出原点とのずれを補正することも可能である。   Further, in the image processing apparatus 501, even when the imaging origin of the imaging unit 10 and the detection origin of the radar 580 are misaligned, the imaging point and the distance from the detection point to the image processing apparatus 501 are sufficiently separated. If so, it can be considered that the imaging origin and the detection origin almost overlap. Furthermore, when the positional relationship in the image signal group captured by the imaging unit 10 and the positional relationship in the detection range of the radar 580 are accurately matched, a deviation between the imaging origin and the detection origin is performed by geometric transformation. It is also possible to correct.

なお、画像処理装置501では、撮像部10によって撮像された画像信号群の各画像信号が位置する画素行に、レーダ580の各レーダ検出点が所定間隔で位置するように設定するとよい。また、このように各レーダ検出点が設定されない場合、各画像信号の近傍に位置する複数のレーダ検出点をもとに、一次補間法などを用いて各画像信号と同一画素行にレーダ検出点の補間点を求め、この補間点を用いて検出処理を行うようにすればよい。   Note that the image processing apparatus 501 may be set so that the radar detection points of the radar 580 are positioned at predetermined intervals in the pixel row where the image signals of the image signal group captured by the imaging unit 10 are positioned. In addition, when each radar detection point is not set in this way, based on a plurality of radar detection points located in the vicinity of each image signal, the radar detection point is placed in the same pixel row as each image signal using a primary interpolation method or the like. The interpolation point may be obtained and the detection process may be performed using this interpolation point.

(実施の形態6)
つぎに、本発明の実施の形態6について説明する。上述した実施の形態1〜5では、右カメラ11aおよび左カメラ11bの2台のカメラによってステレオ画像を撮像していたが、この実施の形態6では、一対の導光光学系と、各導光光学系に対応する撮像領域を有し、各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子によってステレオ画像を撮像するようにしている。
(Embodiment 6)
Next, a sixth embodiment of the present invention will be described. In Embodiments 1 to 5 described above, a stereo image is picked up by two cameras, the right camera 11a and the left camera 11b. However, in Embodiment 6, a pair of light guide optical systems and light guides are used. A stereo image is picked up by an image pickup device that has an image pickup region corresponding to the optical system and converts an optical signal guided by each light guide optical system into an electric signal in each image pickup region.

図26は、本発明の実施の形態6にかかる画像処理装置の一部構成を示すブロック図である。図26に示す撮像部110は、上述した実施の形態1〜5にかかる画像処理装置における撮像部10に代わり、この実施の形態6にかかる画像処理装置が備える撮像部である。図26に示す以外の画像処理装置の構成は、上述した実施の形態1〜5のいずれかと同じである。   FIG. 26 is a block diagram showing a partial configuration of the image processing apparatus according to the sixth embodiment of the present invention. An imaging unit 110 illustrated in FIG. 26 is an imaging unit included in the image processing device according to the sixth embodiment instead of the imaging unit 10 in the image processing device according to the first to fifth embodiments. The configuration of the image processing apparatus other than that shown in FIG. 26 is the same as that of any of the first to fifth embodiments described above.

撮像部110は、撮像部10の右カメラ11aあるいは左カメラ11bと同様の構成および機能を有した撮像装置としてのカメラ111を備える。カメラ111は、レンズ112と、撮像素子113と、A/D変換部114と、フレームメモリ115とを備える。さらに、撮像部110は、カメラ111の前方に、ミラー119a〜119dによって構成された一対の導光光学系としてのステレオアダプタ119を備える。ステレオアダプタ119は、図26に示すように、ミラー119a,119bを組として反射面を略平行に対向して備え、ミラー119c,119dを別の組として反射面を略平行に対向して備える。ステレオアダプタ119は、この2組の一対のミラー系を、レンズ112の光軸を基準に左右対称に隣接して備える。   The imaging unit 110 includes a camera 111 as an imaging device having the same configuration and function as the right camera 11a or the left camera 11b of the imaging unit 10. The camera 111 includes a lens 112, an image sensor 113, an A / D conversion unit 114, and a frame memory 115. Furthermore, the imaging unit 110 includes a stereo adapter 119 as a pair of light guide optical systems configured by mirrors 119a to 119d in front of the camera 111. As shown in FIG. 26, the stereo adapter 119 includes mirrors 119a and 119b as a set and faces the reflecting surfaces substantially in parallel, and includes the mirrors 119c and 119d as another set and a reflecting surface that faces substantially parallel. The stereo adapter 119 includes the two pairs of mirror systems adjacently symmetrically with respect to the optical axis of the lens 112.

撮像部110は、撮像視野内に位置する物体からの光をステレオアダプタ119の左右2組のミラー系で受光し、撮像光学系としてのレンズ112で集光し、撮像素子113で撮像する。このとき、図27に示すように、撮像素子113は、ミラー119a,119bによる右の組のミラー系を介した右画像116aと、ミラー119c,119dによる左の組のミラー系を介した左画像116bとを、左右にずらした全く重ならない撮像領域で撮像する。なお、このようなステレオアダプタを用いた技術は、たとえば、特許文献2に開示されている。   The imaging unit 110 receives light from an object located in the imaging field of view with the two left and right mirror systems of the stereo adapter 119, collects it with a lens 112 as an imaging optical system, and captures an image with the imaging element 113. At this time, as shown in FIG. 27, the image sensor 113 has the right image 116a through the right mirror system of the mirrors 119a and 119b and the left image through the left mirror system of the mirrors 119c and 119d. 116b is imaged in an imaging area that is shifted left and right and does not overlap at all. In addition, the technique using such a stereo adapter is disclosed by patent document 2, for example.

この実施の形態6にかかる撮像部110では、ステレオアダプタを備えた1台のカメラでステレオ画像を撮像するため、2台のカメラでステレオ画像を撮像する場合に比べ、撮像部を簡易化してコンパクトにできるとともに、機械的強度を増強し、左右の画像を相対的に常に安定した状態で撮像することができる。さらに、左右の画像を、共通のレンズおよび撮像素子を使用して撮像するため、固体差に起因するばらつきを抑え、キャリブレーションの手間や、位置合わせ等の組み立ての煩雑さを軽減できる。   Since the imaging unit 110 according to the sixth embodiment captures a stereo image with one camera provided with a stereo adapter, the imaging unit is simplified and compact compared to the case of capturing a stereo image with two cameras. In addition, the mechanical strength can be increased and the left and right images can be captured in a relatively stable state. Furthermore, since the left and right images are picked up using a common lens and an image pickup device, variations caused by individual differences can be suppressed, and the labor of calibration and the complexity of assembly such as alignment can be reduced.

なお、ステレオアダプタの構成として、図26では、平面鏡を略平行に対向して組み合わせた例を示したが、さらにレンズ群を組み合わせて構成してもよく、また、凸面鏡や凹面鏡等、曲率を有した反射鏡を組み合わせて構成してもよく、反射鏡の代わりにプリズムで反射面を構成してもよい。   As an example of the configuration of the stereo adapter, FIG. 26 shows an example in which plane mirrors are combined so as to face each other in parallel. However, a lens group may be combined, and a convex mirror, concave mirror, or the like has a curvature. The reflecting mirrors may be combined, and the reflecting surface may be configured by a prism instead of the reflecting mirror.

また、図27に示すように、この実施の形態6では、左右の画像を全く重ならないように撮像したが、左右の画像の一部ないし全部が重なるようにし、たとえば、受光部に設けたシャッター等により左右で受光する光を順次切り換えて撮像し、わずかな時間差をもって撮像した左右の画像をステレオ画像として画像処理に供してもよい。   As shown in FIG. 27, in the sixth embodiment, the left and right images are picked up so as not to overlap at all, but part or all of the left and right images are overlapped, for example, a shutter provided in the light receiving unit. For example, the left and right images may be sequentially switched and imaged, and the left and right images captured with a slight time difference may be subjected to image processing as a stereo image.

さらに、この実施の形態6では、左右の画像を左右に位置をずらして撮像する構成としたが、たとえば、ステレオアダプタの平面鏡を略直行に組み合わせて構成し、左右の画像を上下に位置をずらして撮像するようにしてもよい。   Further, in the sixth embodiment, the left and right images are picked up by shifting the position to the left and right. For example, the stereo adapter is configured by combining the plane mirrors in a substantially orthogonal manner, and the left and right images are shifted in the vertical direction. You may make it image.

ところで、以上の実施の形態1〜6では、自車両の移動情報として移動速度、移動方向もしくは位置情報を検知し、ウインドウを選択するようにしたが、移動加速度、移動方位等を検出し、ウインドウを選択するようにしてもよい。また、自車両の運転者の顔の向きや視線を検知し、ウインドウを選択するようにしてもよい。   By the way, in the above first to sixth embodiments, the moving speed, moving direction or position information is detected as the moving information of the host vehicle and the window is selected. However, the moving acceleration, moving direction and the like are detected, and the window May be selected. Further, the window may be selected by detecting the face direction and line of sight of the driver of the host vehicle.

さらに、実施の形態1〜5における撮像部10、あるいは実施の形態6における撮像部110の構成について、一対のカメラあるいはステレオアダプタの受光部が、左右に並んで配置されるとして説明したが、上下に並んで配置される構成としてもよく、また、斜め方向に並んで配置される構成としてもよい。   Furthermore, although the configuration of the imaging unit 10 in the first to fifth embodiments or the imaging unit 110 in the sixth embodiment has been described on the assumption that the light receiving units of a pair of cameras or stereo adapters are arranged side by side, It is good also as a structure arrange | positioned side by side, and good also as a structure arrange | positioned along with the diagonal direction.

また、撮像部のステレオカメラとして、いわゆる3眼ステレオカメラ、あるいは4眼ステレオカメラを構成してもよい。3眼あるいは4眼ステレオカメラを用いると、3次元再構成処理などにおいて、より信頼度が高く、安定した処理結果が得られることが知られている(富田文明:情報処理学会発行「情報処理」第42巻第4号の「高機能3次元視覚システム」等を参照)。特に、複数のカメラを2方向の基線長を持つように配置すると、より複雑なシーンで3次元再構成が可能になることが知られている。また、1つの基線長方向にカメラを複数台配置すると、いわゆるマルチベースライン方式のステレオカメラを実現することが可能となり、より高精度なステレオ計測が可能となる。   Further, a so-called three-eye stereo camera or a four-eye stereo camera may be configured as the stereo camera of the imaging unit. It is known that using a three-lens or four-lens stereo camera provides more reliable and stable processing results in three-dimensional reconstruction processing and the like (Fumiaki Tomita: “Information Processing” published by Information Processing Society of Japan) (Refer to Volume 42, No. 4, “Highly Functional 3D Vision System”). In particular, it is known that if a plurality of cameras are arranged so as to have a baseline length in two directions, three-dimensional reconstruction can be performed in a more complicated scene. If a plurality of cameras are arranged in one base line length direction, a so-called multi-baseline stereo camera can be realized, and more accurate stereo measurement can be performed.

一方、撮像部のカメラとして、複眼であるステレオカメラの代わりに単眼のカメラを用いてもよい。その場合には、演算部21において、たとえば、シェイプフロムフォーカス(shape from focus)法、シェイプフロムデフォーカス(shape from defocus)法、シェイプフロムモーション(shape from motion)法、シェイプフロムシェーディング(shape from shading)法等の3次元再構成技術を適用することにより、撮像視野内にある物体までの距離を演算することができる。ここで、シェイプフロムフォーカス法とは、最もよく合焦したときのフォーカス位置から距離を求める方法である。また、シェイプフロムデフォーカス法とは、合焦距離の異なる複数の画像から相対的なボケ量を求め、ボケ量と距離との相関関係をもとに距離を求める方法である。また、シェイプフロムモーション法とは、時間的に連続する複数の画像における所定の特徴点の移動軌跡をもとに物体までの距離を求める方法である。また、シェイプフロムシェーディング法とは、画像における陰影、対象となる物体の反射特性および光源情報をもとに物体までの距離を求める方法である。   On the other hand, a monocular camera may be used instead of a stereo camera that is a compound eye as a camera of the imaging unit. In this case, in the arithmetic unit 21, for example, a shape from focus method, a shape from defocus method, a shape from motion method, a shape from shading (shape from shading) By applying a three-dimensional reconstruction technique such as a method, the distance to an object in the imaging field of view can be calculated. Here, the shape from focus method is a method for obtaining a distance from a focus position when the focus is best achieved. The shape from defocus method is a method for obtaining a relative blur amount from a plurality of images having different in-focus distances and obtaining a distance based on a correlation between the blur amount and the distance. The shape from motion method is a method for obtaining a distance to an object on the basis of the movement trajectory of a predetermined feature point in a plurality of temporally continuous images. The shape-from-shading method is a method for obtaining a distance to an object based on shading in an image, reflection characteristics of a target object, and light source information.

また、上述の実施の形態1〜6では、自動車等の車両に搭載される画像処理装置について説明したが、他の移動体に搭載して適用することもできる。さらに、画像処理装置全体が移動体に搭載されなくてもよく、たとえば、撮像部および出力部が移動体に搭載され、その他の構成部位が移動体の外に構成され、これらの間を無線通信で接続してもよい。   In the first to sixth embodiments described above, the image processing apparatus mounted on a vehicle such as an automobile has been described. However, the image processing apparatus may be mounted and applied to another moving body. Further, the entire image processing apparatus may not be mounted on the moving body. For example, the imaging unit and the output unit are mounted on the moving body, and other components are configured outside the moving body, and wireless communication is performed between them. You may connect with.

本発明の実施の形態1にかかる画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 図1に示す画像処理装置において距離情報を出力するまでの処理手順を示すフローチャートである。2 is a flowchart showing a processing procedure until distance information is output in the image processing apparatus shown in FIG. 1. 図2に示すウインドウ切換処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the window switching process shown in FIG. 図3のウインドウ切換処理で選択される低速用ウインドウの一例を示す図である。It is a figure which shows an example of the window for low speed selected by the window switching process of FIG. 図3のウインドウ切換処理で選択される高速用ウインドウの一例を示す図である。It is a figure which shows an example of the window for high speed selected by the window switching process of FIG. 撮像した画像に低速用ウインドウを重ね合わせた状態を示す図である。It is a figure which shows the state which overlap | superposed the window for low speed on the imaged image. 撮像した画像に高速用ウインドウを重ね合わせた状態を示す図である。It is a figure which shows the state which overlapped the window for high speed on the imaged image. 演算部が作成する距離情報の一例を示す図である。It is a figure which shows an example of the distance information which a calculating part produces. 演算部が作成する距離情報の一例を示す図である。It is a figure which shows an example of the distance information which a calculating part produces. 本発明の実施の形態2にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 2 of this invention. 図10に示す画像処理装置において距離情報を出力するまでの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence until it outputs distance information in the image processing apparatus shown in FIG. 図11に示すウインドウ切換処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the window switching process shown in FIG. 図12のウインドウ切換処理で選択される右用ウインドウの一例を示す図である。It is a figure which shows an example of the window for rights selected by the window switching process of FIG. 図12のウインドウ切換処理で選択される左用ウインドウの一例を示す図である。It is a figure which shows an example of the window for left selected by the window switching process of FIG. 図12のウインドウ切換処理で選択される直進用ウインドウの一例を示す図である。It is a figure which shows an example of the window for straight advance selected by the window switching process of FIG. 本発明の実施の形態3にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 3 of this invention. 図16に示す画像処理装置において距離情報を出力するまでの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence until it outputs distance information in the image processing apparatus shown in FIG. 図17に示すウインドウ切換処理において走行する道路種別をもとにウインドウを選択する処理を含む処理手順を示すフローチャートである。It is a flowchart which shows the process sequence including the process which selects a window based on the road classification which drive | works in the window switching process shown in FIG. 図18のウインドウ切換処理で選択される専用道路用ウインドウの一例を示す図である。It is a figure which shows an example of the window for exclusive roads selected by the window switching process of FIG. 図18のウインドウ切換処理で選択される標準ウインドウの一例を示す図である。It is a figure which shows an example of the standard window selected by the window switching process of FIG. 図17に示すウインドウ切換処理において走行する道路勾配の傾向をもとにウインドウを選択する処理を含む処理手順を示すフローチャートである。It is a flowchart which shows the process sequence including the process which selects a window based on the tendency of the road gradient which drive | works in the window switching process shown in FIG. 図21のウインドウ切換処理で選択される凹曲面用ウインドウの一例を示す図である。It is a figure which shows an example of the window for concave surfaces selected by the window switching process of FIG. 図21のウインドウ切換処理で選択される凸曲面用ウインドウの一例を示す図である。It is a figure which shows an example of the window for convex curved surfaces selected by the window switching process of FIG. 本発明の実施の形態4にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 4 of this invention. 本発明の実施の形態5にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 5 of this invention. 本発明の実施の形態6にかかる画像処理装置の一部構成を示すブロック図である。It is a block diagram which shows the partial structure of the image processing apparatus concerning Embodiment 6 of this invention. 図26に示す撮像部が撮像する画像の一例を示す図である。It is a figure which shows an example of the image which the imaging part shown in FIG. 26 images.

符号の説明Explanation of symbols

1 画像処理装置
10 撮像部
11a 右カメラ
11b 左カメラ
12a,12b レンズ
13a,13b 撮像素子
14a,14b A/D変換部
15a,15b フレームメモリ
17 撮像範囲
18a,18b 画像
20 画像処理部
21 演算部
30 制御部
31 ウインドウ切換部
40 出力部
50 記憶部
51a 低速用ウインドウ
51b 高速用ウインドウ
54a,54b 距離情報
60 探知部
61 速度センサ
110 撮像部
111 カメラ
112 レンズ
113 撮像素子
114 A/D変換部
115 フレームメモリ
116 画像
119 ステレオアダプタ
119a,119b,119c,119d ミラー
251a 右用ウインドウ
251b 左用ウインドウ
251c 直進用ウインドウ
260 探知部
261 操舵角センサ
351a 専用道路用ウインドウ
351b 標準ウインドウ
351c 凹曲面用ウインドウ
351d 凸曲面用ウインドウ
370 外部通信部
580 レーダ
C,C1,C2 車両
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10 Imaging part 11a Right camera 11b Left camera 12a, 12b Lens 13a, 13b Image sensor 14a, 14b A / D conversion part 15a, 15b Frame memory 17 Imaging range 18a, 18b Image 20 Image processing part 21 Calculation part 30 Control unit 31 Window switching unit 40 Output unit 50 Storage unit 51a Low speed window 51b High speed window 54a, 54b Distance information 60 Detection unit 61 Speed sensor 110 Imaging unit 111 Camera 112 Lens 113 Imaging element 114 A / D conversion unit 115 Frame memory 116 Image 119 Stereo adapter 119a, 119b, 119c, 119d Mirror 251a Window for right 251b Window for left 251c Window for going straight 260 Detection unit 261 Steering angle sensor 351a Dedicated road Use windows 351b standard window 351c concave surface for window 351d convex curved for window 370 external communication unit 580 radar C, C1, C2 vehicle

Claims (9)

移動体に搭載され、所定の撮像視野を有し、該撮像視野に対応する画像信号群を生成する撮像手段と、
前記画像信号群を処理して前記撮像視野内に位置する物体までの距離を演算する演算手段と、
前記演算手段における複数の画像処理範囲の中から前記移動体の移動情報に対応した画像処理範囲を選択し、前記演算手段における画像処理範囲を該選択した画像処理範囲に切り換える切換処理手段と、
を備え、
前記演算手段は、前記切換処理手段が切り換えた画像処理範囲に対応する前記画像信号群に基づいて前記物体までの距離を演算することを特徴とする画像処理装置。
An imaging means mounted on a moving body, having a predetermined imaging field of view, and generating an image signal group corresponding to the imaging field;
A computing means for processing the image signal group and computing a distance to an object located in the imaging field;
Switching processing means for selecting an image processing range corresponding to movement information of the moving body from among a plurality of image processing ranges in the computing means, and switching the image processing range in the computing means to the selected image processing range;
With
The image processing apparatus, wherein the calculating means calculates a distance to the object based on the image signal group corresponding to the image processing range switched by the switching processing means.
前記移動情報を取得し、取得した該移動情報を前記切換処理手段に出力する移動情報取得手段を備え、
前記切換処理手段は、前記移動情報取得手段から出力された前記移動情報をもとに、前記複数の画像処理範囲の中から該移動情報に対応した前記画像処理範囲を選択することを特徴とする請求項1に記載の画像処理装置。
The movement information acquisition means for acquiring the movement information and outputting the acquired movement information to the switching processing means,
The switching processing unit selects the image processing range corresponding to the movement information from the plurality of image processing ranges based on the movement information output from the movement information acquisition unit. The image processing apparatus according to claim 1.
前記移動情報は、前記移動体の移動速度、前記移動体の移動加速度、前記移動体の移動方向、前記移動体の移動方位および/または前記移動体の位置情報であることを特徴とする請求項1または2に記載の画像処理装置。   The movement information is a moving speed of the moving body, a moving acceleration of the moving body, a moving direction of the moving body, a moving direction of the moving body, and / or position information of the moving body. The image processing apparatus according to 1 or 2. 前記撮像手段は、第1の光路を介して撮像した第1の前記画像信号群と、第2の光路を介して撮像した第2の前記画像信号群とを生成し、
前記演算手段は、前記第2の画像信号群の中から前記第1の画像信号群の任意の画像信号と整合する画像信号を検出し、該検出した画像信号における前記任意の画像信号からの移動量に基づいて前記物体までの距離を演算することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
The imaging means generates a first group of image signals captured through a first optical path and a second group of image signals captured through a second optical path;
The computing means detects an image signal that matches an arbitrary image signal of the first image signal group from the second image signal group, and moves the detected image signal from the arbitrary image signal. The image processing apparatus according to claim 1, wherein a distance to the object is calculated based on a quantity.
前記撮像手段は、
一対の撮像光学系と、
前記一対の撮像光学系の各々が出力する光信号を電気信号に変換する一対の撮像素子と、
を備えたことを特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。
The imaging means includes
A pair of imaging optical systems;
A pair of imaging elements for converting an optical signal output from each of the pair of imaging optical systems into an electrical signal;
The image processing apparatus according to claim 1, further comprising:
前記撮像手段は、
一対の導光光学系と、
各導光光学系に対する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気信号に変換する撮像素子と、
を備えたことを特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。
The imaging means includes
A pair of light guiding optical systems;
An imaging device that has an imaging region for each light guide optical system and converts an optical signal guided by each light guide optical system into an electrical signal in each imaging region;
The image processing apparatus according to claim 1, further comprising:
前記移動体は、車両であることを特徴とする請求項1〜6のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the moving body is a vehicle. 移動体に搭載された撮像手段によって撮像された画像を処理する画像処理方法において、
複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、処理画像に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理ステップと、
所定の撮像視野に対応する画像信号群を生成する撮像ステップと、
前記切換処理ステップにおいて切り換えられた前記画像処理範囲に対応する前記画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算ステップと、
を含むことを特徴とする画像処理方法。
In an image processing method for processing an image captured by an imaging unit mounted on a moving body,
A switching process step of selecting an image processing range corresponding to movement information of the moving body from a plurality of image processing ranges, and switching the image processing range for the processed image to the selected image processing range;
An imaging step for generating an image signal group corresponding to a predetermined imaging field;
A calculation step of calculating a distance to an object located in the imaging field based on the image signal group corresponding to the image processing range switched in the switching processing step;
An image processing method comprising:
移動体に搭載された撮像手段によって撮像された画像を処理する画像処理プログラムにおいて、
複数の画像処理範囲の中から前記移動体の移動情報に対応する画像処理範囲を選択し、処理画像に対する画像処理範囲を該選択した画像処理範囲に切り換える切換処理手順と、
所定の撮像視野に対応する画像信号群を生成する撮像手順と、
前記切換処理手順において切り換えられた前記画像処理範囲に対応する前記画像信号群に基づいて前記撮像視野内に位置する物体までの距離を演算する演算手順と、
を含むことを特徴とする画像処理プログラム。
In an image processing program for processing an image captured by an imaging unit mounted on a moving body,
A switching processing procedure for selecting an image processing range corresponding to movement information of the moving object from a plurality of image processing ranges and switching the image processing range for a processed image to the selected image processing range;
An imaging procedure for generating an image signal group corresponding to a predetermined imaging visual field;
A calculation procedure for calculating a distance to an object located in the imaging field based on the image signal group corresponding to the image processing range switched in the switching processing procedure;
An image processing program comprising:
JP2005145826A 2005-05-10 2005-05-18 Apparatus, method, and program for processing image Withdrawn JP2006322797A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005145826A JP2006322797A (en) 2005-05-18 2005-05-18 Apparatus, method, and program for processing image
PCT/JP2006/309419 WO2006121087A1 (en) 2005-05-10 2006-05-10 Image processing device, image processing method, and image processing program
EP06746229A EP1881450A1 (en) 2005-05-10 2006-05-10 Image processing apparatus, image processing method, and image processing program
US11/936,492 US20080088707A1 (en) 2005-05-10 2007-11-07 Image processing apparatus, image processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005145826A JP2006322797A (en) 2005-05-18 2005-05-18 Apparatus, method, and program for processing image

Publications (1)

Publication Number Publication Date
JP2006322797A true JP2006322797A (en) 2006-11-30

Family

ID=37542594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005145826A Withdrawn JP2006322797A (en) 2005-05-10 2005-05-18 Apparatus, method, and program for processing image

Country Status (1)

Country Link
JP (1) JP2006322797A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145230A (en) * 2007-12-14 2009-07-02 Toyota Motor Corp Object surveillance device for vehicle, and image analysis apparatus for vehicle
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
WO2009101687A1 (en) * 2008-02-14 2009-08-20 Konica Minolta Holdings, Inc. Range finder
JP2012020662A (en) * 2010-07-15 2012-02-02 Koito Mfg Co Ltd Vehicle detector and headlight control device equipped with the same
KR101467895B1 (en) * 2013-02-28 2014-12-03 삼성중공업(주) A localization method of marking unit and an appartus for marking using the same
JP2015018515A (en) * 2013-07-12 2015-01-29 矢崎エナジーシステム株式会社 On-vehicle device
WO2015083228A1 (en) * 2013-12-03 2015-06-11 富士通株式会社 Display control apparatus, display control method, and program
JP2015203703A (en) * 2014-04-16 2015-11-16 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited System and method for stereo object detection and distance calculation
JP2016014610A (en) * 2014-07-02 2016-01-28 株式会社リコー Camera system, distance measurement method, and program
WO2016027289A1 (en) * 2014-08-21 2016-02-25 三菱電機株式会社 Drive assist device, drive assist method, and program
JP2017111762A (en) * 2015-12-18 2017-06-22 株式会社リコー Information processing apparatus, information processing system, and information processing program
JP2017129543A (en) * 2016-01-22 2017-07-27 京セラ株式会社 Stereo camera device and vehicle
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium
JP2021033605A (en) * 2019-08-23 2021-03-01 株式会社デンソーテン Image processor and method for processing image
JP2022141664A (en) * 2017-12-26 2022-09-29 ウェイモ エルエルシー Adjustable vertical field of view

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145230A (en) * 2007-12-14 2009-07-02 Toyota Motor Corp Object surveillance device for vehicle, and image analysis apparatus for vehicle
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
WO2009101687A1 (en) * 2008-02-14 2009-08-20 Konica Minolta Holdings, Inc. Range finder
JP2012020662A (en) * 2010-07-15 2012-02-02 Koito Mfg Co Ltd Vehicle detector and headlight control device equipped with the same
KR101467895B1 (en) * 2013-02-28 2014-12-03 삼성중공업(주) A localization method of marking unit and an appartus for marking using the same
JP2015018515A (en) * 2013-07-12 2015-01-29 矢崎エナジーシステム株式会社 On-vehicle device
WO2015083228A1 (en) * 2013-12-03 2015-06-11 富士通株式会社 Display control apparatus, display control method, and program
JPWO2015083228A1 (en) * 2013-12-03 2017-03-16 富士通株式会社 Display control apparatus, display control method, and program
JP2015203703A (en) * 2014-04-16 2015-11-16 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited System and method for stereo object detection and distance calculation
JP2016014610A (en) * 2014-07-02 2016-01-28 株式会社リコー Camera system, distance measurement method, and program
JP6062122B2 (en) * 2014-08-21 2017-01-18 三菱電機株式会社 Driving support device, driving support method and program
WO2016027289A1 (en) * 2014-08-21 2016-02-25 三菱電機株式会社 Drive assist device, drive assist method, and program
JPWO2016027289A1 (en) * 2014-08-21 2017-04-27 三菱電機株式会社 Driving support device, driving support method and program
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium
JP2017111762A (en) * 2015-12-18 2017-06-22 株式会社リコー Information processing apparatus, information processing system, and information processing program
JP2017129543A (en) * 2016-01-22 2017-07-27 京セラ株式会社 Stereo camera device and vehicle
JP2022141664A (en) * 2017-12-26 2022-09-29 ウェイモ エルエルシー Adjustable vertical field of view
JP7486547B2 (en) 2017-12-26 2024-05-17 ウェイモ エルエルシー Adjustable vertical field of view
JP2021033605A (en) * 2019-08-23 2021-03-01 株式会社デンソーテン Image processor and method for processing image
JP7303064B2 (en) 2019-08-23 2023-07-04 株式会社デンソーテン Image processing device and image processing method

Similar Documents

Publication Publication Date Title
JP2006322797A (en) Apparatus, method, and program for processing image
US20080088707A1 (en) Image processing apparatus, image processing method, and computer program product
JP5729158B2 (en) Parking assistance device and parking assistance method
JPWO2018042801A1 (en) Imaging device
US7656508B2 (en) Distance measuring apparatus, distance measuring method, and computer program product
WO2006121088A1 (en) Image processing device, image processing method, and image processing program
WO2012086070A1 (en) Road surface shape recognition apparatus and autonomous mobile apparatus utilizing same
JPWO2018003532A1 (en) Object detection display device, moving object and object detection display method
JP2006322853A (en) Distance measuring device, distance measuring method and distance measuring program
JP2008027309A (en) Collision determination system and collision determination method
KR20150144681A (en) Electronic apparatus and control method thereof
JP7098790B2 (en) Imaging control device and moving object
JP2006322795A (en) Image processing device, image processing method and image processing program
US20140055572A1 (en) Image processing apparatus for a vehicle
JP2010044009A (en) Vehicle vicinity monitoring apparatus
JP2006318059A (en) Apparatus, method, and program for image processing
KR20150144201A (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
JP2013157770A (en) On-vehicle camera exposure control device
JP2006323693A (en) Processor, and method and program for processing image
JP2006322796A (en) Image processing device, image processing method and image processing program
US20220381913A1 (en) Distance measurement sensor, signal processing method, and distance measurement module
CN113614810B (en) Image processing device, vehicle control device, method, and program
JP2006031101A (en) Image generation method and device therefor
JP2006318061A (en) Apparatus, method, and program for image processing
JP2007278869A (en) Range finder, periphery monitor for vehicle, range finding method, and program for range finding

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805