JP2006317193A - Image processing apparatus, imaging processing method and program for processing image - Google Patents

Image processing apparatus, imaging processing method and program for processing image Download PDF

Info

Publication number
JP2006317193A
JP2006317193A JP2005137849A JP2005137849A JP2006317193A JP 2006317193 A JP2006317193 A JP 2006317193A JP 2005137849 A JP2005137849 A JP 2005137849A JP 2005137849 A JP2005137849 A JP 2005137849A JP 2006317193 A JP2006317193 A JP 2006317193A
Authority
JP
Japan
Prior art keywords
image processing
image
closed region
imaging
closed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005137849A
Other languages
Japanese (ja)
Inventor
Hidekazu Iwaki
秀和 岩城
Akio Kosaka
明生 小坂
Takashi Miyoshi
貴史 三由
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005137849A priority Critical patent/JP2006317193A/en
Publication of JP2006317193A publication Critical patent/JP2006317193A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method and a program for processing images capable of multilaterally and effectively processing various information contained in the images to be captured. <P>SOLUTION: The image processing apparatus comprises: an imaging means for photographing the predetermined visual field for forming images; a travel state detection means for detecting the travel state of the vehicle; a closed region setting means for setting a plurality of closed regions each of which makes a sum set of the whole visual fields to the images corresponding to the travel state of the vehicle detected by the travel state detection means; and a image processing means for performing the prescribed image processing for every closed region set by the closed region setting means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、所定の視野を撮像して生成する画像に対して画像処理を施す画像処理装置、画像処理方法、および画像処理用プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for performing image processing on an image generated by imaging a predetermined visual field.

従来から、自動車等の車両の走行時に、進行方向の道路の路面状況を検知する目的で、車両の進行方向を撮像し、この撮像した画像に対して所定の対象物の認識を行う技術が知られている(例えば、特許文献1を参照)。この技術では、撮像した画像を用いて、自車両が走行する道路上にある白線等の走行路区分線や中央分離帯等の走行路区分帯の認識を行う。   2. Description of the Related Art Conventionally, there has been known a technique for capturing the traveling direction of a vehicle and recognizing a predetermined object from the captured image for the purpose of detecting the road surface condition in the traveling direction when the vehicle such as an automobile is traveling. (For example, see Patent Document 1). In this technique, a road segment line such as a white line and a road segment zone such as a median strip on the road on which the vehicle travels are recognized using the captured image.

特許第3290318号公報Japanese Patent No. 3290318

しかしながら、上述した従来技術では、処理内容が白線などの認識に特化されているため、撮像する画像に含まれるさまざまな情報を多面的に処理することができなかった。   However, in the above-described prior art, since the processing content is specialized for recognition of white lines or the like, various information included in the image to be captured cannot be processed in a multifaceted manner.

本発明は、上記に鑑みてなされたものであり、撮像する画像に含まれるさまざまな情報を多面的に処理し得る画像処理装置、画像処理方法、および画像処理用プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of processing various information included in an image to be captured in a multifaceted manner. To do.

上述した課題を解決し、目的を達成するために、請求項1記載の発明は、移動体に搭載され、所定の視野を撮像して画像を生成する撮像手段と、前記移動体の移動状況を検知する移動状況検知手段と、前記移動状況検知手段で検知した前記移動体の移動状況に応じて、前記視野全域を和集合とする複数の閉領域を前記画像に対して設定する閉領域設定手段と、前記閉領域設定手段で設定した閉領域ごとに所定の画像処理を行う画像処理手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an invention according to claim 1 is provided with an imaging unit mounted on a moving body, which captures a predetermined field of view and generates an image, and a moving state of the moving body. A moving state detecting unit for detecting, and a closed region setting unit for setting, for the image, a plurality of closed regions having the entire field of view as a union according to the moving state of the moving body detected by the moving state detecting unit; And image processing means for performing predetermined image processing for each closed area set by the closed area setting means.

請求項2記載の発明は、請求項1記載の発明において、前記移動体の移動状況は、前記移動体自身の移動に係る現在状況および前記移動体が移動する周囲の現在状況のうち少なくともいずれかを含むことを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the moving state of the moving body is at least one of a current state relating to the movement of the moving body and a surrounding current state in which the moving body moves. It is characterized by including.

請求項3記載の発明は、請求項1または2記載の発明において、前記閉領域設定手段で設定した閉領域ごとに所定の対象物の検知を行う対象物検知手段をさらに備えたことを特徴とする。   The invention according to claim 3 is the invention according to claim 1 or 2, further comprising object detection means for detecting a predetermined object for each closed area set by the closed area setting means. To do.

請求項4記載の発明は、請求項1〜3のいずれか一項記載の発明において、前記画像処理手段で行う画像処理に適用する画像処理手法を前記閉領域設定手段で設定した閉領域ごとに変更する処理変更手段をさらに備えたことを特徴とする。   According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, an image processing technique applied to the image processing performed by the image processing unit is set for each closed region set by the closed region setting unit. It further comprises a process changing means for changing.

請求項5記載の発明は、請求項1〜4のいずれか一項記載の発明において、前記撮像手段は、一対の撮像光学系と、前記一対の撮像光学系の各々が出力する光信号を電気信号に変換する一対の撮像素子と、を有することを特徴とする。   According to a fifth aspect of the present invention, in the invention according to any one of the first to fourth aspects, the imaging unit is configured to electrically output a pair of imaging optical systems and an optical signal output from each of the pair of imaging optical systems. And a pair of imaging elements that convert signals.

請求項6記載の発明は、請求項1〜4のいずれか一項記載の発明において、前記撮像手段は、撮像光学系および当該撮像光学系が出力する光信号を電気信号に変換する撮像素子を備える撮像装置と、前記撮像光学系の前方に設けられ、光を複数の部位で受光し、当該複数の部位が各々受光した光を前記撮像光学系に導くステレオアダプタと、を有することを特徴とする。   According to a sixth aspect of the present invention, in the invention according to any one of the first to fourth aspects, the imaging unit includes an imaging optical system and an imaging device that converts an optical signal output from the imaging optical system into an electrical signal. An imaging apparatus comprising: a stereo adapter that is provided in front of the imaging optical system, receives light at a plurality of parts, and guides the light received by the plurality of parts to the imaging optical system, respectively. To do.

請求項7記載の発明は、請求項1〜6のいずれか一項記載の発明において、前記移動体は車両であることを特徴とする。   The invention according to claim 7 is the invention according to any one of claims 1 to 6, wherein the moving body is a vehicle.

請求項8記載の発明は、移動体に搭載され、所定の視野を撮像する撮像手段によって生成される画像に対して画像処理を施す画像処理方法であって、前記移動体の移動状況を検知する移動状況検知ステップと、前記移動状況検知ステップで検知した前記移動体の移動状況に応じて、前記視野全域を和集合とする複数の閉領域を設定する閉領域設定ステップと、前記閉領域設定ステップで設定した閉領域ごとに所定の画像処理を行う画像処理ステップと、を有することを特徴とする。   The invention according to claim 8 is an image processing method for performing image processing on an image mounted on a moving body and generated by an image pickup unit that picks up a predetermined field of view, and detects a moving state of the moving body. A moving state detecting step, a closed region setting step for setting a plurality of closed regions with the entire field of view as a union according to the moving state of the moving body detected in the moving state detecting step, and the closed region setting step And an image processing step for performing predetermined image processing for each closed region set in (5).

請求項9記載の発明は、移動体に搭載され、所定の視野を撮像する撮像手段によって生成される画像に対して画像処理を施すため、コンピュータに、前記移動体の移動状況を検知する移動状況検知ステップと、前記移動状況検知ステップで検知した前記移動体の移動状況に応じて、前記視野全域を和集合とする複数の閉領域を設定する閉領域設定ステップと、前記閉領域設定ステップで設定した閉領域ごとに所定の画像処理を行う画像処理ステップと、を実行させることを特徴とする。   According to the ninth aspect of the present invention, in order to perform image processing on an image that is mounted on a moving body and that is generated by an imaging unit that captures a predetermined field of view, a moving state for detecting a moving state of the moving body on a computer Set in the detection step, a closed region setting step for setting a plurality of closed regions with the entire field of view as a union according to the moving state of the moving body detected in the moving state detection step, and the closed region setting step And an image processing step for performing predetermined image processing for each closed region.

本発明によれば、撮像する画像に含まれるさまざまな情報を多面的に処理し得る画像処理装置、画像処理方法、および画像処理用プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and an image processing program that can process various information included in an image to be captured in a multifaceted manner.

以下、添付図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施の形態に係る画像処理装置の構成を示すブロック図である。同図に示す画像処理装置1は電子的な装置(コンピュータ)であり、移動体、特に四輪自動車等の車両に搭載され、所定の視野を撮像する撮像部10、この撮像部10が生成した画像を解析する画像解析部20、画像処理装置1の動作制御を行う制御部30、画像や文字等の情報を表示出力する出力部40、各種データを記憶する記憶部50、および車両の移動状況を検知する移動状況検知部60を有する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. An image processing apparatus 1 shown in FIG. 1 is an electronic device (computer), and is mounted on a moving body, particularly a vehicle such as a four-wheeled vehicle. The imaging unit 10 captures a predetermined field of view, and is generated by the imaging unit 10. An image analysis unit 20 that analyzes an image, a control unit 30 that controls the operation of the image processing apparatus 1, an output unit 40 that displays and outputs information such as images and characters, a storage unit 50 that stores various data, and a vehicle movement state It has the movement condition detection part 60 which detects.

撮像部10は、複眼のステレオカメラによって実現され、右カメラ11aと左カメラ11bとを備える。このうち、右カメラ11aは、所定の視野角から入射する光を集光するレンズ12a、このレンズ12aを透過した光を検知して電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子13a、この撮像素子13aが出力するアナログ信号をデジタル信号に変換するA/D変換部14a、および画像データを一時的に数メモリ分蓄積するフレームメモリ15aを有する。他方、左カメラ11bも、右カメラ11aと同様の構成を有する。すなわち、左カメラ11bは、レンズ12b、撮像素子13b、A/D変換部14b、およびフレームメモリ15bを有する。   The imaging unit 10 is realized by a compound-eye stereo camera, and includes a right camera 11a and a left camera 11b. Among these, the right camera 11a is a lens 12a that collects light incident from a predetermined viewing angle, a CCD (Charge Coupled Device) that detects light transmitted through the lens 12a and converts it into an electrical signal (analog signal) or the like. An image sensor 13a such as a CMOS (Complementary Metal Oxide Semiconductor), an A / D converter 14a that converts an analog signal output from the image sensor 13a into a digital signal, and a frame memory 15a that temporarily stores image data for several memories. Have On the other hand, the left camera 11b has the same configuration as the right camera 11a. That is, the left camera 11b includes a lens 12b, an image sensor 13b, an A / D converter 14b, and a frame memory 15b.

撮像部10が有する一対の撮像光学系としてのレンズ12aおよび12bは、焦点距離が等しく(この値をfとする)、光軸間の距離すなわち基線長がLだけ離れた位置に配置される。また、撮像素子13aおよび13bは、レンズ12aおよび12bからそれぞれ焦点距離fだけ離れた位置に配置される。なお、レンズ12aおよび12bは、通常は複数のレンズを組み合わせることによって構成されるが、図1では記載を簡単にするために1枚のレンズを用いた場合を示している。   The lenses 12a and 12b as a pair of imaging optical systems included in the imaging unit 10 are arranged at positions where the focal lengths are equal (this value is assumed to be f) and the distance between the optical axes, that is, the base line length is separated by L. The image sensors 13a and 13b are arranged at positions away from the lenses 12a and 12b by a focal length f. The lenses 12a and 12b are usually configured by combining a plurality of lenses, but FIG. 1 shows a case where a single lens is used in order to simplify the description.

画像解析部20は、撮像部10が撮像した画像をもとに三次元を再構成して三次元情報を生成する三次元再構成部21、この三次元再構成部21で生成した三次元情報の全域を和集合とする複数の閉領域を設定する閉領域設定部22、およびこの閉領域設定部22で設定した閉領域ごとに所定の画像処理を行う画像処理部23を有する。また、画像解析部20は、後述する各種処理を行う上で必要な種々のパラメータを算出する機能(キャリブレーション機能)と、三次元情報を生成する際、必要に応じて補正処理(レクティフィケーション処理)を行う機能を備える。   The image analysis unit 20 includes a three-dimensional reconstruction unit 21 that generates three-dimensional information by reconstructing three dimensions based on an image captured by the imaging unit 10, and the three-dimensional information generated by the three-dimensional reconstruction unit 21. A closed region setting unit 22 that sets a plurality of closed regions whose union is the entire region of the image, and an image processing unit 23 that performs predetermined image processing for each closed region set by the closed region setting unit 22. In addition, the image analysis unit 20 calculates various parameters necessary for performing various processes to be described later (calibration function) and, when generating three-dimensional information, correction processing (rectification) as necessary. A function to perform processing.

制御部30は、演算および制御機能を有するCPU(Central Processing Unit)等によって実現され、後述する記憶部50が記憶、格納する画像処理用プログラムを読み出すことによって、撮像部10や画像解析部20の各種動作処理の制御を行う。   The control unit 30 is realized by a CPU (Central Processing Unit) or the like having a calculation and control function, and reads out an image processing program stored and stored in a storage unit 50 to be described later, whereby the imaging unit 10 and the image analysis unit 20. Control various operation processes.

出力部40は、画像や文字情報等を表示出力するものであり、液晶ディスプレイ、プラズマディスプレイ、または有機EL(Electroluminescence)ディスプレイ等によって実現される。また、出力部40として、音声情報を外部に出力するスピーカをさらに設けることもできる。   The output unit 40 displays and outputs images, character information, and the like, and is realized by a liquid crystal display, a plasma display, an organic EL (Electroluminescence) display, or the like. Further, as the output unit 40, a speaker that outputs audio information to the outside can be further provided.

記憶部50は、所定のOS(Operation System)を起動するプログラムや画像処理用プログラム等が予め記憶されたROM(Read Only Memory)と、各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)とを用いて実現される。この記憶部50は、撮像部10において撮像した画像データ51、閉領域設定部22で画像に閉領域を設定するために必要な閉領域設定情報52、閉領域ごとに行う画像処理の処理内容53、および画像中の物体認識の際に用いるさまざまな物体(車両、人物、路面、白線、標識等)のパターンを画素点単位で表現したテンプレート54をそれぞれ記憶、格納する。   The storage unit 50 includes a ROM (Read Only Memory) in which a program for starting a predetermined OS (Operation System), an image processing program, and the like are stored in advance, and a RAM (Random Access) in which calculation parameters and data for each process are stored. Memory). The storage unit 50 includes image data 51 captured by the imaging unit 10, closed region setting information 52 necessary for setting a closed region in an image by the closed region setting unit 22, and processing contents 53 of image processing performed for each closed region. , And templates 54 representing patterns of various objects (vehicles, persons, road surfaces, white lines, signs, etc.) used for object recognition in the image in units of pixel points.

なお、上述した画像処理用プログラムは、ハードディスク、フレキシブルディスク、CD−ROM,CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW、DVD−RAM、MOディスク、PCカード、xDピクチャーカード、スマートメディア等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。   Note that the above-described image processing program is a hard disk, flexible disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD ± R, DVD ± RW, DVD-RAM, MO disk, PC card, xD. It is also possible to record on a computer-readable recording medium such as a picture card or smart media and distribute it widely.

移動状況検知部60は、さまざまな種類のセンサによって実現され、車両自身の移動に係る現在状況や車両が移動している周囲の現在状況を検知する。このうち、車両自身の移動に係る現在状況として検知対象となるものは、車両の位置・速度・加速度、車体の振動状況、車両の操舵軸の操舵角、車両に設けられるサスペンションのピッチやロール等である。また、車両が移動している周囲の現在状況として検知対象となるものは、路面状況、周囲に存在するさまざまな物体の大きさやその物体までの距離、雨滴の有無、輝度等である。移動状況検知部60は、これらの情報のうちの少なくとも一つを用いることによって車両の移動状況を検知する。   The movement status detection unit 60 is realized by various types of sensors, and detects the current status regarding the movement of the vehicle itself and the current status of the surroundings where the vehicle is moving. Among these, the current status related to the movement of the vehicle itself includes the vehicle position / speed / acceleration, the vibration status of the vehicle body, the steering angle of the steering shaft of the vehicle, the pitch and roll of the suspension provided in the vehicle, etc. It is. Also, what is to be detected as the current situation around the vehicle is the road surface condition, the size of various objects in the vicinity, the distance to the object, the presence / absence of raindrops, brightness, and the like. The movement state detection unit 60 detects the movement state of the vehicle by using at least one of these pieces of information.

以上の構成を有する画像処理装置1が実行する画像処理方法について、図2に示すフローチャートを参照して詳細に説明する。まず、撮像部10が、所定の視野を撮像して画像を生成する撮像処理を行う(ステップS1)。撮像部10の右カメラ11aおよび左カメラ11bでは、制御部30の制御のもと、レンズ12aおよび12bをそれぞれ用いて所定の視野角に含まれる領域から光を集光する。   The image processing method executed by the image processing apparatus 1 having the above configuration will be described in detail with reference to the flowchart shown in FIG. First, the imaging unit 10 performs an imaging process for generating an image by imaging a predetermined field of view (step S1). In the right camera 11 a and the left camera 11 b of the imaging unit 10, light is collected from a region included in a predetermined viewing angle using the lenses 12 a and 12 b under the control of the control unit 30.

図3は、複眼のステレオカメラによる撮像処理を概念的に示す説明図である。同図では、右カメラ11aの光軸zaと左カメラ11bの光軸zbが平行な場合を示している。この場合、左カメラ固有の座標系(左カメラ座標系)に対応する左画像領域Ibの点Abに対応する点が、右カメラ固有の座標系(右カメラ座標系)に対応する右画像領域Ia内の直線αE(エピポーラ線)上に存在している。なお、図3では左カメラ11bを基準として、右カメラ11aにおける対応点を探索する場合を図示しているが、これとは反対に右カメラ11aを基準とすることもできる。 FIG. 3 is an explanatory diagram conceptually showing an imaging process by a compound-eye stereo camera. In the figure, the optical axis z b of the optical axis z a and the left camera 11b of the right camera 11a indicates a parallel case. In this case, the point corresponding to the point A b in the left image area I b corresponding to the left camera specific coordinate system (left camera coordinate system) is the right image corresponding to the right camera specific coordinate system (right camera coordinate system). It exists on the straight line α E (epipolar line) in the region I a . Note that FIG. 3 illustrates the case where the corresponding point in the right camera 11a is searched with the left camera 11b as a reference, but the right camera 11a can be used as a reference in contrast to this.

レンズ12aおよび12bが集光した光は、撮像素子13aおよび13bの面上にそれぞれ結像して電気信号(アナログ信号)に変換される。撮像素子13aおよび13bが出力するアナログ信号は、A/D変換部14aおよび14bでそれぞれデジタル信号に変換され、この変換されたデジタル信号の各々を、フレームメモリ15aおよび15bが一時的に格納する。フレームメモリ15aおよび15bがそれぞれ一時的に格納したデジタル信号は、所定時間経過後、画像解析部20に送出される。   The lights collected by the lenses 12a and 12b are imaged on the surfaces of the image sensors 13a and 13b, respectively, and converted into electrical signals (analog signals). Analog signals output from the image sensors 13a and 13b are converted into digital signals by the A / D converters 14a and 14b, respectively, and the converted digital signals are temporarily stored in the frame memories 15a and 15b. The digital signals temporarily stored in the frame memories 15a and 15b are sent to the image analysis unit 20 after a predetermined time has elapsed.

デジタル信号を受け取った画像解析部20では、三次元再構成部21で三次元情報の生成を行う(ステップS3)。ここでの三次元情報生成処理では、まず左右のカメラ座標系における座標値の算出と、座標値間の対応付け(対応点探索)とを行う。この対応点探索によって三次元を再構成する場合には、基準とする方の画像を通過する任意の直線上に位置する画素点が、他方の画像においても同一直線上に位置することが望ましい(エピポーラ拘束条件)。しかし、このエピポーラ拘束条件は常に満足されているとは限らず、例えば図4に示す場合、基準とする左画像領域Ibの点Abに対応する右画像領域Iaの点は直線αA上に存在する一方、左画像領域Ibの点Bbに対応する右画像領域Iaの点は直線αB上に存在する。 In the image analysis unit 20 that has received the digital signal, the three-dimensional reconstruction unit 21 generates three-dimensional information (step S3). In the three-dimensional information generation processing here, first, calculation of coordinate values in the left and right camera coordinate systems and association between coordinate values (corresponding point search) are performed. When three-dimensional reconstruction is performed by this corresponding point search, it is desirable that pixel points located on an arbitrary straight line that passes through the reference image be located on the same straight line in the other image ( Epipolar restraint conditions). However, this epipolar constraint condition is not always satisfied. For example, in the case shown in FIG. 4, the point in the right image region I a corresponding to the point A b in the left image region I b as a reference is a straight line α A. while present in the above, the point in the right image area I a corresponding to a point B b in the left image area I b existing on the straight line alpha B.

このようにエピポーラ拘束条件が満足されない場合には、探索範囲を絞り切ることができず、対応点を探索する際の計算量が膨大になってしまう。そのような場合には、画像解析部20が、予め左右のカメラ座標系を正規化して、エピポーラ拘束条件を満足するような状態に変換する処理(レクティフィケーション処理)を行う。図5は、このレクティフィケーション処理後の左右画像領域の対応関係を示すものである。この図5に示すようにエピポーラ拘束条件が満足されていれば、探索範囲をエピポーラ線αEに絞って探索することができるので、対応点探索に要する計算量を少なくすることができる。 Thus, when the epipolar constraint condition is not satisfied, the search range cannot be narrowed down, and the amount of calculation when searching for corresponding points becomes enormous. In such a case, the image analysis unit 20 performs processing (rectification processing) that normalizes the left and right camera coordinate systems in advance and converts them into a state that satisfies the epipolar constraint condition. FIG. 5 shows the correspondence between the left and right image areas after the rectification process. As shown in FIG. 5, if the epipolar constraint condition is satisfied, the search range can be narrowed down to the epipolar line α E , so that the calculation amount required for the corresponding point search can be reduced.

ここで対応点探索法の一例を説明する。まず、基準とする左画像領域Ibにおいて、注目する画素点近傍に局所領域を設け、この局所領域と同様の領域を右画像領域Iaの対応するエピポーラ線αE上に設ける。そして、右画像領域Iaの局所領域をエピポーラ線αE上で走査しながら、左画像領域Ibの局所領域との類似度が最も高い局所領域を探索する。この探索の結果、類似度が最も高い局所領域の中心点を左画像領域Ibの画素点の対応点とする。 Here, an example of the corresponding point search method will be described. First, in the reference left image region I b , a local region is provided in the vicinity of the pixel point of interest, and a region similar to this local region is provided on the corresponding epipolar line α E in the right image region I a . Then, while scanning the local region of the right image region I a on the epipolar line α E , the local region having the highest similarity with the local region of the left image region I b is searched. As a result of this search, the center point of the local area having the highest similarity is set as the corresponding point of the pixel point of the left image area I b .

この対応点探索の際に用いる類似度として、局所領域内の画素点間の差の絶対値の和(SAD:Sum of Absolute Difference)、局所領域内の画素点間の差の2乗和(SSD:Sum of Squared Difference)、または局所領域内の画素点間の正規化相互相関(NCC:Normalized Cross Correlation)を適用することができる。これらのうち、SADまたはSSDを適用する場合には、最小値をとる点を類似度が最も高い点とする一方、NCCを適用する場合には、最大値をとる点を類似度が最も高い点とする。   As similarities used in the search for corresponding points, the sum of absolute values of differences between pixel points in the local region (SAD: Sum of Absolute Difference) and the square sum of differences between pixel points in the local region (SSD). : Sum of Squared Difference) or Normalized Cross Correlation (NCC) between pixel points in the local region can be applied. Among these, when SAD or SSD is applied, the point having the minimum value is the point with the highest similarity, while when NCC is applied, the point with the maximum value is the point with the highest similarity. And

なお、ステップS3の後、三次元再構成部21において、そのステップS3で算出した座標値(x,y,z)を用いて移動体の最前面から撮像された点までの距離Rを算出してもよい。ここで、カメラ座標系における車両最前面の位置は、予め実測しておく必要がある。この距離Rを算出した場合は、撮像部10によって得られた画像に前記距離Rを重畳した距離画像を生成することも可能である。図6は、出力部40における距離画像の表示出力例を示す図である。同図に示す距離画像301は、濃淡の度合いによって撮像部10からの距離を表現しており、遠方ほど濃く表示されている。なお、算出した視野構成点の全ての座標値(x,y,z)および距離Rは、対応する画像と関連付けて記憶部50に格納される。   After step S3, the three-dimensional reconstruction unit 21 calculates the distance R from the forefront of the moving object to the imaged point using the coordinate values (x, y, z) calculated in step S3. May be. Here, the position of the forefront of the vehicle in the camera coordinate system needs to be measured in advance. When the distance R is calculated, a distance image in which the distance R is superimposed on the image obtained by the imaging unit 10 can be generated. FIG. 6 is a diagram illustrating a display output example of the distance image in the output unit 40. The distance image 301 shown in the figure represents the distance from the imaging unit 10 depending on the degree of shading, and is displayed darker as the distance increases. In addition, all the coordinate values (x, y, z) and the distance R of the calculated visual field configuration point are stored in the storage unit 50 in association with the corresponding image.

上述した撮像部10および三次元再構成部21における処理(ステップS1およびS3)と並行して、移動状況検知部60は車両の移動状況の検知を行う(ステップS5)。この移動状況の検知結果は、閉領域設定部22における閉領域の設定処理に反映される。より具体的には、移動状況の検知結果を受け取った制御部30が、記憶部50に格納されている閉領域設定情報52を参照し、その検知結果に応じた閉領域の設定に関する制御信号を画像解析部20内の閉領域設定部22に送出する。閉領域設定情報52は、移動状況の検知結果と閉領域の設定モードとを対応付ける情報を有する。ここで閉領域の設定モードは、車両の移動状況に応じて撮影することが予想される画像パターンと、その画像パターンに対して行うべき処理内容とに応じて予め設定されるものである。   In parallel with the processing (steps S1 and S3) in the imaging unit 10 and the three-dimensional reconstruction unit 21 described above, the movement state detection unit 60 detects the movement state of the vehicle (step S5). The detection result of the movement state is reflected in the closed region setting process in the closed region setting unit 22. More specifically, the control unit 30 that has received the detection result of the movement status refers to the closed region setting information 52 stored in the storage unit 50, and sends a control signal regarding the setting of the closed region according to the detection result. The image is sent to the closed region setting unit 22 in the image analysis unit 20. The closed area setting information 52 includes information for associating the detection result of the movement state with the closed area setting mode. Here, the closed region setting mode is set in advance in accordance with an image pattern that is expected to be photographed in accordance with the moving state of the vehicle and the processing content to be performed on the image pattern.

制御部30からの制御信号を受信した閉領域設定部22は、撮像部10で撮像された画像に対して閉領域の設定を行う(ステップS7)。図7は、このステップにおける閉領域の設定モードの一例を示す図である。同図に示す設定モード401は、移動状況検知部60において、自車両がある速度で直進しており、路面も直進状態が続くことを検知した場合の閉領域の設定例である。   The closed region setting unit 22 that has received the control signal from the control unit 30 sets the closed region for the image captured by the imaging unit 10 (step S7). FIG. 7 is a diagram showing an example of a closed region setting mode in this step. A setting mode 401 shown in the figure is an example of setting a closed region when the moving state detection unit 60 detects that the host vehicle travels straight at a certain speed and the road surface continues to travel straight.

設定モード401の具体的な構成は、中央部に長方形の閉領域d1が設けられ、この閉領域d1の境界をなす各辺を一つの底辺に有するとともに、画面の境界線(周縁)を他方の底辺とする等脚台形状の閉領域d2、d3、d4、およびd5が閉領域d1の周囲に設けられる。車両が直進する場合、閉領域d1には先行車両が撮影されて映し出されることが多い。また、閉領域d1よりも上方に位置する閉領域d2には、信号の他、空や太陽や雲が映し出されることが多い。閉領域d1の側方に位置する、閉領域d3およびd5には、路肩に設置される道路標識、側壁、並行して隣のレーンを走行する車両や対向車両等が映し出されることが多い。さらに、閉領域d1の下方に位置する閉領域d4では、車両が進行する路面が映し出される可能性が高い。このように、分割された5つの閉領域には、車両が直進するという移動状況を反映する特徴的な物体がそれぞれ映し出される可能性が高い。そこで、閉領域ごとにそれら特徴的な物体を検知することにより、多面的な画像処理を実現することができる。   The specific configuration of the setting mode 401 is that a rectangular closed region d1 is provided at the center, each side forming the boundary of the closed region d1 is provided on one bottom side, and the boundary line (periphery) of the screen is set on the other side. An isosceles trapezoidal closed region d2, d3, d4, and d5, which is the base, is provided around the closed region d1. When the vehicle goes straight, the preceding vehicle is often captured and displayed in the closed area d1. In addition to the signal, the sky, the sun, and the clouds are often projected in the closed region d2 positioned above the closed region d1. In the closed areas d3 and d5, which are located on the side of the closed area d1, road signs installed on the shoulders, side walls, vehicles running on the adjacent lanes in parallel, oncoming vehicles, and the like are often displayed. Furthermore, in the closed region d4 located below the closed region d1, there is a high possibility that the road surface on which the vehicle travels is projected. In this way, there is a high possibility that characteristic objects that reflect the moving situation in which the vehicle goes straight are projected in the five closed areas. Therefore, multifaceted image processing can be realized by detecting these characteristic objects for each closed region.

他の閉領域の設定例を説明する。図8は、図7と同様に直進状態がしばらく続くが、車両の速さが図7に示す設定モード401よりも大きい状況下(例えば自動車専用道路走行時)における閉領域の設定例を示す図である。この図8に示す設定モード402が選択される状況においては、自車両と先行車両との車間距離が、図7に示す設定モード401を適用する状況よりも大きい可能性が高い。このため、中央に位置する閉領域d1は、設定モード402よりも小さく設けられる。   An example of setting other closed regions will be described. FIG. 8 is a diagram illustrating an example of setting a closed region in a state where the straight traveling state continues for a while as in FIG. 7 but the vehicle speed is higher than the setting mode 401 illustrated in FIG. It is. In the situation where the setting mode 402 shown in FIG. 8 is selected, there is a high possibility that the inter-vehicle distance between the host vehicle and the preceding vehicle is larger than in the situation where the setting mode 401 shown in FIG. 7 is applied. For this reason, the closed region d <b> 1 located in the center is provided smaller than the setting mode 402.

図9は、移動状況検知部60が、例えば操舵軸の操舵角の回転を計測することによって車両が左側に曲がりつつある状況を検知した場合の閉領域の設定例を示す図である。同図に示す設定モード403では、車両検知用の閉領域d1も、設定モード401に比べて水平方向左側に移動している。これは、左に曲がるカーブを走行するときには、同じ走行レーンを走行する先行車両が画面の左側に映し出される可能性が高いからである。なお、閉領域d1の面積が設定モード401の閉領域d1の面積と略同一なのは、設定モード403における車両の走行速度が設定モード401の車両の走行速度と略同一の場合を想定しているためである。また、車両が右に曲がるカーブを走行する場合には、この設定モード401と左右が逆になり、設定モード401と比較して閉領域d1が水平方向右側に移動する。   FIG. 9 is a diagram illustrating an example of setting the closed region when the movement state detection unit 60 detects a state in which the vehicle is turning to the left by measuring the rotation of the steering angle of the steering shaft, for example. In the setting mode 403 shown in the figure, the vehicle detection closed region d1 is also moved to the left in the horizontal direction compared to the setting mode 401. This is because when traveling on a curve that turns to the left, there is a high possibility that a preceding vehicle traveling in the same traveling lane is displayed on the left side of the screen. The reason why the area of the closed region d1 is substantially the same as the area of the closed region d1 in the setting mode 401 is that the vehicle traveling speed in the setting mode 403 is assumed to be substantially the same as the vehicle traveling speed in the setting mode 401. It is. Further, when the vehicle travels on a curve that turns to the right, the setting mode 401 is reversed to the left and right, and the closed region d1 moves to the right in the horizontal direction as compared with the setting mode 401.

図10は、例えば車両が鉛直方向下向きに凸な斜面上を直進する場合の閉領域の設定例を示す図である。同図に示す設定モード404では、先行車両を画像の上部で検知する可能性が高いので、車両検知用の閉領域d1が設定モード401に比べて画面上部に配置される。なお、車両が鉛直方向上向きに凸な斜面上を直進する場合には、設定モード404を上下逆にした状態、すなわち設定モード401に比べて閉領域d1が下側に配置される状態となる。   FIG. 10 is a diagram illustrating an example of setting a closed region when the vehicle travels straight on a slope that protrudes downward in the vertical direction. In the setting mode 404 shown in the figure, since there is a high possibility that the preceding vehicle is detected at the top of the image, the vehicle detection closed region d1 is arranged at the top of the screen compared to the setting mode 401. When the vehicle travels straight on a slope that is convex upward in the vertical direction, the setting mode 404 is turned upside down, that is, the closed region d1 is arranged below the setting mode 401.

ところで、上述した閉領域の設定モード以外にも、画像処理装置1を搭載する車両の移動形態等に応じてさまざまな設定モードを適用することが可能である。例えば、区分する閉領域の数は5つに限られるわけではない。また、全ての閉領域の和集合をとることによって視野全域を網羅することができれば、隣接する閉領域が交わりを有してもよい。   Incidentally, in addition to the closed region setting mode described above, various setting modes can be applied depending on the movement mode of the vehicle on which the image processing apparatus 1 is mounted. For example, the number of closed regions to be divided is not limited to five. In addition, if the entire field of view can be covered by taking the union of all closed regions, adjacent closed regions may have intersections.

以上のように閉領域が設定された後、画像処理部23は、制御部30の制御のもと、処理内容53を記憶部50から読み出し、この読み出した処理内容53にしたがってステップS7で設定した閉領域ごとに所定の画像処理を行う(ステップS9)。図11は、ステップS7で設定した閉領域ごとに行うべき画像処理の処理内容を示す説明図である。同図に示す対応表71は、閉領域と処理内容の対応を表しており、具体的な処理内容として、所定の対象物の検知と、その対象物を検知した場合に行うべき処理とを示している。ここで各対象物を検知する際には、記憶部50のテンプレート54に予め記憶しておいた物体のパターンと、撮像部10で撮像された画像内のパターンを比較して両者の相関を調べる(テンプレートマッチング)。このテンプレートマッチングの結果、該当するパターンを検知した場合には、その検知した対象物に応じた処理を行う。したがって、画像処理部23は、閉領域ごとの対象物の検知を行う対象物検知手段の機能を備える。   After the closed region is set as described above, the image processing unit 23 reads the processing content 53 from the storage unit 50 under the control of the control unit 30, and sets the processing content 53 in step S7 according to the read processing content 53. Predetermined image processing is performed for each closed region (step S9). FIG. 11 is an explanatory diagram showing the processing contents of the image processing to be performed for each closed region set in step S7. The correspondence table 71 shown in the figure shows the correspondence between the closed area and the processing contents, and shows the specific object detection and the processing to be performed when the object is detected as specific processing contents. ing. Here, when each object is detected, the object pattern stored in advance in the template 54 of the storage unit 50 and the pattern in the image captured by the imaging unit 10 are compared to examine the correlation between them. (Template matching). As a result of the template matching, when a corresponding pattern is detected, processing corresponding to the detected object is performed. Therefore, the image processing unit 23 includes a function of an object detection unit that detects an object for each closed region.

図11の対応表71に記載されている処理内容を具体的に説明する。まず、閉領域d1に対しては、先行車両または人物の検知を行う。ここでのパターンは車両(または人物)の大きさを含むので、仮に閉領域d1の内部に遠方に存在する車両の小さい像が入ってきても、その段階では対象物であるとは認識されず、所定距離近づいたときの車両の大きさに相当するテンプレートに一致した時点で初めて車両として検知される。   The processing contents described in the correspondence table 71 in FIG. 11 will be specifically described. First, a preceding vehicle or a person is detected for the closed region d1. Since the pattern here includes the size of the vehicle (or person), even if a small image of a vehicle located far away enters the closed region d1, it is not recognized as an object at that stage. A vehicle is detected only when it matches a template corresponding to the size of the vehicle when approaching a predetermined distance.

図12は、閉領域d1において先行車両を検知した場合の出力部40の表示例を示す図である。同図に示す表示画像501では、撮像部10で撮像された画像に設定した閉領域を重ねて表示するとともに、閉領域d1に危険とみなし得る大きさの車両が検知されたため、画像の下部に「ブレーキをかけてください」という警告メッセージを出力している。この警告メッセージの出力に合わせて、例えば警告音を発生させたり、表示と同様のメッセージを音声で出力することもできる。なお、閉領域d1で人物(または路上に存在することが想定される障害物)を検知した場合には、ブレーキの作動を促すか、あるいは回避を促す警告を出力してもよい。   FIG. 12 is a diagram illustrating a display example of the output unit 40 when a preceding vehicle is detected in the closed region d1. In the display image 501 shown in the figure, the closed region set on the image captured by the imaging unit 10 is displayed in an overlapping manner, and a vehicle of a size that can be regarded as dangerous is detected in the closed region d1, so that a lower portion of the image is displayed. The warning message “Please apply the brake” is output. In accordance with the output of the warning message, for example, a warning sound can be generated, or a message similar to the display can be output by voice. When a person (or an obstacle assumed to be present on the road) is detected in the closed region d1, a warning that prompts the user to actuate the brake or to avoid it may be output.

閉領域d2では、信号の検知を行う。図13に示す表示画像502は、所定の閉領域d2で信号を検知し、画面上の信号を囲む位置に注意喚起のウィンドウを設けるとともに、「信号あります」という注意喚起のメッセージを表示した場合を示している。信号を検知するとともに信号の色を検知し、例えば信号が赤の場合には、ブレーキの準備を促すようなメッセージを出力することも可能である。ところで、図11に示す場合、閉領域d2では空の色、輝度、雲の量などの検知も同時に行う。この検知の結果、例えば閉領域d2で雲を多く検知した場合には、進行方向が徐々に暗くなってくると判断し、自車両のライト点灯を促すメッセージを表示する。空の状況判断として、雨粒を検知してワイパーの作動を促すメッセージを表示出力するようにしてもよい。なお、移動状況検知部60が、空の色、輝度、雲の量などの検知を行ってもよい。この場合には、移動状況検知部60が対象物検知手段の一部の機能を担う。   In the closed region d2, signal detection is performed. A display image 502 shown in FIG. 13 shows a case where a signal is detected in a predetermined closed region d2, a warning window is provided at a position surrounding the signal on the screen, and a warning message “There is a signal” is displayed. Show. It is also possible to detect the signal and the color of the signal. For example, when the signal is red, it is possible to output a message for prompting the brake preparation. By the way, in the case shown in FIG. 11, in the closed region d2, detection of sky color, luminance, cloud amount, and the like is simultaneously performed. As a result of this detection, for example, when a large number of clouds are detected in the closed region d2, it is determined that the traveling direction gradually becomes dark, and a message for prompting lighting of the vehicle's light is displayed. As the determination of the situation of the sky, a message prompting the operation of the wiper by detecting raindrops may be displayed and output. Note that the movement status detection unit 60 may detect the color of the sky, the brightness, the amount of clouds, and the like. In this case, the movement status detection unit 60 plays a part of the function of the object detection means.

閉領域d3およびd5では、路肩に設けられる道路標識の種別等の認識や側壁の検知を行う。図14に示す表示画像503では、閉領域d3で検知した標識を矢印で指示し、標識の内容(「追越禁止区間です」等)を画像の下部に表示している。なお、標識の内容まで識別することが困難な場合には、例えば標識がある旨の表示のみを行うようにしてもよい。また、側壁を検知した場合には、その側壁との距離が一定値よりも近づいたときに警告メッセージや警告音を発する。ところで、閉領域d3およびd5には隣の走行レーンを走行する車両が映し出される可能性が高いので、これらの車両検知を行うようにしてもよい。   In the closed regions d3 and d5, recognition of the type of road sign provided on the road shoulder and the detection of the side wall are performed. In the display image 503 shown in FIG. 14, the sign detected in the closed region d3 is indicated by an arrow, and the contents of the sign (such as “it is an overtaking prohibited section”) are displayed at the bottom of the image. In addition, when it is difficult to identify the contents of the sign, for example, only a display indicating that there is a sign may be performed. When a side wall is detected, a warning message or a warning sound is emitted when the distance from the side wall is closer than a certain value. By the way, since there is a high possibility that the vehicles traveling in the adjacent traveling lanes are displayed in the closed areas d3 and d5, these vehicles may be detected.

閉領域d4では、路面および路面上の白線の検知を行うことによって自車両の進路の状況(例えば、路面の曲がり具合や路面上の凍結の有無)や走行レーンを把握する。加えて、白線以外の走行路区分帯(黄線等)の認識、把握を行ってもよい。図15は、閉領域d4で検知した路面が左に曲がるカーブを描いていると認識した場合の画像処理結果を示す図である。同図に示す表示画像504では、左に曲がる矢印を閉領域d4中に表示するとともに、「左カーブです」というメッセージを画像の下部に表示出力している。この場合、自車両が走行レーンを逸脱しつつあることを白線等の検知によって認識したときには、その旨の警告をメッセージで出力したり警告音を発生したりしてもよい。   In the closed region d4, by detecting the road surface and the white line on the road surface, the vehicle's course condition (for example, whether the road surface is bent or whether the road surface is frozen) and the traveling lane are known. In addition, it may be possible to recognize and grasp a road segment zone other than the white line (yellow line or the like). FIG. 15 is a diagram illustrating an image processing result when it is recognized that the road surface detected in the closed region d4 draws a curve turning to the left. In the display image 504 shown in the figure, an arrow that turns to the left is displayed in the closed region d4, and a message “It is a left curve” is displayed and output at the bottom of the image. In this case, when recognizing that the host vehicle is deviating from the traveling lane by detecting a white line or the like, a warning to that effect may be output or a warning sound may be generated.

ここまで、画像内において一つの画像処理を施す場合について主に説明したが、閉領域ごとの画像処理を並列的に行うことも勿論可能である。この場合には、所定時間ずつ閉領域ごとの情報を切替えて表示したり、緊急の表示が必要な閉領域を最優先で表示できるようにしておく。また、図12〜図15では、閉領域の境界線を表示画像で明示していたが、この境界線を明示して表示しなくてもよい。   Up to this point, the case where one image processing is performed in an image has been mainly described, but it is of course possible to perform image processing for each closed region in parallel. In this case, information for each closed area is switched and displayed for a predetermined time, or a closed area that requires urgent display can be displayed with the highest priority. Further, in FIGS. 12 to 15, the boundary line of the closed region is clearly shown in the display image, but the boundary line may not be explicitly displayed.

以上説明した本発明の一実施の形態によれば、撮像した画像を、自車両の移動状況をふまえた閉領域に区分し、この区分した閉領域ごとに所定の画像処理を行うことにより、撮像する画像に含まれるさまざまな情報を多面的かつ効率的に処理することが可能となる。   According to the embodiment of the present invention described above, the captured image is divided into closed regions based on the movement status of the host vehicle, and predetermined image processing is performed for each of the divided closed regions, thereby capturing images. Various information included in the image to be processed can be processed in a multifaceted and efficient manner.

特に、この実施の形態によれば、閉領域の構成を車両の走行状況に応じて最適化することができ、その現状に即した最適な画像処理を施すことが可能となる。   In particular, according to this embodiment, the configuration of the closed region can be optimized according to the traveling state of the vehicle, and it is possible to perform optimal image processing in accordance with the current state.

図16は、この実施の形態の一変形例に係る画像処理装置の撮像部の構成を示す図である。同図に示す撮像部110は、単眼の撮像装置であるカメラ111に対してステレオアダプタ116を装着したものである。カメラ111の構成は、右カメラ11aや左カメラ11bと同じであり、レンズ112、撮像素子113、A/D変換部114、およびフレームメモリ115を有する。ステレオアダプタ116は、被写体から入射する光を受光する二つの受光部位である受光ミラー117aおよび117bと、これらの受光ミラー117aおよび117bによって反射されてくる光をカメラ111の撮像光学系であるレンズ112に導く導光ミラー118aおよび118bとを有する。   FIG. 16 is a diagram illustrating a configuration of an imaging unit of an image processing apparatus according to a modification of this embodiment. The imaging unit 110 shown in the figure is obtained by mounting a stereo adapter 116 to a camera 111 that is a monocular imaging device. The configuration of the camera 111 is the same as that of the right camera 11a and the left camera 11b, and includes a lens 112, an image sensor 113, an A / D converter 114, and a frame memory 115. The stereo adapter 116 includes two light receiving mirrors 117 a and 117 b that receive light incident from a subject, and the light 112 reflected by the light receiving mirrors 117 a and 117 b as a lens 112 that is an imaging optical system of the camera 111. And light guide mirrors 118a and 118b.

このような構成を有する撮像部110は、異なる二つの視点からの画像を結像して出力するため、ステレオカメラである撮像部10と同等の機能を有する。したがって、この一変形例によれば、上記一実施の形態と同様に、撮像する画像に含まれるさまざまな情報を多面的に処理することができる。また、この一変形例によれば、ステレオ画像撮影用ではない一般のカメラを用いて簡単にステレオ画像を撮影することができる。   Since the imaging unit 110 having such a configuration forms and outputs images from two different viewpoints, the imaging unit 110 has a function equivalent to that of the imaging unit 10 that is a stereo camera. Therefore, according to this modification, various information included in the image to be captured can be processed in a multifaceted manner, as in the above-described one embodiment. Further, according to this modification, it is possible to easily capture a stereo image using a general camera that is not for stereo image capturing.

以上、本発明の好ましい一実施の形態を詳述してきたが、本発明はこの実施の形態によってのみ限定されるものではない。例えば、本発明に係る画像処理装置に、閉領域ごとに処理内容の変更を行う処理変更手段をさらに具備させてもよい。この処理変更手段を用いることにより、例えば空の検知結果から把握できる天候や昼夜の区別に応じて各閉領域の処理内容の変更を行ったりすることが可能となる。   The preferred embodiment of the present invention has been described in detail above, but the present invention is not limited only to this embodiment. For example, the image processing apparatus according to the present invention may further include processing change means for changing the processing content for each closed region. By using this processing change means, for example, it is possible to change the processing content of each closed region according to the weather or day / night distinction that can be grasped from the sky detection result.

また、本発明に係る画像処理装置に入力手段を設けることにより、処理内容や閉領域の設定方法を利用者が自在に設定できる構成にしてもよい。   Further, by providing an input unit in the image processing apparatus according to the present invention, a configuration in which the user can freely set the processing content and the closed region setting method may be adopted.

さらに、撮像部として単眼のカメラを用い、シェイプフロムフォーカス(shape from focus)、シェイプフロムデフォーカス(shape from defocus)、シェイプフロムモーション(shape from motion)、シェイプフロムシェーディング(shape from shading)等の三次元再構成技術を適用することによって画像の各構成点までの距離を算出することもできる。   In addition, using a monocular camera as the imaging unit, tertiary such as shape from focus, shape from defocus, shape from motion, shape from shading, etc. The distance to each constituent point of the image can also be calculated by applying the original reconstruction technique.

この撮像部として、より多眼のステレオカメラ、例えば3眼ステレオカメラや4眼ステレオカメラを用いることもできる。これらの3眼または4眼ステレオカメラを用いると、三次元再構成処理などにおいて、より信頼度が高く、安定した処理結果が得られる(例えば、富田文明, 「高機能3次元視覚システムVVV」, 情報処理学会誌「情報処理」, Vol. 42, No. 4, pp. 370-375 (2001). 等を参照)。特に、複数のカメラが二方向の基線長を持つようにすると、より複雑なシーンでの3次元再構成が可能になることが知られている。また、一つの基線長方向にカメラを複数台配置するマルチベースライン方式のステレオカメラを実現することができ、より高精度のステレオ計測が可能となる。   As this imaging unit, a multi-lens stereo camera, for example, a three-eye stereo camera or a four-eye stereo camera can be used. Using these three-lens or four-eye stereo cameras, more reliable and stable processing results can be obtained in 3D reconstruction processing etc. (for example, Fumiaki Tomita, “High-function 3D visual system VVV”, (See Journal of Information Processing, “Information Processing”, Vol. 42, No. 4, pp. 370-375 (2001).) In particular, it is known that if a plurality of cameras have a base line length in two directions, three-dimensional reconstruction in a more complicated scene becomes possible. In addition, a multi-baseline stereo camera in which a plurality of cameras are arranged in one baseline length direction can be realized, and more accurate stereo measurement can be performed.

ところで、撮像手段として、各種カメラに加えてレーダ等の測距装置を併用することも可能である。これにより、通常のカメラよりも精度の高いレーダ測定値を利用することができ、測距点の解像度を一段と向上させることができる。   By the way, it is also possible to use a distance measuring device such as a radar in addition to various cameras as the imaging means. This makes it possible to use radar measurement values that are more accurate than ordinary cameras, and to further improve the resolution of the ranging points.

なお、画像認識の手法として、上述したテンプレートマッチング以外にも、エッジ抽出による領域分割法や、クラスタ分析に基づく統計的パターン認識法等、通常よく用いられる物体認識手法を適用することができる。   In addition to the template matching described above, a commonly used object recognition method such as a region segmentation method based on edge extraction or a statistical pattern recognition method based on cluster analysis can be applied as an image recognition method.

本発明に係る画像処理装置は、四輪自動車以外の車両、例えば電動車椅子等に搭載することが可能である。また、車両以外にも、人、ロボット等の移動体に搭載することもできる。   The image processing apparatus according to the present invention can be mounted on a vehicle other than a four-wheeled vehicle, such as an electric wheelchair. In addition to the vehicle, it can also be mounted on a moving body such as a person or a robot.

このように、本発明は、ここでは記載していないさまざまな実施の形態等を含みうるものであり、特許請求の範囲により特定される技術的事項を逸脱しない範囲内において種々の設計変更等を施すことが可能である。   Thus, the present invention can include various embodiments and the like not described herein, and various design changes and the like can be made without departing from the technical matters specified by the claims. It is possible to apply.

本発明の一実施の形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の一実施の形態に係る画像処理方法の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the image processing method which concerns on one embodiment of this invention. ステレオカメラを用いた撮像処理を概念的に示す説明図である。It is explanatory drawing which shows notionally the imaging process using a stereo camera. レクティフィケーション処理前の左右画像領域の対応を示す説明図である。It is explanatory drawing which shows a response | compatibility of the left-right image area | region before a rectification process. レクティフィケーション処理後の左右画像領域の対応を示す説明図である。It is explanatory drawing which shows a response | compatibility of the left-right image area | region after a rectification process. 距離画像の出力例を示す図である。It is a figure which shows the example of an output of a distance image. 車両が直進して走行するときの閉領域の設定例を示す図である。It is a figure which shows the example of a setting of a closed area | region when a vehicle drive | works straight ahead. 車両が高速で直進時の閉領域の設定例を示す図である。It is a figure which shows the example of a setting of the closed area | region when a vehicle goes straight at high speed. 車両が左にカーブしながら走行するときの閉領域の設定例を示す図である。It is a figure which shows the example of a setting of a closed area | region when a vehicle drive | works while curving to the left. 車両が斜面を直進して走行するときの閉領域の設定例を示す図である。It is a figure which shows the example of a setting of a closed area | region when a vehicle travels straightly on a slope. 閉領域ごとに行う画像処理の処理内容を示す説明図である。It is explanatory drawing which shows the processing content of the image process performed for every closed area | region. 車両検知に関する画像処理を行った場合の表示例を示す図である。It is a figure which shows the example of a display at the time of performing the image process regarding vehicle detection. 信号検知に関する画像処理を行った場合の表示例を示す図である。It is a figure which shows the example of a display at the time of performing the image process regarding signal detection. 標識検知に関する画像処理を行った場合の表示例を示す図である。It is a figure which shows the example of a display at the time of performing the image process regarding label | marker detection. 路面検知に関する画像処理を行った場合の表示例を示す図である。It is a figure which shows the example of a display at the time of performing the image process regarding road surface detection. 本発明の一実施の形態の変形例に係る画像処理装置の撮像部の構成を示す図である。It is a figure which shows the structure of the imaging part of the image processing apparatus which concerns on the modification of one embodiment of this invention.

符号の説明Explanation of symbols

1 画像処理装置
10、110 撮像部
11a 右カメラ
11b 左カメラ
12a、12b、112 レンズ
13a、13b、113 撮像素子
14a、14b、114 A/D変換部
15a、15b、115 フレームメモリ
20 画像解析部
21 三次元再構成部
22 閉領域設定部
23 画像処理部
30 制御部
40 出力部
50 記憶部
51 画像データ
52 閉領域設定情報
53 処理内容
54 テンプレート
60 移動状況検知部
111 カメラ
116 ステレオアダプタ
117a、117b 受光ミラー
118a、118b 導光ミラー
301 距離画像
401、402、403、404 設定モード
501、502、503、504 表示画像
d1、d2、d3、d4 閉領域
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10,110 Image pick-up part 11a Right camera 11b Left camera 12a, 12b, 112 Lens 13a, 13b, 113 Image pick-up element 14a, 14b, 114 A / D conversion part 15a, 15b, 115 Frame memory 20 Image analysis part 21 3D reconstruction unit 22 Closed region setting unit 23 Image processing unit 30 Control unit 40 Output unit 50 Storage unit 51 Image data 52 Closed region setting information 53 Processing content 54 Template 60 Movement status detection unit 111 Camera 116 Stereo adapter 117a, 117b Light reception Mirror 118a, 118b Light guide mirror 301 Distance image 401, 402, 403, 404 Setting mode 501, 502, 503, 504 Display image d1, d2, d3, d4 Closed region

Claims (9)

移動体に搭載され、所定の視野を撮像して画像を生成する撮像手段と、
前記移動体の移動状況を検知する移動状況検知手段と、
前記移動状況検知手段で検知した前記移動体の移動状況に応じて、前記視野全域を和集合とする複数の閉領域を前記画像に対して設定する閉領域設定手段と、
前記閉領域設定手段で設定した閉領域ごとに所定の画像処理を行う画像処理手段と、
を備えたことを特徴とする画像処理装置。
An imaging unit mounted on a moving body and imaging a predetermined field of view to generate an image;
Movement status detection means for detecting the movement status of the mobile body;
Closed region setting means for setting a plurality of closed regions with the entire field of view as a union according to the movement status of the moving body detected by the movement status detection unit;
Image processing means for performing predetermined image processing for each closed area set by the closed area setting means;
An image processing apparatus comprising:
前記移動体の移動状況は、
前記移動体自身の移動に係る現在状況および前記移動体が移動する周囲の現在状況のうち少なくともいずれかを含むことを特徴とする請求項1記載の画像処理装置。
The movement status of the mobile body is
The image processing apparatus according to claim 1, wherein the image processing apparatus includes at least one of a current situation related to the movement of the moving body and a surrounding current situation where the moving body moves.
前記閉領域設定手段で設定した閉領域ごとに所定の対象物の検知を行う対象物検知手段をさらに備えたことを特徴とする請求項1または2記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an object detection unit configured to detect a predetermined object for each closed region set by the closed region setting unit. 前記画像処理手段で行う画像処理に適用する画像処理手法を前記閉領域設定手段で設定した閉領域ごとに変更する処理変更手段をさらに備えたことを特徴とする請求項1〜3のいずれか一項記載の画像処理装置。   4. The apparatus according to claim 1, further comprising a process changing unit that changes an image processing method applied to the image processing performed by the image processing unit for each closed region set by the closed region setting unit. The image processing apparatus according to item. 前記撮像手段は、
一対の撮像光学系と、
前記一対の撮像光学系の各々が出力する光信号を電気信号に変換する一対の撮像素子と、
を有することを特徴とする請求項1〜4のいずれか一項記載の画像処理装置。
The imaging means includes
A pair of imaging optical systems;
A pair of imaging elements for converting an optical signal output from each of the pair of imaging optical systems into an electrical signal;
The image processing apparatus according to claim 1, further comprising:
前記撮像手段は、
撮像光学系および当該撮像光学系が出力する光信号を電気信号に変換する撮像素子を備える撮像装置と、
前記撮像光学系の前方に設けられ、光を複数の部位で受光し、当該複数の部位が各々受光した光を前記撮像光学系に導くステレオアダプタと、
を有することを特徴とする請求項1〜4のいずれか一項記載の画像処理装置。
The imaging means includes
An imaging apparatus including an imaging optical system and an imaging element that converts an optical signal output from the imaging optical system into an electrical signal;
A stereo adapter that is provided in front of the imaging optical system, receives light at a plurality of sites, and guides the light received by the plurality of sites to the imaging optical system;
The image processing apparatus according to claim 1, further comprising:
前記移動体は車両であることを特徴とする請求項1〜6のいずれか一項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the moving body is a vehicle. 移動体に搭載され、所定の視野を撮像する撮像手段によって生成される画像に対して画像処理を施す画像処理方法であって、
前記移動体の移動状況を検知する移動状況検知ステップと、
前記移動状況検知ステップで検知した前記移動体の移動状況に応じて、前記視野全域を和集合とする複数の閉領域を設定する閉領域設定ステップと、
前記閉領域設定ステップで設定した閉領域ごとに所定の画像処理を行う画像処理ステップと、
を有することを特徴とする画像処理方法。
An image processing method for performing image processing on an image that is mounted on a moving body and is generated by an imaging unit that images a predetermined field of view,
A movement status detection step for detecting the movement status of the mobile body;
A closed region setting step for setting a plurality of closed regions with the entire field of view as a union according to the moving state of the moving body detected in the moving state detecting step;
An image processing step for performing predetermined image processing for each closed region set in the closed region setting step;
An image processing method comprising:
移動体に搭載され、所定の視野を撮像する撮像手段によって生成される画像に対して画像処理を施すため、コンピュータに、
前記移動体の移動状況を検知する移動状況検知ステップと、
前記移動状況検知ステップで検知した前記移動体の移動状況に応じて、前記視野全域を和集合とする複数の閉領域を設定する閉領域設定ステップと、
前記閉領域設定ステップで設定した閉領域ごとに所定の画像処理を行う画像処理ステップと、
を実行させることを特徴とする画像処理用プログラム。
In order to perform image processing on an image that is mounted on a moving body and generated by an imaging means that images a predetermined field of view,
A movement status detection step for detecting the movement status of the mobile body;
A closed region setting step for setting a plurality of closed regions with the entire field of view as a union according to the moving state of the moving body detected in the moving state detecting step;
An image processing step for performing predetermined image processing for each closed region set in the closed region setting step;
The program for image processing characterized by performing these.
JP2005137849A 2005-05-10 2005-05-10 Image processing apparatus, imaging processing method and program for processing image Withdrawn JP2006317193A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005137849A JP2006317193A (en) 2005-05-10 2005-05-10 Image processing apparatus, imaging processing method and program for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005137849A JP2006317193A (en) 2005-05-10 2005-05-10 Image processing apparatus, imaging processing method and program for processing image

Publications (1)

Publication Number Publication Date
JP2006317193A true JP2006317193A (en) 2006-11-24

Family

ID=37538011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005137849A Withdrawn JP2006317193A (en) 2005-05-10 2005-05-10 Image processing apparatus, imaging processing method and program for processing image

Country Status (1)

Country Link
JP (1) JP2006317193A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158672A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Lane marking recognition device
WO2009100058A3 (en) * 2008-02-08 2009-10-22 Tk Holdings Inc. Object detection and recognition system
KR101467895B1 (en) * 2013-02-28 2014-12-03 삼성중공업(주) A localization method of marking unit and an appartus for marking using the same
EP3211368A4 (en) * 2014-10-24 2018-06-06 Kyocera Corporation Stereo camera apparatus and vehicle provided with stereo camera apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158672A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Lane marking recognition device
JP4735530B2 (en) * 2006-12-21 2011-07-27 トヨタ自動車株式会社 Road marking line recognition device
WO2009100058A3 (en) * 2008-02-08 2009-10-22 Tk Holdings Inc. Object detection and recognition system
JP2011517351A (en) * 2008-02-08 2011-06-02 ティーケー ホールディングス インク. Object detection and recognition system
US8131018B2 (en) 2008-02-08 2012-03-06 Tk Holdings Inc. Object detection and recognition system
KR101467895B1 (en) * 2013-02-28 2014-12-03 삼성중공업(주) A localization method of marking unit and an appartus for marking using the same
EP3211368A4 (en) * 2014-10-24 2018-06-06 Kyocera Corporation Stereo camera apparatus and vehicle provided with stereo camera apparatus

Similar Documents

Publication Publication Date Title
JP5867807B2 (en) Vehicle identification device
JP6795027B2 (en) Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs
JP6270102B2 (en) Moving surface boundary line recognition apparatus, moving body device control system using the moving surface boundary line recognition method, and moving surface boundary line recognition program
US20080089557A1 (en) Image processing apparatus, image processing method, and computer program product
JP6376429B2 (en) Target point arrival detection device, target point arrival detection program, mobile device control system, and mobile
JP2006318060A (en) Apparatus, method, and program for image processing
JP2006318059A (en) Apparatus, method, and program for image processing
JP5561064B2 (en) Vehicle object recognition device
JP2008033750A (en) Object inclination detector
JP2006309313A (en) Road recognition device
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2006318062A (en) Image processor, image processing method and image processing program
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP4887537B2 (en) Vehicle periphery monitoring device
JP2006317193A (en) Image processing apparatus, imaging processing method and program for processing image
JP2018073275A (en) Image recognition device
JP2004257837A (en) Stereo adapter imaging system
JP2006318061A (en) Apparatus, method, and program for image processing
JP5434277B2 (en) Driving support device and driving support method
JP2010092353A (en) Image processing apparatus and image processing method
JP2017129543A (en) Stereo camera device and vehicle
JP2014016981A (en) Movement surface recognition device, movement surface recognition method, and movement surface recognition program
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method
JP2007310591A (en) Image processor and parking space determination method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805