JP2013206356A - Image processing device and image processing camera device - Google Patents

Image processing device and image processing camera device Download PDF

Info

Publication number
JP2013206356A
JP2013206356A JP2012077382A JP2012077382A JP2013206356A JP 2013206356 A JP2013206356 A JP 2013206356A JP 2012077382 A JP2012077382 A JP 2012077382A JP 2012077382 A JP2012077382 A JP 2012077382A JP 2013206356 A JP2013206356 A JP 2013206356A
Authority
JP
Japan
Prior art keywords
image
resolution
processing unit
image processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012077382A
Other languages
Japanese (ja)
Inventor
Atsushi Ichige
敦 市毛
Yoshiyuki Sasada
義幸 笹田
Takeshi Maeda
武 前田
Satoshi Sato
聡 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Advanced Digital Inc
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Hitachi Advanced Digital Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd, Hitachi Advanced Digital Inc filed Critical Hitachi Automotive Systems Ltd
Priority to JP2012077382A priority Critical patent/JP2013206356A/en
Publication of JP2013206356A publication Critical patent/JP2013206356A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to simultaneously operate an application using a low-resolution image and an application using a high-resolution image by using one frame of images.SOLUTION: An image processing device that performs processing on a picked up image 121 picked up by a camera unit 100 includes: a super-resolution processing unit 102 as a resolution processing unit; and an image recognition engine 111 as an application image processing unit. The super-resolution processing unit 102 converts the picked up image 121 into a restoration image 122 as a high-resolution image, and the application image processing unit 111 includes: a light spot detection processing unit 113 as an application processing unit using the restoration image 122; and a lane and vehicle detection processing unit 112 as the application processing unit using the restoration image 122. In the image recognition engine 111, a plurality of applications are simultaneously executed.

Description

本発明は、車載カメラ等で撮像した画像を処理する装置に係り、例えば、車線認識等の高解像度の画像情報を用いたアプリケーションと低解像度の画像情報を用いたアプリケーションとを同時に行うことができる画像処理装置と、これを用いたカメラ装置に関する。   The present invention relates to an apparatus that processes an image captured by an in-vehicle camera or the like, and can simultaneously perform an application using high-resolution image information such as lane recognition and an application using low-resolution image information, for example. The present invention relates to an image processing apparatus and a camera apparatus using the image processing apparatus.

本技術分野の背景技術として、画質劣化機能を備えたカメラ装置は、カメラ内に復元可能な画質劣化手段を持たせ、普段の監視業務での状態判断に必要最低限な画質まで劣化させた映像を配信できるようにし、鮮明な画像が必要な場合は、劣化させた画質を復元して利用するカメラ装置がある。このカメラ装置では、復元可能な画像劣化手段には劣化情報の分布を用いた画質向上のための劣化情報復元技術を使用し、画質を劣化させる処理時に画質復元時に必要な特別なファイルを生成したり、暗号鍵などを管理する必要のない構成としている。また、画像劣化手段には利用目的に合わせた画質劣化レベルにするための画質劣化レベル切替え手段を持たせる構成としている(例えば、特許文献1参照)。   As a background art in this technical field, a camera device with an image quality degradation function has a video quality degradation means that can be restored in the camera, and has been degraded to the minimum image quality necessary for state judgment in normal monitoring work. When a clear image is necessary, there is a camera device that restores and uses the deteriorated image quality. In this camera device, degradation information restoration technology for improving image quality using the distribution of degradation information is used as the image degradation means that can be restored, and a special file necessary for restoration of the image quality is generated during the process of degrading the image quality. Or encryption key management is not required. Further, the image deterioration means is configured to have an image quality deterioration level switching means for setting the image quality deterioration level according to the purpose of use (see, for example, Patent Document 1).

特開2010−103867号公報JP 2010-103867 A

前記構造のカメラ装置には、復元可能な画質劣化画像に対して、劣化情報復元技術を用いて、鮮明な画像に復元する仕組みが記載されている。しかし、特許文献1の画像取り込み手段では、劣化画像と鮮明な画像を同時に出力することができない。たとえば、通常は、劣化画像を出力するように固定して使用し、鮮明な画像が必要なときに別途、復元する必要がある。たとえば、劣化画像を必要とする画像処理(ヘッドライト制御アプリケーション)と、鮮明な画像を必要とする画像処理(車間自動制御アプリケーション)を同時に動作させることはできない。   The camera device having the above-described structure describes a mechanism that restores a recoverable image quality degraded image to a clear image using degradation information restoration technology. However, the image capturing means of Patent Document 1 cannot simultaneously output a deteriorated image and a clear image. For example, normally, it is necessary to fix and use a deteriorated image and to restore it separately when a clear image is required. For example, image processing that requires a degraded image (headlight control application) and image processing that requires a clear image (automatic inter-vehicle control application) cannot be operated simultaneously.

本発明は、このような問題に鑑みてなされたものであって、その目的とするところは、1フレームの画像を用いて、ヘッドライト制御アプリケーション等の低解像度の画像を用いたアプリケーションと、車間自動制御アプリケーション等の高解像度の画像を用いたアプリケーションを同時に動作させることができる画像処理装置を提供することにある。また、この画像処理装置を用いた画像処理カメラ装置を提供することにある。なお、本明細書では、以降の説明において、劣化画像を鮮明な画像に復元する当該技術を、超解像処理と呼ぶ。   The present invention has been made in view of such problems, and an object of the present invention is to use an application using a low-resolution image such as a headlight control application using an image of one frame, and an inter-vehicle distance. An object of the present invention is to provide an image processing apparatus capable of simultaneously operating an application using a high resolution image such as an automatic control application. Another object of the present invention is to provide an image processing camera device using the image processing device. In the present specification, in the following description, the technique for restoring a deteriorated image to a clear image is referred to as super-resolution processing.

前記目的を達成すべく、本発明に係る画像処理装置は、カメラ部で撮像した撮像画像を処理する画像処理装置であって、該画像処理装置は、解像度処理部とアプリケーション画像処理部と、を備え、前記解像度処理部は、前記撮像画像を高解像度画像に変換し、前記アプリケーション画像処理部は、前記撮像画像を用いたアプリケーション処理部と、前記高解像度画像を用いたアプリケーション処理部と、を備えることを特徴としている。前記撮像画像は、低解像度画像であり、前記画像処理部は該低解像度画像を用いて光点検知処理する。   In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that processes a captured image captured by a camera unit, and the image processing apparatus includes a resolution processing unit and an application image processing unit. The resolution processing unit converts the captured image into a high resolution image, and the application image processing unit includes an application processing unit using the captured image and an application processing unit using the high resolution image. It is characterized by providing. The captured image is a low-resolution image, and the image processing unit performs light spot detection processing using the low-resolution image.

前記のごとく構成された本発明の画像処理装置は、カメラ部で撮像された低解像度の撮像画像を用いてアプリケーション処理を行うと共に、低解像度の撮像画像を高解像度画像に変換し、この高解像度画像を用いて他のアプリケーション処理を同時に行うことができる。例えば、撮像画像を低い解像度のまま用いて光点検知処理を行うと共に、高解像度画像を用いて車線検知や、先行車検知等の処理を同時に行うことができる。   The image processing apparatus of the present invention configured as described above performs application processing using a low-resolution captured image captured by the camera unit, converts the low-resolution captured image into a high-resolution image, and converts the high-resolution image. Other application processing can be performed simultaneously using the image. For example, it is possible to perform the light spot detection process using the captured image as it is at a low resolution, and simultaneously perform the lane detection process and the preceding vehicle detection process using the high resolution image.

本発明によれば、車載カメラ等で撮像した1フレームの画像を用いて、低解像度画像情報を用いたヘッドライト制御アプリケーションと、高解像度画像情報を用いた車間自動制御アプリケーションを同時に動作させることができる画像処理装置と、画像処理カメラ装置を提供することができる。   According to the present invention, it is possible to simultaneously operate a headlight control application using low-resolution image information and an inter-vehicle automatic control application using high-resolution image information using one frame image captured by an in-vehicle camera or the like. An image processing device and an image processing camera device can be provided.

本発明に係る画像処理装置を用いた画像処理カメラ装置の実施例1の構成を示すブロック図。1 is a block diagram showing the configuration of Embodiment 1 of an image processing camera apparatus using an image processing apparatus according to the present invention. 図1の画像処理カメラ装置の画角と角度分解能を説明する図。The figure explaining the angle of view and angle resolution of the image processing camera apparatus of FIG. 先行車テールライト等の光点検知に必要な角度分解能を説明する図。The figure explaining angle resolution required for light spot detection, such as a preceding vehicle taillight. 角度分解能と必要分解能を説明する図であり、(a)は光源と撮像素子の関係を示す模式図、(b)は光源をぼかして写り込ませた模式図、(c)は撮像素子のカラーパターンの模式図。It is a figure explaining angle resolution and required resolution, (a) is a schematic diagram which shows the relationship between a light source and an image sensor, (b) is a schematic diagram which blurred and reflected the light source, (c) is a color of an image sensor. The schematic diagram of a pattern. ピントとフランジバックを説明する図であり、(a)はMTFの特性図、(b)はフランジバックの説明図、(c)はMTFを低める他の例の説明図。It is a figure explaining a focus and a flange back, (a) is a characteristic figure of MTF, (b) is an explanatory view of a flange back, (c) is an explanatory view of other examples which lower MTF. ピント調整範囲と超解像によるピント回復を説明する図。The figure explaining the focus recovery | restoration by focus adjustment range and super-resolution. 本発明に係る画像処理カメラ装置の実施例2を示す車載画像処理ステレオカメラ装置のブロック図。The block diagram of the vehicle-mounted image processing stereo camera apparatus which shows Example 2 of the image processing camera apparatus which concerns on this invention.

[実施例1]
以下、本発明に係る画像処理装置を用いた画像処理カメラ装置の一実施形態を図面に基づき詳細に説明する。本実施例1では、1フレームの画像を用いて、低解像度画像を用いたヘッドライト制御アプリケーションと、高解像度画像を用いた車間自動制御アプリケーションを同時に動作させることができる車載画像処理カメラ装置の例を説明する。
[Example 1]
Hereinafter, an embodiment of an image processing camera apparatus using an image processing apparatus according to the present invention will be described in detail with reference to the drawings. In the first embodiment, an example of an in-vehicle image processing camera device capable of simultaneously operating a headlight control application using a low resolution image and an automatic inter-vehicle control application using a high resolution image using an image of one frame. Will be explained.

図1は、本実施例の車載カメラを用いた画像処理カメラ装置10の構成を示すブロック図である。図1において、車載画像処理カメラ装置10は、カメラ部100、画像処理部101、超解像処理部102、たとえば画像処理CPUに搭載される画像認識エンジン111を備え、画像認識エンジン111のなかに車間自動制御アプリケーションとして車線・車両検知処理部112、ヘッドライト制御アプリケーションとして光点検知処理部113を有する。   FIG. 1 is a block diagram illustrating a configuration of an image processing camera apparatus 10 using the in-vehicle camera of the present embodiment. In FIG. 1, an in-vehicle image processing camera device 10 includes a camera unit 100, an image processing unit 101, a super-resolution processing unit 102, for example, an image recognition engine 111 mounted on an image processing CPU. A lane / vehicle detection processing unit 112 is provided as a vehicle-to-vehicle automatic control application, and a light spot detection processing unit 113 is provided as a headlight control application.

カメラ部100は、例えば車両の前方の情報を後述するレンズ系と撮像素子で撮像して画像情報を出力するものであり、本実施例1ではピントの合った高解像度の画像情報でない、ピントのずれた、ぼやけたアンフォーカスの画像情報(低解像度画像)を出力し、画像処理部101に出力する。画像処理部101は、アンフォーカスの画像情報を2つに分離し、一方の画像情報をそのまま後述のアプリケーション処理部としての画像認識エンジン111に出力する。また、画像処理部101は、もう一方の画像情報を高解像度の画像情報に変換する超解像処理部102を備えている。超解像処理部102の詳細については後述する。   The camera unit 100, for example, captures information in front of the vehicle with a lens system and an image sensor, which will be described later, and outputs image information. In the first embodiment, the camera unit 100 is not focused high-resolution image information. The shifted and blurred unfocused image information (low-resolution image) is output and output to the image processing unit 101. The image processing unit 101 separates the unfocused image information into two, and outputs one image information as it is to an image recognition engine 111 as an application processing unit described later. The image processing unit 101 includes a super-resolution processing unit 102 that converts the other image information into high-resolution image information. Details of the super-resolution processing unit 102 will be described later.

超解像処理部102から出力された高解像度の画像情報は、画像エンジン111の車間自動制御アプリケーションとしての車線・車両検知処理部112に供給される。また、画像処理部101で分離された低解像度の画像情報(撮像画像である低解像画像)は、画像認識エンジン111のヘッドライト制御アプリケーションとしての光点検知処理部113に供給される。光点検知処理部113は、例えば先行車両のテールライト検知や対向車両のヘッドライト検知等の画像処理を実行する。そして、画像認識エンジン111で各種のアプリケーションが実行される。なお、低解像度画像とは、撮像画像そのものであり、高解像度画像とは、撮像画像が超解像処理された回復画像をいう。   The high-resolution image information output from the super-resolution processing unit 102 is supplied to a lane / vehicle detection processing unit 112 as an inter-vehicle automatic control application of the image engine 111. The low-resolution image information (low-resolution image that is a captured image) separated by the image processing unit 101 is supplied to a light spot detection processing unit 113 as a headlight control application of the image recognition engine 111. The light spot detection processing unit 113 performs image processing such as tail light detection of a preceding vehicle and headlight detection of an oncoming vehicle, for example. Various applications are executed by the image recognition engine 111. The low-resolution image is a captured image itself, and the high-resolution image is a recovered image obtained by performing super-resolution processing on the captured image.

ここで、前記した超解像処理部102について説明する。超解像処理部102はカメラ部100で撮像したアンフォーカスのぼやけた画像情報121が超解像処理されて、ぼけが回復された回復画像122を出力する。この超解像処理とは公知の種々の手法が用いられる。1つの手法としては、撮像素子やレンズなどの撮像系のぼけ特性をモデル化・数値化し、その数値化した特性を用いて、ぼけがなければ本来得られるであろう元の画像に復元する技術がある。   Here, the super-resolution processing unit 102 will be described. The super-resolution processing unit 102 performs super-resolution processing on the unfocused blurred image information 121 captured by the camera unit 100 and outputs a recovered image 122 in which blur is recovered. Various known methods are used for this super-resolution processing. One technique is to model and digitize the blur characteristics of an imaging system such as an image sensor or lens, and use the digitized characteristics to restore the original image that would otherwise be obtained without blur. There is.

つぎに、図2を参照して、カメラ部100における撮像素子200と画角201の関係で決定される角度分解能について説明する。図2において、たとえば、レンズ202に入射される撮像する画角201が60度のときに、言い換えれば、画像処理対象の領域が60度のときに、撮像素子の画素数が1200画素であった場合には、角度分解能は、60度÷1200画素=0.05度/画素となる。0.1度分の情報は2画素あれば得られることになり、逆に、0.05度よりも狭い、たとえば、はるか遠方の情報は1画素で得られる分解能よりも小さいために画像処理に必要な撮像はできない。すなわち、当該例においては、撮像素子200の1画素あたりが得られる情報量は0.05度分と言える。   Next, with reference to FIG. 2, the angular resolution determined by the relationship between the image sensor 200 and the angle of view 201 in the camera unit 100 will be described. In FIG. 2, for example, when the angle of view 201 that is incident on the lens 202 is 60 degrees, in other words, when the image processing target area is 60 degrees, the number of pixels of the image sensor is 1200 pixels. In this case, the angular resolution is 60 degrees / 1200 pixels = 0.05 degrees / pixel. Information for 0.1 degree can be obtained with 2 pixels, and conversely, it is narrower than 0.05 degree, for example, far-distance information is smaller than the resolution that can be obtained with 1 pixel, so it is useful for image processing. Necessary imaging cannot be performed. That is, in this example, it can be said that the amount of information obtained per pixel of the image sensor 200 is 0.05 degrees.

また、図3を参照して、ヘッドライト制御アプリケーションでおもに扱う先行車のテールライトを検知するために必要な角度分解能について説明する。図3において、車載画像処理装置に代表されるカメラ装置300と、当該カメラ装置300に備えられた撮像素子200及びレンズ202において、先行車301の先行車テールライト302を撮像する。たとえば、500m前方の先行車のテールライトが直径(φ)0.1mであったときに、当該先行車のテールライトを検知する場合に必要な角度分解能は、ArcTan(0.1m/500m)≒0.011度となる。   In addition, with reference to FIG. 3, the angular resolution necessary for detecting the taillight of the preceding vehicle mainly handled in the headlight control application will be described. In FIG. 3, the preceding vehicle taillight 302 of the preceding vehicle 301 is imaged by the camera device 300 typified by the in-vehicle image processing device, and the imaging device 200 and the lens 202 provided in the camera device 300. For example, when the taillight of a preceding vehicle 500 m ahead has a diameter (φ) of 0.1 m, the angular resolution required to detect the taillight of the preceding vehicle is ArcTan (0.1 m / 500 m) ≈ 0.011 degree.

さらに、図4を参照して、図2、図3で説明した角度分解能と、テールライトを検知するために必要な角度分解能について、具体的に説明する。図4(a)において、たとえば、上述した500m前方の先行車のテールライトを光源400とし、同じく上述した1200画素の撮像素子と、60度の画角201を有する撮像系で撮像した場合、テールライト検知に必要な分解能401は0.011度である。また角度分解能は0.05度である。このとき、0.05度分の情報が1画素サイズ404分内に撮像されるので、0.011度分しか情報がないテールライトの写り込み領域403は1画素サイズ404よりも小さくなる。   Furthermore, with reference to FIG. 4, the angular resolution described with reference to FIGS. 2 and 3 and the angular resolution necessary for detecting the taillight will be specifically described. In FIG. 4 (a), for example, when the taillight of the preceding vehicle 500m ahead is used as the light source 400, and the image is picked up by the imaging system having the above-described 1200-pixel imaging device and the angle of view 201 of 60 degrees, The resolution 401 necessary for light detection is 0.011 degree. The angular resolution is 0.05 degrees. At this time, since the information for 0.05 degree is imaged within one pixel size 404, the taillight reflection area 403 having the information for only 0.011 degree is smaller than the one pixel size 404.

一方で、テールライト検知では、その特徴である赤色を検知することが多い。そのため、撮像素子200にはカラー撮像することがよく用いられる。一般的なベイヤパターン406では、図4(c)に示すように、2×2画素の4画素に対して、赤色フィルタ(R)、緑色フィルタ(G1、G2)、青色フィルタ(B)を備える。このとき、上述したように、1画素よりも小さい領域にテールライトの写り込み領域403があるとすると、カラーデモザイキング処理を行うと、いわゆる偽色が発生して、赤色を正しく再生できないことになる。そこで赤色を得るためには、図4(b)に示すように、少なくとも、2×2画素サイズ405の領域に対して、テールライトの写り込み領域407をぼかして撮像する必要がある。ここでのカラーデモザイキング処理には、様々な手法があるが、赤色を正しく再生できる領域に、ぼやけた撮像をすればよい。   On the other hand, in taillight detection, the characteristic red color is often detected. Therefore, color imaging is often used for the image sensor 200. As shown in FIG. 4C, the general Bayer pattern 406 includes a red filter (R), a green filter (G1, G2), and a blue filter (B) for 4 pixels of 2 × 2 pixels. . At this time, as described above, if the taillight reflection area 403 is present in an area smaller than one pixel, a so-called false color is generated when the color demosaicing process is performed, and red cannot be reproduced correctly. Become. Therefore, in order to obtain red, as shown in FIG. 4B, it is necessary to blur and capture the taillight reflection region 407 with respect to at least the region of 2 × 2 pixel size 405. There are various methods for the color demosaicing processing here, but it is only necessary to capture a blurred image in an area where red can be reproduced correctly.

また、図5を参照して、たとえば、レンズを含む光学系において撮像するぼやけた画像について、説明する。図5(a)、(b)において、一般的には、MTF(Modulation Transfer Function)特性500は、レンズ510と撮像素子200の距離、すなわち、フランジバックに対して、焦点距離が合う一定の距離のときに、MTF最大(ジャストピント)となる。ジャストピントのフランジバックに対して、レンズ510と撮像素子200の距離が近くなっても、逆に、レンズ510と撮像素子200の距離が遠くなっても、MTF(ピント)は小さくなる。すなわち、ぼやけた画像が得られる。   In addition, for example, a blurred image captured in an optical system including a lens will be described with reference to FIG. 5A and 5B, generally, an MTF (Modulation Transfer Function) characteristic 500 is a constant distance at which the focal length is matched to the distance between the lens 510 and the image sensor 200, that is, the flange back. In this case, the MTF maximum (just focus) is obtained. Even if the distance between the lens 510 and the image sensor 200 is short with respect to the just-focus flange back, conversely, the MTF (focus) is small even if the distance between the lens 510 and the image sensor 200 is long. That is, a blurred image is obtained.

上述したように、先行車テールライトに代表される光点処理(ヘッドライト制御アプリケーション)に必要なピント501はMTF(ピント)が高すぎると検知できないため、ある程度、MTF(ピント)が小さい必要がある。一方で、走行前方の、より遠くの情報を必要とする、たとえば車線検知や車両検知(車間自動制御アプリケーション)に必要なピントMTF(502)は高ければ高いほうがよい。   As described above, the focus 501 required for the light spot processing (headlight control application) represented by the preceding vehicle taillight cannot be detected if the MTF (focus) is too high, and therefore the MTF (focus) needs to be small to some extent. is there. On the other hand, the higher the focus MTF (502) that is needed for lane detection or vehicle detection (automatic inter-vehicle control application), for example, that requires farther information ahead of travel, is better.

このように、カメラ部100で撮像した1フレームの画像を用いて、ヘッドライト制御アプリケーションと車間自動制御アプリケーションを同時に動作させることは、相反するMTF(ピント)、すなわち低解像度の画像と高解像度の画像とを必要とすることになり、本実施例1ではカメラ部100で撮像した低解像度の撮像画像から高解像度の回復画像を得ることで、複数のアプリケーションを同時に実行することができる。なお、フランジバックを可変とするために、撮像素子200を移動させる例を示したが、撮像素子を固定してレンズ510を移動するように構成してもよい。   Thus, simultaneously operating the headlight control application and the inter-vehicle automatic control application using one frame image captured by the camera unit 100 is a contradictory MTF (focus), that is, a low-resolution image and a high-resolution image. In the first embodiment, a plurality of applications can be executed simultaneously by obtaining a high-resolution recovery image from a low-resolution captured image captured by the camera unit 100. In addition, although the example which moves the image pick-up element 200 was shown in order to make a flange back variable, you may comprise so that an image pick-up element may be fixed and the lens 510 may be moved.

また、低解像度の撮像画像を得るために、フランジバックを可変にする方法の代替として、図5(c)に示すように、フランジバックは固定して、位相板511などを挿入することにより、物理的に焦点位置を変化させることでもMTF(ピント)を操作できる。   Further, as an alternative to the method of making the flange back variable in order to obtain a low-resolution captured image, as shown in FIG. 5C, by fixing the flange back and inserting a phase plate 511 or the like, The MTF (focus) can also be manipulated by physically changing the focal position.

さらに、図6を参照して、超解像処理によって、1フレームの画像を用いて、ヘッドライト制御アプリケーションと車間自動制御アプリケーションを同時に動作させることを説明する。図6では、フランジバックを可変させることで、低解像度の撮像画像から高解像度の回復画像を得ることを説明する。   Furthermore, with reference to FIG. 6, it will be described that the headlight control application and the vehicle-to-vehicle automatic control application are simultaneously operated using one frame image by super-resolution processing. FIG. 6 illustrates that a high-resolution recovery image is obtained from a low-resolution captured image by changing the flange back.

図6において、超解像処理によるピント回復可能領域601よりもMTF(ピント)を高く、かつ、光点検知処理に必要なピント501よりもMTF(ピント)が小さくなる領域が、フランジバック調整範囲602となる。レンズ510と撮像素子200のフランジバックを当該調整範囲602に合わせておいて、配光アプリケーションに適するMTF(ピント)が小さい画像はそのまま、ぼやけた画像として用いて画像処理を行い、一方で車間自動制御アプリケーションに適する画像は、超解像処理603によってMTF(ピント)を回復させて、MTF(ピント)を高くしてから画像処理を行うことができる。   In FIG. 6, a region where the MTF (focus) is higher than the focus recoverable region 601 by the super-resolution processing and the MTF (focus) is smaller than the focus 501 necessary for the light spot detection processing is the flange back adjustment range. 602. By adjusting the flange back of the lens 510 and the image sensor 200 to the adjustment range 602, an image with a small MTF (focus) suitable for a light distribution application is used as it is as a blurred image, and image processing is performed on the other hand. An image suitable for a control application can be subjected to image processing after the MTF (focus) is recovered by super-resolution processing 603 and the MTF (focus) is increased.

前記の如く構成された本実施形態の画像処理カメラ装置10の動作について以下に説明する。カメラ部100で撮像したアンフォーカスのぼやけた画像121を作り、それを画像処理部101に入力する。画像処理部101で、ぼやけた画像121は2つに分離され、一方の画像情報はぼやけたままの状態で画像認識エンジン111の光点検知処理部113に入力される。また、もう一方のぼやけた画像情報121は、画像処理部101のなかの超解像処理部102で高解像度の画像情報に変換され、ぼやけた画像121に超解像処理を行い、ぼけが回復された回復画像122を出力する。   The operation of the image processing camera apparatus 10 of the present embodiment configured as described above will be described below. An unfocused blurred image 121 captured by the camera unit 100 is created and input to the image processing unit 101. In the image processing unit 101, the blurred image 121 is separated into two, and one piece of image information is input to the light spot detection processing unit 113 of the image recognition engine 111 while being blurred. Further, the other blurred image information 121 is converted into high-resolution image information by the super-resolution processing unit 102 in the image processing unit 101, and the blurred image 121 is subjected to super-resolution processing to recover blur. The restored image 122 is output.

画像認識エンジン111では、ぼやけた画像121を用いて光点検知処理部113で光点検知処理を行い、ヘッドライト制御アプリケーションを動作させる。それと同時に、高解像度の回復画像122を用いて車線・車両検知処理部112では車線検知処理と車両検知処理を行い、車間自動制御アプリケーションを動作させる。このように、画像認識エンジン111では、ヘッドライト制御アプリケーションと車間自動制御アプリケーションを同時に動作させることができる。   In the image recognition engine 111, the light spot detection processing unit 113 performs light spot detection processing using the blurred image 121, and operates the headlight control application. At the same time, the lane / vehicle detection processing unit 112 uses the high-resolution recovery image 122 to perform lane detection processing and vehicle detection processing, and activates the inter-vehicle automatic control application. As described above, the image recognition engine 111 can simultaneously operate the headlight control application and the inter-vehicle automatic control application.

[実施例2]
本実施例2では、画像処理装置の車載画像処理ステレオカメラへの適用例を図7に基づいて説明する。すなわち、実施例2の画像処理カメラ装置20は、右カメラ部と左カメラ部とを備えるステレオカメラを用いている。図7は、本実施例2の車載画像処理ステレオカメラ装置のブロック図を示している。なお、この実施例では、前記した実施例1と実質的に同等の構成については同じ符号を付して詳細な説明は省略する。
[Example 2]
In the second embodiment, an application example of the image processing apparatus to the in-vehicle image processing stereo camera will be described with reference to FIG. In other words, the image processing camera device 20 according to the second embodiment uses a stereo camera including a right camera unit and a left camera unit. FIG. 7 is a block diagram of the in-vehicle image processing stereo camera device according to the second embodiment. In this embodiment, components substantially equivalent to those of the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

図7において、実施例2の画像処理カメラ装置20は、右カメラ部700、左カメラ部701の複数のカメラを備えており、ステレオカメラ装置を構成している。また、複数のカメラから入力した画像に対して画像処理を行う画像処理部101は、右カメラ部700から出力された画像情報を3つに分離し、1つの画像情報をそのままで後段のアプリケーション処理部へ供給する。画像処理部101は、もう1つの画像情報を高解像度の画像情報に処理する超解像処理部102と、他の1つの画像情報を処理する光点検知処理部703を備えている。   In FIG. 7, the image processing camera device 20 according to the second embodiment includes a plurality of cameras of a right camera unit 700 and a left camera unit 701, and configures a stereo camera device. Further, the image processing unit 101 that performs image processing on images input from a plurality of cameras separates the image information output from the right camera unit 700 into three, and performs subsequent application processing with one image information as it is. Supply to the department. The image processing unit 101 includes a super-resolution processing unit 102 that processes another piece of image information into high-resolution image information, and a light spot detection processing unit 703 that processes another piece of image information.

画像処理部101は、さらにステレオ画像処理を行う視差計算部704を備えている。視差計算部704は、右カメラ部700と左カメラ部701の撮像画像を高解像度化した画像情報を基に、ステレオ画像処理のための視差計算を行うために視差画像710を出力する。   The image processing unit 101 further includes a parallax calculation unit 704 that performs stereo image processing. The parallax calculation unit 704 outputs a parallax image 710 for performing parallax calculation for stereo image processing based on image information obtained by increasing the resolution of the captured images of the right camera unit 700 and the left camera unit 701.

光点検知処理部703は、ヘッドライト制御に代表される画像処理のための光点画像711を出力する。なお、光点検知処理部703は必ずしも必要でない。図1で説明したように、画像認識エンジン111に光点検知処理部を搭載することでヘッドライト制御アプリケーションを動作させてもよい。   The light spot detection processing unit 703 outputs a light spot image 711 for image processing represented by headlight control. The light spot detection processing unit 703 is not always necessary. As described with reference to FIG. 1, the headlight control application may be operated by mounting a light spot detection processing unit on the image recognition engine 111.

アプリケーション処理部としての画像認識エンジン111は、車間自動制御アプリケーション721、ヘッドライト制御アプリケーション722を備えている。車間自動制御アプリケーション721は、前記実施例1と同様に、車線・車両検知処理等を実行し、ヘッドライト制御アプリケーション722は、前記実施例1と同様に、先行車のテールライト検知、あるいは、対向車のヘッドライト検知等の光点検知処理を実行する。あるいは、光点検知処理部703から得られる光点画像711を用いた画像処理を実行する。なお、画像認識エンジン111は、他の画像処理を実行するものでもよい。   The image recognition engine 111 as an application processing unit includes an inter-vehicle automatic control application 721 and a headlight control application 722. The inter-vehicle automatic control application 721 executes lane / vehicle detection processing, etc., as in the first embodiment, and the headlight control application 722, as in the first embodiment, detects taillights of the preceding vehicle or is opposed to the vehicle. Executes light spot detection processing such as car headlight detection. Alternatively, image processing using the light spot image 711 obtained from the light spot detection processing unit 703 is executed. Note that the image recognition engine 111 may execute other image processing.

このように構成された実施例2の画像処理カメラ装置20では、右カメラ部700で撮像された低解像度のぼやけた撮像画像121は3つの画像情報に分離され、1つの画像情報は画像処理部101の超解像度処理部102で高解像度の画像情報に変換され、ぼけが回復された回復画像122として出力され、もう1つの画像情報は低解像度のまま後段のアプリケーション処理部としての画像認識エンジン111に出力される。そして、さらに1つの画像情報は、光点検知処理として光点検知処理部703に入力され、光点を検知する光点処理が実行される。   In the image processing camera device 20 according to the second embodiment configured as described above, the low-resolution blurred captured image 121 captured by the right camera unit 700 is separated into three pieces of image information, and one piece of image information is an image processing unit. 101 is converted into high-resolution image information by the super-resolution processing unit 102 and output as a restored image 122 from which blur is recovered, and the other image information remains at low resolution, and an image recognition engine 111 as a subsequent-stage application processing unit. Is output. Further, one piece of image information is input to the light spot detection processing unit 703 as a light spot detection process, and a light spot process for detecting a light spot is executed.

また、左カメラ部701で撮像された低解像度のぼやけた撮像画像121は、超解像度処理部102に入力され、高解像度の画像情報に変換され、ぼけが回復された回復画像として出力される。そして、超解像度処理部102で高解像度の画像情報に変換された左右の高解像度画像は視差計算部704に入力され、視差計算部704で左右画像を元にした視差計算を行う。前記の光点検知処理部703による光点検知処理と、視差計算部704による視差計算は、同じ1フレームで撮像した画像に対して実行される。   The low-resolution blurred captured image 121 captured by the left camera unit 701 is input to the super-resolution processing unit 102, converted into high-resolution image information, and output as a recovered image from which blur is recovered. The left and right high-resolution images converted into high-resolution image information by the super-resolution processing unit 102 are input to the parallax calculation unit 704, and the parallax calculation unit 704 performs parallax calculation based on the left and right images. The light spot detection processing by the light spot detection processing unit 703 and the parallax calculation by the parallax calculation unit 704 are performed on the same image captured in one frame.

視差計算部704による画像処理において得られる視差画像710と、超解像処理部102でぼけを回復した回復画像122は、画像認識エンジン111において、車間自動制御アプリケーション721に使われる。また、光点検知処理部703による画像処理において得られた光点画像711と、ぼやけた画像121は、画像認識エンジン111において、ヘッドライト制御アプリケーション722に使われる。このように、車載ステレオカメラを用いた画像処理ステレオカメラ装置20においても、ヘッドライト制御アプリケーションと車間自動制御アプリケーションを同時に動作させることができる。   The parallax image 710 obtained in the image processing by the parallax calculation unit 704 and the recovered image 122 that has been recovered from blur by the super-resolution processing unit 102 are used in the inter-vehicle automatic control application 721 in the image recognition engine 111. Further, the light spot image 711 and the blurred image 121 obtained in the image processing by the light spot detection processing unit 703 are used for the headlight control application 722 in the image recognition engine 111. Thus, also in the image processing stereo camera device 20 using the in-vehicle stereo camera, the headlight control application and the inter-vehicle automatic control application can be operated simultaneously.

視差計算部704の視差計算で、算出された視差画像710は例えば先行車との車間距離を検出するのに用いられ、検出された車間距離を一定に保つための制御や、車間距離が小さい場合に減速する制御等、上述している車間自動制御アプリケーションに用いられる。また、車間自動制御アプリケーションの一例として、車線・車両検知をあげているが、たとえば、歩行者などの障害物を検知することにも用いられる。車間自動制御アプリケーションの他にも、プリクラッシュ制御(障害物への衝突回避・軽減制御)などにも用いられる。   In the parallax calculation of the parallax calculation unit 704, the calculated parallax image 710 is used, for example, to detect the inter-vehicle distance from the preceding vehicle. When the detected inter-vehicle distance is kept constant or the inter-vehicle distance is small It is used for the above-mentioned automatic inter-vehicle control application such as control for slowing down the vehicle. In addition, although an example of an automatic inter-vehicle control application is lane / vehicle detection, it is also used to detect an obstacle such as a pedestrian. In addition to the inter-vehicle automatic control application, it is also used for pre-crash control (collision avoidance / reduction control for obstacles) and the like.

前記した実施例1、実施例2では、ヘッドライト制御アプリケーションの一例として、テールライト検知をあげているが、信号検知や標識検知などの色情報を必要とするアプリケーションも含まれる。   In the first and second embodiments described above, taillight detection is given as an example of the headlight control application, but applications that require color information such as signal detection and sign detection are also included.

以上、本発明の実施形態について詳述したが、本発明は上記した実施例に限定されるものではなく、さまざまな変形例が含まれる。例えば、上記した実施例は本発明をわかりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成にほかの実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   As mentioned above, although embodiment of this invention was explained in full detail, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、たとえば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際にはほとんどすべての構成が相互に接続されていると考えてもよい。カメラ装置として車載カメラの例を示し、複数のカメラ装置として2つのステレオカメラ装置の例を示したが、定点カメラ等の固定カメラで撮像した撮像画像や、3つ以上のカメラ装置で撮像した撮像画像を用いて複数のアプリケーション処理を行うように構成してもよい。   In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other. An example of an in-vehicle camera is shown as a camera device, and an example of two stereo camera devices is shown as a plurality of camera devices. However, an image picked up by a fixed camera such as a fixed point camera or an image picked up by three or more camera devices A plurality of application processes may be performed using an image.

本発明の活用例として、この画像処理装置を用いて各種のカメラ装置で撮像した画像信号で複数のアプリケーション処理を同時に行うことができ、車載カメラを取り付けることによって車両の各種の用途にも適用できると共に、定点カメラを取り付けることによって地域の安全等の各種の用途にも適用できる。   As an application example of the present invention, it is possible to simultaneously perform a plurality of application processes with image signals captured by various camera devices using this image processing device, and it can be applied to various uses of vehicles by attaching an in-vehicle camera. At the same time, it can be applied to various uses such as local safety by attaching a fixed point camera.

10:画像処理カメラ装置
20:画像処理ステレオカメラ装置
100:カメラ部
101:画像処理部
102:超解像処理部(解像度処理部)
111:画像認識エンジン(アプリケーション画像処理部)
112:車線・車両検知処理部
113:光点検知処理部
121:ぼやけた画像(低解像度画像)
122:回復画像(高解像度画像)
200:撮像素子
201:画角
202:レンズ
300:カメラ装置
301:先行車
302:先行車テールライト
400:光源
401:テールライト検知必要分解能
402:角度分解能
403:テールライト写り込み領域
404:1画素サイズ
405:2×2画素サイズ
406:ベイヤパターン
407:ぼやけたテールライト写り込み領域
500:MTF特性
501:光点検知処理に必要なピント
502:車線・車両検知に必要なピント
510:レンズ
511:位相板
601:超解像による回復可能領域
602:フランジバック調整範囲
603:超解像処理
700:右カメラ部
701:左カメラ部
703:光点検知処理部
704:視差計算部
710:視差画像
711:光点画像
721:車間自動制御アプリケーション
722:ヘッドライト制御アプリケーション
10: Image processing camera device 20: Image processing stereo camera device 100: Camera unit 101: Image processing unit 102: Super-resolution processing unit (resolution processing unit)
111: Image recognition engine (application image processing unit)
112: Lane / vehicle detection processing unit 113: Light spot detection processing unit 121: Blurred image (low resolution image)
122: Recovery image (high resolution image)
200: imaging device 201: angle of view 202: lens 300: camera device 301: preceding vehicle 302: preceding vehicle taillight 400: light source 401: necessary taillight detection resolution 402: angular resolution 403: taillight reflection region 404: 1 pixel Size 405: 2 × 2 pixel size 406: Bayer pattern 407: Blurred taillight reflected area 500: MTF characteristic 501: Focus necessary for light spot detection processing 502: Focus necessary for lane / vehicle detection 510: Lens 511 Phase plate 601: recoverable region 602 by super-resolution: flange back adjustment range 603: super-resolution processing 700: right camera unit 701: left camera unit 703: light spot detection processing unit 704: parallax calculation unit 710: parallax image 711 : Light spot image 721: Inter-vehicle automatic control application 722: Headlight control Application

Claims (7)

カメラ部で撮像した撮像画像を処理する画像処理装置であって、
該画像処理装置は、解像度処理部とアプリケーション画像処理部と、を備え、
前記解像度処理部は、前記撮像画像を高解像度画像に変換し、
前記アプリケーション画像処理部は、前記撮像画像を用いたアプリケーション処理部と、前記高解像度画像を用いたアプリケーション処理部と、を備えることを特徴とする画像処理装置。
An image processing apparatus that processes a captured image captured by a camera unit,
The image processing apparatus includes a resolution processing unit and an application image processing unit,
The resolution processing unit converts the captured image into a high-resolution image,
The application image processing unit includes an application processing unit using the captured image and an application processing unit using the high-resolution image.
前記撮像画像は、低解像度画像であり、前記アプリケーション処理部は該低解像度画像を用いて光点検知処理することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the captured image is a low-resolution image, and the application processing unit performs light spot detection processing using the low-resolution image. 前記カメラ部は、レンズと撮像素子とを備えており、
前記低解像度画像は、前記レンズと前記撮像素子のフランジバックを調整して撮像されることを特徴とする請求項2に記載の画像処理装置。
The camera unit includes a lens and an image sensor,
The image processing apparatus according to claim 2, wherein the low-resolution image is captured by adjusting a flange back of the lens and the imaging element.
前記フランジバックは、前記低解像度画像を取得でき、前記超解像処理部により高解像度画像を取得できるように、前記フランジバックが一定の調整範囲を持つことを特徴とする請求項3に記載の画像処理装置。   The flange back has a fixed adjustment range so that the low resolution image can be acquired and the high resolution image can be acquired by the super-resolution processing unit. Image processing device. 前記画像処理部は、光点検出処理部を備えることを特徴とする請求項1〜4のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit includes a light spot detection processing unit. 前記カメラ部は、右カメラ部と左カメラ部とを備え、前記画像処理部は、左右のカメラ部で撮像した画像から視差を求める視差計算部を備えることを特徴とする請求項1〜5のいずれかに記載の画像処理装置。   The said camera part is provided with the right camera part and the left camera part, and the said image process part is provided with the parallax calculation part which calculates | requires a parallax from the image imaged with the left and right camera part. The image processing apparatus according to any one of the above. 請求項1〜6のいずれかに記載の画像処理装置と、前記撮像画像を撮像する前記カメラ部とを備えることを特徴とする画像処理カメラ装置。   An image processing camera apparatus comprising: the image processing apparatus according to claim 1; and the camera unit that captures the captured image.
JP2012077382A 2012-03-29 2012-03-29 Image processing device and image processing camera device Pending JP2013206356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012077382A JP2013206356A (en) 2012-03-29 2012-03-29 Image processing device and image processing camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012077382A JP2013206356A (en) 2012-03-29 2012-03-29 Image processing device and image processing camera device

Publications (1)

Publication Number Publication Date
JP2013206356A true JP2013206356A (en) 2013-10-07

Family

ID=49525324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012077382A Pending JP2013206356A (en) 2012-03-29 2012-03-29 Image processing device and image processing camera device

Country Status (1)

Country Link
JP (1) JP2013206356A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017110277A1 (en) * 2015-12-25 2017-06-29 日立オートモティブシステムズ株式会社 Headlight control device
EP3435328A4 (en) * 2016-03-23 2019-11-13 Hitachi Automotive Systems, Ltd. Object recognition device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017110277A1 (en) * 2015-12-25 2017-06-29 日立オートモティブシステムズ株式会社 Headlight control device
US10351048B2 (en) 2015-12-25 2019-07-16 Hitachi Automotive Systems, Ltd. Headlight control device
EP3435328A4 (en) * 2016-03-23 2019-11-13 Hitachi Automotive Systems, Ltd. Object recognition device
US11176397B2 (en) 2016-03-23 2021-11-16 Hitachi Astemo, Ltd. Object recognition device

Similar Documents

Publication Publication Date Title
JP6060282B2 (en) In-vehicle camera image processing device
JP5846872B2 (en) Image processing device
JP5639024B2 (en) Image processing device
JP6316976B2 (en) In-vehicle image recognition device
JP2008060873A (en) Camera with two or more angles of view
JP6429452B2 (en) In-vehicle image processing apparatus and semiconductor device
JP6660751B2 (en) Imaging device
JP5895448B2 (en) Vehicle recognition device, vehicle recognition method, and program
JP6701253B2 (en) Exterior environment recognition device
JP6793608B2 (en) Stereo image processing device
JP2013250907A (en) Parallax calculation device, parallax calculation method and parallax calculation program
WO2018159467A1 (en) Mobile entity detector, mobile entity detection method, and computer-readable recording medium
CN110536814B (en) Camera device and method for detecting a region of the surroundings of a vehicle in response to the surroundings
JP2013258596A (en) Image pick-up device
JP2013206356A (en) Image processing device and image processing camera device
JP7261006B2 (en) External environment recognition device
JP4614826B2 (en) Road marking line detection device
JP2021064316A (en) Vehicle exterior environment recognition device
US20160167581A1 (en) Driver interface for capturing images using automotive image sensors
JP2011150635A (en) Image restoration method and apparatus
JP2019080289A (en) On-vehicle imaging apparatus
JP5921596B2 (en) Image processing apparatus and image processing method
KR101982091B1 (en) Surround view monitoring system
JP2018160785A (en) Image generation device, image generation method, program and record medium recording the same
US10868983B2 (en) Image generating apparatus, image generating method, and recording medium having the program stored thereon