JP2015042004A - Imaging apparatus, imaging system, and vehicle - Google Patents

Imaging apparatus, imaging system, and vehicle Download PDF

Info

Publication number
JP2015042004A
JP2015042004A JP2013173994A JP2013173994A JP2015042004A JP 2015042004 A JP2015042004 A JP 2015042004A JP 2013173994 A JP2013173994 A JP 2013173994A JP 2013173994 A JP2013173994 A JP 2013173994A JP 2015042004 A JP2015042004 A JP 2015042004A
Authority
JP
Japan
Prior art keywords
image
coordinate
unit
pixel
incident
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013173994A
Other languages
Japanese (ja)
Other versions
JP6311238B2 (en
Inventor
哲哉 佐々木
Tetsuya Sasaki
哲哉 佐々木
亮介 笠原
Ryosuke Kasahara
亮介 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013173994A priority Critical patent/JP6311238B2/en
Publication of JP2015042004A publication Critical patent/JP2015042004A/en
Application granted granted Critical
Publication of JP6311238B2 publication Critical patent/JP6311238B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus, an imaging system, and a vehicle which reduce costs by suppressing increase in circuit scale.SOLUTION: A coordinate transformation data switch unit 205 switches between first coordinate transformation data for an S polarization image and second coordinate transformation data for a P polarization image to be used for coordinate transformation processing by a coordinate calculation unit 206, on the basis of the coordinate values (X', Y') of an output image. The coordinate calculation unit 206 calculates the coordinate travel amount (ΔX, ΔY) of the coordinate values of a pixel in an input image with respect to the output pixel indicated by the coordinate values (X',Y') in the output image, as the coordinate transformation processing.

Description

本発明は、撮像装置、撮像システムおよび車両に関する。   The present invention relates to an imaging device, an imaging system, and a vehicle.

近年、車両前方における先行車両との車間距離を測定し、所定の車間距離を維持するための車間距離制御システム(ACC:Adaptive Cruise Control)および前方衝突警告システム(FCW:Forward Collision Warning)等の運転支援システムが開発されている。これらのシステムを実現するため先行車両との距離を測定する技術として、ステレオカメラが既に知られている。ステレオカメラは、被写体に対して視差を有する2つの撮影画像を解析することにより、被写体の位置情報を演算するものである。   In recent years, driving of an inter-vehicle distance control system (ACC: Adaptive Cruise Control) and a forward collision warning system (FCW) for measuring the inter-vehicle distance with a preceding vehicle in front of the vehicle and maintaining a predetermined inter-vehicle distance. A support system has been developed. A stereo camera is already known as a technique for measuring the distance from the preceding vehicle in order to realize these systems. The stereo camera calculates position information of a subject by analyzing two captured images having parallax with respect to the subject.

一般的に、ステレオカメラは、2つの撮像手段により撮像された画像から高精度に視差を演算する必要があるため、2つの入射部の位置関係を正確に計測し、光学系に起因する歪みを補正する処理が必須となる。この歪み補正においては、ステレオカメラの内部で座標変換処理をするが、2つの撮像手段で構成されるステレオカメラにおいては、それぞれの撮像手段で撮像された画像に対して高速に座標変換処理を行うためには2つの座標変換処理部を備えておく必要がある。このような、2つの撮像手段を備えるステレオカメラとして、遠距離用および近距離用のステレオ画像を同時に取得し、遠距離および近距離の被写体の三次元位置を精度良く検出するカメラが提案されている(特許文献1参照)。特許文献1に開示された技術は、2つの撮像手段のうち、一方の撮像手段で撮像されるS偏光成分の画像と、他方の撮像手段で撮像されるS偏光成分の画像から遠距離用のステレオ画像を形成し、前者の撮像手段で撮像されるP偏光成分の画像と、後者の撮像手段で撮像されるP偏光成分の画像から近距離用のステレオ画像を形成している。   In general, since a stereo camera needs to calculate parallax with high accuracy from images captured by two imaging means, it accurately measures the positional relationship between the two incident portions and eliminates distortion caused by the optical system. The correction process is essential. In this distortion correction, coordinate conversion processing is performed inside the stereo camera. However, in a stereo camera constituted by two imaging means, coordinate conversion processing is performed at high speed on images captured by the respective imaging means. For this purpose, it is necessary to provide two coordinate conversion processing units. As such a stereo camera having two image pickup means, a camera that simultaneously acquires long-distance and short-distance stereo images and accurately detects the three-dimensional positions of long-distance and short-distance subjects has been proposed. (See Patent Document 1). The technique disclosed in Patent Document 1 is for a long distance from the image of the S-polarized component imaged by one of the two imaging units and the image of the S-polarized component imaged by the other imaging unit. A stereo image is formed, and a short-distance stereo image is formed from the image of the P-polarized component captured by the former imaging unit and the image of the P-polarized component captured by the latter imaging unit.

特許文献1に記された技術においては、2つの撮像手段を備えていることによって、2つの撮像手段の位置関係および光学系の歪みを補正するために、それぞれの高速な補正演算のために2つの座標変換処理部を備えておく必要があるものと想定される。しかしながら、2つ座標変換処理部を備える場合、回路規模が大きくなり、コストが高くなるという問題点があった。   In the technique described in Patent Document 1, since two imaging units are provided, in order to correct the positional relationship between the two imaging units and the distortion of the optical system, 2 for each high-speed correction calculation. It is assumed that it is necessary to provide two coordinate conversion processing units. However, when two coordinate conversion processing units are provided, there is a problem that the circuit scale increases and the cost increases.

本発明は、上記に鑑みてなされたものであって、回路規模の増大を抑制した撮像装置、撮像システムおよび車両を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide an imaging apparatus, an imaging system, and a vehicle that suppress an increase in circuit scale.

上述した課題を解決し、目的を達成するために、本発明は、被写体からの光をそれぞれ入射する2つの入射部と、前記2つの入射部のうち、一方の入射部に入射した第1入射光から第1光成分を抽出し、他方の入射部に入射した第2入射光から第2光成分を抽出し、前記第1光成分と前記第2光成分とを1つの経路に合成する光学系と、前記第1光成分を透過させる複数の第1透過領域と、前記第2光成分を透過させる複数の第2透過領域と、を有する領域分割部と、前記領域分割部を透過した前記第1光成分と前記第2光成分とを撮像して1つの入力画像を生成する撮像部と、前記入力画像に含まれ、かつ、前記第1光成分から生成された第1画像に対して補正するための第1補正データと、前記入力画像に含まれ、かつ、前記第2光成分から生成された第2画像に対して補正するための第2補正データとを切り替えて補正処理を実行し、出力画像を生成する補正処理部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention includes two incident portions that respectively receive light from a subject, and a first incident incident on one of the two incident portions. The first light component is extracted from the light, the second light component is extracted from the second incident light incident on the other incident portion, and the first light component and the second light component are combined into one path. A region dividing unit having a system, a plurality of first transmission regions that transmit the first light component, and a plurality of second transmission regions that transmit the second light component; An imaging unit that images the first light component and the second light component to generate one input image, and a first image that is included in the input image and generated from the first light component First correction data for correction, and the second light component included in the input image By switching between the second correction data for correcting the second image that has been al generates correction process is executed, characterized in that it comprises a correction processing unit for generating an output image.

本発明によれば、回路規模の増大を抑制することができる。   According to the present invention, an increase in circuit scale can be suppressed.

図1は、ステレオカメラを備えた車両の外観の一例を示す図である。FIG. 1 is a diagram illustrating an example of an appearance of a vehicle including a stereo camera. 図2は、第1の実施の形態に係るステレオカメラの構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the configuration of the stereo camera according to the first embodiment. 図3は、画像入力部の構造の一例を示す図である。FIG. 3 is a diagram illustrating an example of the structure of the image input unit. 図4は、画像入力部におけるプリズムを入射側から見た図である。FIG. 4 is a diagram of the prism in the image input unit viewed from the incident side. 図5は、画像入力部における光学フィルタおよび撮像部の構造の例を示す図である。FIG. 5 is a diagram illustrating an example of the structure of the optical filter and the imaging unit in the image input unit. 図6は、画像入力部における光学フィルタと撮像素子との位置関係の対応を例示した図である。FIG. 6 is a diagram illustrating the correspondence of the positional relationship between the optical filter and the image sensor in the image input unit. 図7は、処理部における座標変換処理部の構成の一例を示すブロック図である。FIG. 7 is a block diagram illustrating an example of the configuration of the coordinate conversion processing unit in the processing unit. 図8は、座標変換処理部における座標変換データ切替部の動作を示すフローチャートである。FIG. 8 is a flowchart showing the operation of the coordinate conversion data switching unit in the coordinate conversion processing unit. 図9は、座標変換処理部における座標計算部の構成の一例を示すブロック図である。FIG. 9 is a block diagram illustrating an example of the configuration of the coordinate calculation unit in the coordinate conversion processing unit. 図10は、座標計算部における初期値演算部および漸化式演算部の動作のタイミングチャートである。FIG. 10 is a timing chart of operations of the initial value calculation unit and the recurrence formula calculation unit in the coordinate calculation unit. 図11は、座標変換処理部における読込アドレス計算部の動作を説明する図である。FIG. 11 is a diagram for explaining the operation of the read address calculation unit in the coordinate conversion processing unit. 図12は、座標変換処理部におけるインターポレータにおけるバイリニア補間の処理を説明する概念図である。FIG. 12 is a conceptual diagram illustrating bilinear interpolation processing in the interpolator in the coordinate conversion processing unit. 図13は、座標変換処理部における偏光分離処理部の動作を説明する図である。FIG. 13 is a diagram illustrating the operation of the polarization separation processing unit in the coordinate conversion processing unit. 図14は、第1の実施の形態に係るステレオカメラの全体動作を示すフローチャートである。FIG. 14 is a flowchart showing the overall operation of the stereo camera according to the first embodiment. 図15は、第1の実施の形態の変形例の座標計算部の構成を示すブロック図である。FIG. 15 is a block diagram illustrating a configuration of a coordinate calculation unit according to a modification of the first embodiment. 図16は、第2の実施の形態に係るステレオカメラの各種アプリケーションにおける入力画像の使用例を説明する図である。FIG. 16 is a diagram for explaining an example of using an input image in various applications of the stereo camera according to the second embodiment.

以下に、図面を参照しながら、本発明に係る撮像装置、撮像システムおよび車両の実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換および変更を行うことができる。   Hereinafter, embodiments of an imaging device, an imaging system, and a vehicle according to the present invention will be described in detail with reference to the drawings. In addition, the present invention is not limited by the following embodiments, and constituent elements in the following embodiments are easily conceivable by those skilled in the art, substantially the same, and so-called equivalent ranges. Is included. Furthermore, various omissions, substitutions, and changes of the components can be made without departing from the scope of the following embodiments.

(第1の実施の形態)
<ステレオカメラを備えた車両の構成>
図1は、ステレオカメラを備えた車両の外観の一例を示す図である。図1を参照しながら、ステレオカメラ10を備えた車両1の構成について説明する。
(First embodiment)
<Configuration of vehicle with stereo camera>
FIG. 1 is a diagram illustrating an example of an appearance of a vehicle including a stereo camera. A configuration of the vehicle 1 including the stereo camera 10 will be described with reference to FIG.

図1に示すように、車両1は、本体2内の居室空間である車室3において、ステレオカメラ10、ステアリングホイール12およびブレーキペダル13を備えている。さらに、車両1は、例えば、車室3における床下内部に車両制御装置11を備えている。   As shown in FIG. 1, the vehicle 1 includes a stereo camera 10, a steering wheel 12, and a brake pedal 13 in a vehicle compartment 3 that is a living room space in the main body 2. Furthermore, the vehicle 1 is provided with the vehicle control apparatus 11 inside the floor under the vehicle interior 3, for example.

ステレオカメラ10は、車両1の前方を撮像するカメラであり、例えば、車両1のフロントウィンドウ内側のバックミラー近傍に設置される。そして、ステレオカメラ10は、撮像した車両前方の画像を後述する処理を実行することによって、他車両、歩行者およびその他道路上の構造物等の立体物の位置情報を算出し、白線、信号機または標識等の認識処理等を実行し、その処理結果の情報を車両制御装置11に送信する。   The stereo camera 10 is a camera that captures an image of the front of the vehicle 1, and is installed in the vicinity of the rearview mirror inside the front window of the vehicle 1, for example. And the stereo camera 10 calculates the positional information of solid objects, such as another vehicle, a pedestrian, and other structures on a road, by performing the process which mentions the image ahead of the imaged vehicle, and a white line, a traffic light or Recognition processing such as a sign is executed, and information on the processing result is transmitted to the vehicle control device 11.

車両制御装置11は、ステレオカメラ10から受信した処理結果の情報に基づいて、各種車両制御を実行する。車両制御装置11は、車両制御の例として、ステレオカメラ10から受信した前方車両の位置情報に基づいて、危険と判断した場合に、スピーカー等によってドライバへの音声による警告動作、または、表示手段を用いたドライバへの視覚的な警告動作等を実行する。また、車両制御装置11は、車両制御の例として、前方の障害物の位置情報に基づいて、ステアリングホイール12を含むステアリング系統を制御して障害物を回避するステアリング制御、または、ブレーキペダル13を制御して車両1を減速および停止させるブレーキ制御等を実行する。   The vehicle control device 11 executes various vehicle controls based on the processing result information received from the stereo camera 10. As an example of vehicle control, the vehicle control device 11 provides a warning operation by voice to the driver or a display means using a speaker or the like when it is determined to be dangerous based on the position information of the preceding vehicle received from the stereo camera 10. A visual warning operation to the used driver is executed. As an example of vehicle control, the vehicle control device 11 controls a steering system including the steering wheel 12 to avoid an obstacle based on position information of an obstacle ahead, or a brake pedal 13. The brake control etc. which control and decelerate and stop the vehicle 1 are performed.

このように、ステレオカメラ10および車両制御装置11を含む車両制御システムのように、前方車両等が接近した場合における警告動作、ステアリング制御またはブレーキ制御等の車両制御が実行されることによって、車両の運転の安全性を向上することができる。   As described above, the vehicle control system including the stereo camera 10 and the vehicle control device 11 performs vehicle control such as warning operation, steering control, or brake control when a preceding vehicle approaches, thereby Driving safety can be improved.

なお、上述のように、ステレオカメラ10は、車両1の前方を撮像するものとしたが、これに限定されるものではない。すなわち、ステレオカメラ10は、車両1の後方または側方を撮像するように設置されるものとしてもよい。この場合、ステレオカメラ10は、車両1の後方の後続車、または側方を並進する他の車両等の位置を検出することができる。そして、車両制御装置11は、車両1の車線変更時または車線合流時等における危険を検知して、上述の車両制御を実行することができる。また、車両制御装置11は、車両1の駐車時等におけるバック動作において、ステレオカメラ10によって検出された車両1の後方の障害物の位置情報に基づいて、衝突の危険があると判断した場合に、上述の車両制御を実行することができる。   As described above, the stereo camera 10 captures the front of the vehicle 1, but is not limited thereto. That is, the stereo camera 10 may be installed so as to capture the rear or side of the vehicle 1. In this case, the stereo camera 10 can detect the position of a succeeding vehicle behind the vehicle 1 or another vehicle that translates laterally. And the vehicle control apparatus 11 can detect the danger at the time of the lane change of the vehicle 1, a lane merge, etc., and can perform the above-mentioned vehicle control. In addition, when the vehicle control device 11 determines that there is a risk of collision based on the position information of the obstacle behind the vehicle 1 detected by the stereo camera 10 in the back operation when the vehicle 1 is parked or the like. The vehicle control described above can be executed.

<ステレオカメラの構成>
図2は、第1の実施の形態に係るステレオカメラの構成の一例を示すブロック図である。図2を参照しながら、本実施の形態に係るステレオカメラ10の構成について説明する。
<Configuration of stereo camera>
FIG. 2 is a block diagram illustrating an example of the configuration of the stereo camera according to the first embodiment. The configuration of the stereo camera 10 according to the present embodiment will be described with reference to FIG.

図2に示すように、ステレオカメラ10は、画像入力部20と、処理部30とを備えている。画像入力部20は、ステレオカメラ10の前方からの光を入射して、光学系により入射した光を偏光させて撮像素子により撮像する。画像入力部20は、入射部21a、21bと、光学系22と、光学フィルタ23(領域分割部)と、撮像部24とを備えている。   As shown in FIG. 2, the stereo camera 10 includes an image input unit 20 and a processing unit 30. The image input unit 20 receives light from the front of the stereo camera 10, polarizes the light incident by the optical system, and captures an image using the image sensor. The image input unit 20 includes incident units 21 a and 21 b, an optical system 22, an optical filter 23 (region dividing unit), and an imaging unit 24.

入射部21a、21bは、所定距離だけ離れて配置されており、ステレオカメラ10の前方から光を入射して、光を光学系22に導く機能を有する。なお、入射部21a、21bについて、区別なく称する場合、または、総称する場合は、単に「入射部21」というものとする。   The incident portions 21 a and 21 b are arranged at a predetermined distance, and have a function of entering light from the front of the stereo camera 10 and guiding the light to the optical system 22. Note that the incident portions 21a and 21b are simply referred to as the “incident portion 21” when referred to without distinction or collectively.

光学系22は、2つの入射部(21a、21b)から入射した光を、それぞれS(Senkrecht)偏光成分とP(Parallel)偏光成分とに偏光させて、撮像部24に集光させる機能を有する。具体的には、光学系22は、入射部21aから入射した光をS偏光させ、入射部21bから入射した光をP偏光させ、それぞれ偏光された光を1つの経路に合成して撮像部24に集光させる。光学系22の構造の詳細については後述する。   The optical system 22 has a function of condensing the light incident from the two incident units (21a, 21b) into an S (Senkrecht) polarization component and a P (Parallel) polarization component, respectively, and condensing the light on the imaging unit 24. . Specifically, the optical system 22 converts the light incident from the incident unit 21a into S-polarized light, converts the light incident from the incident unit 21b into P-polarized light, and combines the polarized light into one path to capture the image capturing unit 24. To collect light. Details of the structure of the optical system 22 will be described later.

光学フィルタ23は、入射部21から入射し、光学系22によって集光された光のうち、S偏光成分(第1光成分、第1偏光成分)のみを透過させる領域(以下、「S偏光透過領域」という)(第1透過領域)と、P偏光成分(第2光成分、第2偏光成分)のみを透過させる領域(以下、「P偏光透過領域」という)(第2透過領域)とが領域分割されたフィルタである。具体的には、光学フィルタ23は、後段側に密着配置する撮像部24の撮像素子の画素列ごとに対向して領域分割されており、画素列ごとにS偏光透過領域とP偏光透過領域とが交互に配置されている。光学フィルタ23の領域分割の態様については後述する。   The optical filter 23 is a region that transmits only the S-polarized light component (first light component, first polarized light component) out of the light incident from the incident portion 21 and collected by the optical system 22 (hereinafter referred to as “S-polarized light transmission”). Area ”) (first transmission area) and an area that transmits only the P-polarized component (second light component, second polarization component) (hereinafter referred to as“ P-polarized transmission area ”) (second transmission area). This is a region-divided filter. Specifically, the optical filter 23 is region-divided so as to face each pixel column of the image sensor of the imaging unit 24 arranged in close contact with the rear stage side, and an S-polarized light transmission region and a P-polarized light transmission region for each pixel column. Are arranged alternately. A mode of area division of the optical filter 23 will be described later.

なお、S偏光透過領域およびP偏光透過領域は、光学フィルタ23において、それぞれ撮像部24の撮像素子の画素列ごとに対向して領域分割されているものとしたが、これに限定されるものではない。例えば、光学フィルタ23は、撮像部24の撮像素子の隣接する2列以上の画素列ごとにS偏光透過領域およびP偏光透過領域が交互に配置される構成としてもよい。   The S-polarized light transmission region and the P-polarized light transmission region are divided in the optical filter 23 so as to face each pixel row of the image pickup element of the image pickup unit 24. However, the present invention is not limited to this. Absent. For example, the optical filter 23 may have a configuration in which an S-polarized light transmission region and a P-polarized light transmission region are alternately arranged for every two or more adjacent pixel columns of the image sensor of the imaging unit 24.

撮像部24は、入射部21から入射し、光学系22によって集光され、光学フィルタ23を透過した光を検出し、画像として撮像する。また、撮像部24は、光学フィルタ23のS偏光透過領域およびP偏光透過領域をそれぞれ透過した光を同時に検出して、1つの画像として撮像する。撮像部24の構成の詳細については後述する。   The imaging unit 24 detects light incident from the incident unit 21, collected by the optical system 22, and transmitted through the optical filter 23, and captures it as an image. In addition, the imaging unit 24 simultaneously detects the light transmitted through the S-polarized light transmission region and the P-polarized light transmission region of the optical filter 23 and captures it as one image. Details of the configuration of the imaging unit 24 will be described later.

処理部30は、画像入力部20により撮像された画像に対して各種画像処理を行う部分である。処理部30は、FPGA(Field−Programmable Gate Array)31と、CPU(Central Processing Unit)32と、ROM(Read Only Memory)33と、RAM(Random Access Memory)34とを備えている。   The processing unit 30 is a part that performs various image processing on the image captured by the image input unit 20. The processing unit 30 includes an FPGA (Field-Programmable Gate Array) 31, a CPU (Central Processing Unit) 32, a ROM (Read Only Memory) 33, and a RAM (Random Access Memory) 34.

FPGA31は、画像入力部20によって撮像された画像に対して、各種画像処理を実行するハードウェア回路である。FPGA31は、画像処理部41、座標変換処理部42(補正処理部)および距離演算部43の各動作機能を奏する。なお、画像入力部20によって撮像された画像に対して、各種画像処理を実行するものとしてFPGA31としているが、これに限定されるものではなく、ASIC(Application Specific Integrated Circuit)またはDSP(Digital Signal Processor)によって実現するものとしてもよい。   The FPGA 31 is a hardware circuit that executes various types of image processing on the image captured by the image input unit 20. The FPGA 31 performs the operation functions of the image processing unit 41, the coordinate conversion processing unit 42 (correction processing unit), and the distance calculation unit 43. Note that the FPGA 31 is used to execute various image processing on the image captured by the image input unit 20, but is not limited to this, and is not limited to this, but is ASIC (Application Specific Integrated Circuit) or DSP (Digital Signal Processor). ).

画像処理部41は、画像入力部20により撮像された画像に対して、γ補正、輝度変換処理等の各種画像処理を実行する。   The image processing unit 41 executes various image processing such as γ correction and luminance conversion processing on the image captured by the image input unit 20.

座標変換処理部42は、画像処理部41によって画像処理された画像を入力画像として入力し、この入力画像に対して歪み補正を実行して出力画像を生成し、出力画像からS偏光成分の画像とP偏光成分の画像とを分離して出力する。歪み補正は、光学系22により生じた歪みが反映された画像に対して、歪みを解消するための画像処理である。座標変換処理部42の構成の詳細は後述する。   The coordinate conversion processing unit 42 receives the image processed by the image processing unit 41 as an input image, performs distortion correction on the input image to generate an output image, and generates an S-polarized component image from the output image. And a P-polarized component image are output separately. The distortion correction is image processing for eliminating the distortion of the image in which the distortion generated by the optical system 22 is reflected. Details of the configuration of the coordinate conversion processing unit 42 will be described later.

距離演算部43は、座標変換処理部42により歪み補正が実行されて、S偏光成分の画像とP偏光成分の画像とに分離され出力された2つの出力画像から、2つの出力画像で被写体に対応する画素の検出処理(ステレオマッチング処理)を行って被写体に対する視差を算出し、三角測量の原理により被写体までの距離を演算する。なお、距離演算部43は、被写体までの距離だけではなく、座標変換処理部42により出力された画像における被写体の横方向および縦方向(高さ方向)の情報も算出してもよい。   The distance calculation unit 43 performs distortion correction by the coordinate transformation processing unit 42, separates the S-polarized component image and the P-polarized component image, and outputs the two output images to the subject as two output images. The corresponding pixel detection process (stereo matching process) is performed to calculate the parallax with respect to the subject, and the distance to the subject is calculated based on the principle of triangulation. The distance calculation unit 43 may calculate not only the distance to the subject but also information on the horizontal direction and the vertical direction (height direction) of the subject in the image output by the coordinate conversion processing unit 42.

CPU32は、被写体についての認識処理、カメラ制御および各種制御処理を実行するハードウェア装置である。CPU32は、制御部51および認識処理部52の各動作機能を実現する。   The CPU 32 is a hardware device that executes subject recognition processing, camera control, and various control processing. The CPU 32 realizes each operation function of the control unit 51 and the recognition processing unit 52.

制御部51は、露光値、ゲイン値および撮像画像のサイズ等のカメラパラメータを撮像部24に対して指示するカメラ制御、ならびに、FPGA31内の各種処理についての処理用パラメータの設定等を実行する。また、制御部51は、車両制御装置11から車速情報、ステアリング角情報およびヨーレート情報等の車両情報を受信し、認識処理部52による認識処理に反映する。そして、制御部51は、認識処理部52による認識処理の結果情報に基づいて、車両1をどのように制御するかについての情報をもとめ、その情報を車両制御装置11に送信する。   The control unit 51 performs camera control for instructing the imaging unit 24 with camera parameters such as an exposure value, a gain value, and a captured image size, and setting processing parameters for various processes in the FPGA 31. In addition, the control unit 51 receives vehicle information such as vehicle speed information, steering angle information, and yaw rate information from the vehicle control device 11 and reflects them in the recognition process by the recognition processing unit 52. Then, the control unit 51 obtains information on how to control the vehicle 1 based on the result information of the recognition processing by the recognition processing unit 52 and transmits the information to the vehicle control device 11.

認識処理部52は、距離演算部43により算出された被写体までの距離情報、被写体までの距離を算出するために使用され、座標変換処理部42により歪み補正が実行された出力画像、または画像処理部41により画像処理された画像等から、被写体についての認識処理を実行するハードウェア装置である。認識処理部52は、認識処理として、例えば、他の車両、歩行者、ポールまたは壁といった路上構造物等の立体物、白線、標識および信号機等を認識処理対象として処理する。また、認識処理部52は、認識処理として、例えば、路面の凹凸等の情報、または路面の傾きの情報等も計算する。   The recognition processing unit 52 is used to calculate the distance information to the subject calculated by the distance calculation unit 43, the distance to the subject, and an output image in which distortion correction is performed by the coordinate conversion processing unit 42, or image processing This is a hardware device that executes recognition processing for a subject from an image subjected to image processing by the unit 41. As the recognition process, the recognition processing unit 52 processes, for example, another vehicle, a pedestrian, a three-dimensional object such as a road structure such as a pole or a wall, a white line, a sign, a traffic light, and the like as a recognition process target. The recognition processing unit 52 also calculates information such as road surface unevenness, road surface inclination information, and the like as the recognition processing.

ROM33は、CPU32に読み出されて実行されるプログラム、FPGA31の回路情報、および各種処理に用いられる処理パラメータ等が記憶されている不揮発性の記憶装置である。各種処理に用いられる処理パラメータとしては、γ変換処理のγ変換テーブル、歪み補正処理の補正量パラメータ、および距離算出処理の処理パラメータ等が含まれている。RAM34は、CPU32のワークエリアとして使用される揮発性の記憶装置である。   The ROM 33 is a non-volatile storage device that stores a program read and executed by the CPU 32, circuit information of the FPGA 31, processing parameters used for various processes, and the like. The processing parameters used for various processes include a γ conversion table for γ conversion processing, a correction amount parameter for distortion correction processing, a processing parameter for distance calculation processing, and the like. The RAM 34 is a volatile storage device used as a work area for the CPU 32.

<画像入力部の構成>
図3は、画像入力部の構造の一例を示す図である。図4は、画像入力部におけるプリズムを入射側から見た図である。図5は、画像入力部における光学フィルタおよび撮像部の構造の例を示す図である。図6は、画像入力部における光学フィルタと撮像素子との位置関係の対応を例示した図である。図3〜6を参照しながら、画像入力部20の構造について説明する。
<Configuration of image input unit>
FIG. 3 is a diagram illustrating an example of the structure of the image input unit. FIG. 4 is a diagram of the prism in the image input unit viewed from the incident side. FIG. 5 is a diagram illustrating an example of the structure of the optical filter and the imaging unit in the image input unit. FIG. 6 is a diagram illustrating the correspondence of the positional relationship between the optical filter and the image sensor in the image input unit. The structure of the image input unit 20 will be described with reference to FIGS.

図3に示すように、ステレオカメラ10は、筐体26内に画像入力部20を内蔵し、筐体26の側面に形成された入射部21a、21bから画像入力部20に光が入射する。光学系22は、クロスプリズム100と、三角柱プリズム110a、110bと、撮像レンズ114とを備えている。   As shown in FIG. 3, the stereo camera 10 includes an image input unit 20 in a housing 26, and light enters the image input unit 20 from incident units 21 a and 21 b formed on the side surface of the housing 26. The optical system 22 includes a cross prism 100, triangular prisms 110a and 110b, and an imaging lens 114.

クロスプリズム100は、偏光選択型のプリズムである。クロスプリズム100の側面102aから入射する−Y方向からの光は、S偏光成分がクロスプリズム100内の偏光面101a(第1の面)により反射され、P偏光成分が偏光面101aを透過する。偏光面101aにより反射したS偏光成分は、撮像レンズ114が配置された側のクロスプリズム100の側面である出射面103から撮像レンズ114に向かって出射する。クロスプリズム100の側面102bから入射する+Y方向からの光は、P偏光成分がクロスプリズム100内の偏光面101aと交差する偏光面101b(第2の面)により反射され、S偏光成分が偏光面101bを透過する。偏光面101bにより反射したP偏光成分は、出射面103から撮像レンズ114に向かって出射する。   The cross prism 100 is a polarization selective prism. In the light from the −Y direction incident from the side surface 102a of the cross prism 100, the S polarization component is reflected by the polarization plane 101a (first surface) in the cross prism 100, and the P polarization component is transmitted through the polarization plane 101a. The S-polarized component reflected by the polarization plane 101a is emitted from the emission surface 103, which is the side surface of the cross prism 100 on the side where the imaging lens 114 is disposed, toward the imaging lens 114. The light from the + Y direction incident from the side surface 102b of the cross prism 100 is reflected by the polarization plane 101b (second surface) where the P polarization component intersects the polarization plane 101a in the cross prism 100, and the S polarization component is the polarization plane. 101b is transmitted. The P-polarized light component reflected by the polarization plane 101b exits from the exit plane 103 toward the imaging lens 114.

三角柱プリズム110aは、2つの直交する側面の一方の側面がクロスプリズム100の側面102aに密着して配置されている。入射部21aを経由し、上述の2つの直交する側面の他方の側面である入射面111aから入射する+Z方向からの光は、三角柱プリズム110aの反射面112aにおいて全反射し、側面102aからクロスプリズム100に入射する。入射面111aから三角柱プリズム110aに入射する光のうち、クロスプリズム100および撮像レンズ114を経由して撮像部24によって検出される光の入射面111aにおける範囲が、図4に示す光線有効範囲113aである。   The triangular prism 110 a is arranged such that one of two orthogonal side surfaces is in close contact with the side surface 102 a of the cross prism 100. The light from the + Z direction, which is incident from the incident surface 111a, which is the other of the two orthogonal side surfaces described above via the incident portion 21a, is totally reflected by the reflection surface 112a of the triangular prism 110a and is cross-prism from the side surface 102a. 100 is incident. Of the light incident on the triangular prism 110a from the incident surface 111a, the range on the incident surface 111a of the light detected by the imaging unit 24 via the cross prism 100 and the imaging lens 114 is the effective ray range 113a shown in FIG. is there.

三角柱プリズム110bは、2つの直交する側面の一方の側面がクロスプリズム100の側面102bに密着して配置されている。入射部21bを経由し、上述の2つの直交する側面の他方の側面である入射面111bから入射する+Z方向からの光は、三角柱プリズム110bの反射面112bにおいて全反射し、側面102bからクロスプリズム100に入射する。入射面111bから三角柱プリズム110bに入射する光のうち、クロスプリズム100および撮像レンズ114を経由して撮像部24によって検出される光の入射面111bにおける範囲が、図4に示す光線有効範囲113bである。   The triangular prism 110 b is arranged such that one of two orthogonal side surfaces is in close contact with the side surface 102 b of the cross prism 100. The light from the + Z direction that is incident on the incident surface 111b, which is the other of the two orthogonal side surfaces described above, via the incident portion 21b is totally reflected on the reflecting surface 112b of the triangular prism 110b and cross-prism from the side surface 102b. 100 is incident. Of the light incident on the triangular prism 110b from the incident surface 111b, the range of light on the incident surface 111b detected by the imaging unit 24 via the cross prism 100 and the imaging lens 114 is a light effective range 113b shown in FIG. is there.

撮像レンズ114は、クロスプリズム100の出射面103側に配置され、出射面103から出射する光を撮像部24に集光させるレンズである。具体的には、撮像レンズ114は、三角柱プリズム110aおよびクロスプリズム100を経由し、出射面103から出射する光のS偏光成分と、三角柱プリズム110bおよびクロスプリズム100を経由し、出射面103から出射するP偏光成分とを撮像部24に集光させる。   The imaging lens 114 is a lens that is disposed on the exit surface 103 side of the cross prism 100 and collects the light emitted from the exit surface 103 on the imaging unit 24. Specifically, the imaging lens 114 passes through the triangular prism 110a and the cross prism 100, and exits from the output surface 103 via the S polarization component of the light exiting from the exit surface 103 and the triangular prism 110b and the cross prism 100. The P-polarized component to be condensed is condensed on the imaging unit 24.

光学フィルタ23は、後述する撮像部24の撮像素子24aに密着配置されたフィルタであり、上述のようにS偏光透過領域とP偏光透過領域とに領域分割されている。光学フィルタ23は、図5に示すように、フィルタ基板23aと、偏光フィルタ層23bと、充填層23cとを備えている。   The optical filter 23 is a filter disposed in close contact with an image sensor 24a of the imaging unit 24 described later, and is divided into an S-polarized light transmission region and a P-polarized light transmission region as described above. As shown in FIG. 5, the optical filter 23 includes a filter substrate 23a, a polarizing filter layer 23b, and a filling layer 23c.

フィルタ基板23aは、撮像レンズ114を介して光学フィルタ23に入射する光を透過する透明基板である。フィルタ基板23aの撮像部24側の面には、偏光フィルタ層23bが形成されている。   The filter substrate 23 a is a transparent substrate that transmits light incident on the optical filter 23 via the imaging lens 114. A polarizing filter layer 23b is formed on the surface of the filter substrate 23a on the imaging unit 24 side.

偏光フィルタ層23bは、S偏光透過領域とP偏光透過領域とに領域分割されたフィルタ層であり、光学フィルタ23に入射する光のうち、S偏光成分をS偏光透過領域において透過させ、P偏光成分をP偏光透過領域において透過させる。   The polarizing filter layer 23b is a filter layer that is divided into an S-polarized light transmitting region and a P-polarized light transmitting region, and transmits the S-polarized component of the light incident on the optical filter 23 in the S-polarized light transmitting region. The component is transmitted in the P-polarized light transmission region.

充填層23cは、フィルタ基板23aに形成された偏光フィルタ層23bを被覆する保護層である。   The filling layer 23c is a protective layer that covers the polarizing filter layer 23b formed on the filter substrate 23a.

撮像部24は、撮像素子24aと、基板24bとを備えている。撮像素子24aは、基板24b上に実装されており、光学系22によって集光され、光学フィルタ23を透過した光を検出し、画像として撮像する。なお、撮像素子24aは、モノクロセンサであってもよく、カラーセンサであってもよい。上述のように、光学フィルタ23(偏光フィルタ層23b)はS偏光透過領域とP偏光透過領域とに領域分割されているので、撮像素子24aは、S偏光透過領域を透過したS偏光成分と、P偏光透過領域を透過したP偏光成分とを同時に検出する。すなわち、撮像素子24aは、検出した入射部21aから入射した光のS偏光成分により構成される画像と、検出した入射部21bから入射した光のP偏光成分により構成される画像とを同時に撮像することができる。ここで、光のS偏光成分により構成される画像を「S偏光画像」(第1画像)、光のP偏光成分により構成される画像を「P偏光画像」(第2画像)というものとする。なお、入射部21aから入射する光が、光学系22によってP偏光され撮像素子24aによってP偏光画像として撮像され、入射部21bから入射する光が、光学系22によってS偏光され撮像素子24aによってS偏光画像として撮像されるものとしてもよい。   The imaging unit 24 includes an imaging element 24a and a substrate 24b. The image pickup device 24a is mounted on the substrate 24b, detects light collected by the optical system 22 and transmitted through the optical filter 23, and picks up an image as an image. Note that the image sensor 24a may be a monochrome sensor or a color sensor. As described above, since the optical filter 23 (polarization filter layer 23b) is divided into an S-polarized light transmission region and a P-polarized light transmission region, the image sensor 24a includes an S-polarized component transmitted through the S-polarized light transmission region, A P-polarized light component transmitted through the P-polarized light transmission region is simultaneously detected. That is, the image sensor 24a simultaneously captures an image composed of the S-polarized component of the light incident from the detected incident portion 21a and an image composed of the P-polarized component of the light incident from the detected incident portion 21b. be able to. Here, an image composed of the S-polarized light component is referred to as “S-polarized image” (first image), and an image composed of the P-polarized light component is referred to as “P-polarized image” (second image). . The light incident from the incident portion 21a is P-polarized by the optical system 22 and captured as a P-polarized image by the imaging device 24a, and the light incident from the incident portion 21b is S-polarized by the optical system 22 and S by the imaging device 24a. It may be captured as a polarization image.

撮像素子24aは、図6に示すように、複数の画素がマトリックス状に配置されて構成されている。図6に示す撮像素子部分130は、撮像素子24aのマトリックス状に配置された複数の画素の一部を抽出して示したものであり、4つの画素130aで示されている。また、撮像部24に密着配置した光学フィルタ23の偏光フィルタ層23bは、図6に示すように、短冊状にS偏光透過領域とP偏光透過領域とが交互に配置されて構成されている。図6に示す偏光フィルタ部分120のS偏光透過領域部分120aおよびP偏光透過領域部分120bは、領域分割された偏光フィルタ層23bの一部を抽出して示したものである。偏光フィルタ層23bにおける短冊状に交互に形成されたS偏光透過領域およびP偏光透過領域は、撮像素子24aの画素列ごとに対向して配置されている。具体的には、図6の紙面視において、撮像素子部分130のうち左上および右上の画素130aは、S偏光透過領域部分120aに対向し、撮像素子部分130のうち左下および右下の画素130aは、P偏光透過領域部分120bに対向している。   As shown in FIG. 6, the image sensor 24a is configured by arranging a plurality of pixels in a matrix. The image pickup element portion 130 shown in FIG. 6 is obtained by extracting a part of a plurality of pixels arranged in a matrix of the image pickup element 24a, and is indicated by four pixels 130a. Further, as shown in FIG. 6, the polarizing filter layer 23b of the optical filter 23 arranged in close contact with the imaging unit 24 is configured by alternately arranging S-polarized light transmitting regions and P-polarized light transmitting regions in a strip shape. The S-polarized light transmitting region portion 120a and the P-polarized light transmitting region portion 120b of the polarizing filter portion 120 shown in FIG. 6 are obtained by extracting a part of the region-divided polarizing filter layer 23b. The S-polarized light transmission regions and the P-polarized light transmission regions alternately formed in a strip shape in the polarizing filter layer 23b are arranged so as to face each pixel row of the image sensor 24a. Specifically, in the paper view of FIG. 6, the upper left and upper right pixels 130a of the image sensor portion 130 face the S-polarized light transmission region portion 120a, and the lower left and lower right pixels 130a of the image sensor portion 130 are , Opposite to the P-polarized light transmission region portion 120b.

なお、上述の「画素」とは、撮像部24の撮像素子24aにおける光の検出部の最小単位を示し、かつ、その撮像素子24aによって撮像された画像における該検出部の最小単位により検出された、画像の最小単位を示すものとする。   The above-mentioned “pixel” indicates the minimum unit of the light detection unit in the image sensor 24a of the imaging unit 24, and is detected by the minimum unit of the detection unit in the image captured by the image sensor 24a. Let us denote the minimum unit of an image.

以上のように、三角柱プリズム110aの光線有効範囲113aと、三角柱プリズム110bの光線有効範囲113bとの間には一定の距離を有するため、撮像部24によって撮像されたS偏光画像およびP偏光画像は視差を持った画像として形成される。したがって、ステレオカメラ10は、視差を持ったS偏光画像よびP偏光画像から視差画像を生成し、この視差画像によって被写体までの距離を算出することが可能となる。   As described above, since there is a certain distance between the effective ray range 113a of the triangular prism 110a and the effective ray range 113b of the triangular prism 110b, the S-polarized image and the P-polarized image captured by the imaging unit 24 are It is formed as an image with parallax. Therefore, the stereo camera 10 can generate a parallax image from an S-polarized image and a P-polarized image having parallax, and calculate the distance to the subject from the parallax image.

また、従来の1つの撮像部と1つの撮像レンズとを2組並列配置させた構成のステレオカメラと比較して、本実施の形態のステレオカメラ10は、撮像部および撮像レンズがそれぞれ1つで構成可能なので低コスト化が図れる。   Compared to a conventional stereo camera in which two sets of one imaging unit and one imaging lens are arranged in parallel, the stereo camera 10 of the present embodiment has one imaging unit and one imaging lens. Since it can be configured, the cost can be reduced.

また、従来の2つの撮像レンズを有するステレオカメラにおいては、各撮像レンズを支持する筐体の温度変化に伴う熱膨張または経年変化等による基線長の変化によって、被写体までの距離の算出に誤差が生じるおそれがある。しかしながら、本実施の形態に係るステレオカメラ10は、撮像レンズを含んだ光学系は1つであるため、光学系を支持する筐体に対して、光学系の熱膨張率は小さく、基線長の変化に伴う被写体までの距離の算出への影響を抑制することができる。すなわち、温度変化または経時変化等に伴う光学系による歪み量の変化、および撮像部の取付位置の変化には影響されずに、高精度な歪み補正が実現可能となる。さらに具体的に説明すると、視差を有する2つの画像が重ね合わさった上で1つの光学系を介して撮像部に結像する構成であるため、温度変化または経時変化により光学系の歪みが生じた場合は、その歪みによる影響は視差を有する2つの画像それぞれに同じように及ぶ。また、同様に、温度変化または経時変化により撮像部の取付位置がずれた場合には、そのずれによって、視差を有する2つの画像が撮像部の受光面上でそれぞれ同じように変化する。その結果、温度変化または経時変化により発生する光学系の歪み量の変化、および撮像部の取付位置の変化には影響されないステレオカメラを得ることができる。   In addition, in a conventional stereo camera having two imaging lenses, there is an error in the calculation of the distance to the subject due to a change in the baseline length due to thermal expansion or aging due to a temperature change of the housing supporting each imaging lens. May occur. However, since the stereo camera 10 according to the present embodiment has one optical system including the imaging lens, the thermal expansion coefficient of the optical system is small with respect to the casing supporting the optical system, and the baseline length is long. The influence on the calculation of the distance to the subject due to the change can be suppressed. That is, highly accurate distortion correction can be realized without being affected by changes in the amount of distortion caused by the optical system accompanying changes in temperature or changes over time, and changes in the mounting position of the imaging unit. More specifically, since the configuration is such that two images having parallax are superimposed and imaged on the imaging unit via one optical system, distortion of the optical system has occurred due to temperature changes or changes over time. In this case, the influence of the distortion extends equally to each of the two images having parallax. Similarly, when the mounting position of the imaging unit is shifted due to temperature change or temporal change, two images having parallax change in the same manner on the light receiving surface of the imaging unit due to the shift. As a result, it is possible to obtain a stereo camera that is not affected by a change in the distortion amount of the optical system caused by a temperature change or a change with time and a change in the mounting position of the imaging unit.

<座標変換処理部の構成および動作>
図7は、処理部における座標変換処理部の構成の一例を示すブロック図である。図8は、座標変換処理部における座標変換データ切替部の動作を示すフローチャートである。図9は、座標変換処理部における座標計算部の構成の一例を示すブロック図である。図10は、座標計算部における初期値演算部および漸化式演算部の動作のタイミングチャートである。図11は、座標変換処理部における読込アドレス計算部の動作を説明する図である。図12は、座標変換処理部におけるインターポレータにおけるバイリニア補間の処理を説明する概念図である。図13は、座標変換処理部における偏光分離処理部の動作を説明する図である。図7〜13を参照しながら、処理部30の座標変換処理部42の構成および動作について詳細に説明する。
<Configuration and operation of coordinate transformation processing unit>
FIG. 7 is a block diagram illustrating an example of the configuration of the coordinate conversion processing unit in the processing unit. FIG. 8 is a flowchart showing the operation of the coordinate conversion data switching unit in the coordinate conversion processing unit. FIG. 9 is a block diagram illustrating an example of the configuration of the coordinate calculation unit in the coordinate conversion processing unit. FIG. 10 is a timing chart of operations of the initial value calculation unit and the recurrence formula calculation unit in the coordinate calculation unit. FIG. 11 is a diagram for explaining the operation of the read address calculation unit in the coordinate conversion processing unit. FIG. 12 is a conceptual diagram illustrating bilinear interpolation processing in the interpolator in the coordinate conversion processing unit. FIG. 13 is a diagram illustrating the operation of the polarization separation processing unit in the coordinate conversion processing unit. The configuration and operation of the coordinate conversion processing unit 42 of the processing unit 30 will be described in detail with reference to FIGS.

図7に示すように、座標変換処理部42は、ラインバッファ200と、書込アドレス計算部201と、XY座標カウンタ202と、出力タイミング生成部203と、X’Y’座標カウンタ204と、座標変換データ切替部205(補正データ切替部)と、座標計算部206と、読込アドレス計算部207と、インターポレータ208と、偏光分離処理部209(分離処理部)とを備えている。   As shown in FIG. 7, the coordinate conversion processing unit 42 includes a line buffer 200, a write address calculation unit 201, an XY coordinate counter 202, an output timing generation unit 203, an X′Y ′ coordinate counter 204, A conversion data switching unit 205 (correction data switching unit), a coordinate calculation unit 206, a read address calculation unit 207, an interpolator 208, and a polarization separation processing unit 209 (separation processing unit) are provided.

ラインバッファ200は、撮像部24によって撮像され、画像処理部41によって各種画像処理が実行された画像(以下、「入力画像」という)の全体のデータ(以下、「入力画像データ」という)のうち所定のデータ量ずつ、一時保持するメモリである。ここで、入力画像データは、具体的には、撮像部24の撮像素子24aの各画素によって検出され、所定の値に変換された画素データの集合体を意味する。ラインバッファ200は、書き込み時、書込アドレス計算部201により計算された書込アドレスaddr_wに基づいて入力画像の画素データを格納する。このとき、ラインバッファ200は、書込アドレス計算部201により計算された書込アドレスaddr_wに基づいて、所定のデータ量より前に格納した画素データが上書きされ、リングバッファのように使用される。ラインバッファ200は、読み込み時、読込アドレス計算部207により計算された読込アドレスaddr_rに基づいて、4つの画素分の画素データがインターポレータ208によって読み込まれる。   The line buffer 200 is the entire data (hereinafter referred to as “input image data”) of an image (hereinafter referred to as “input image”) captured by the imaging unit 24 and subjected to various types of image processing by the image processing unit 41. A memory that temporarily holds a predetermined amount of data. Here, the input image data specifically refers to an aggregate of pixel data detected by each pixel of the image sensor 24a of the imaging unit 24 and converted into a predetermined value. The line buffer 200 stores the pixel data of the input image based on the write address addr_w calculated by the write address calculation unit 201 at the time of writing. At this time, the line buffer 200 is overwritten with pixel data stored before a predetermined amount of data based on the write address addr_w calculated by the write address calculator 201, and is used like a ring buffer. In the line buffer 200, pixel data for four pixels is read by the interpolator 208 based on the read address addr_r calculated by the read address calculator 207 at the time of reading.

書込アドレス計算部201は、入力画像データに同期する入力同期信号に基づいて、書込アドレスaddr_wをインクリメントし、入力画像の画素データをラインバッファ200に書き込むための書込アドレスaddr_wを計算して指定する。書込アドレス計算部201は、計算した書込アドレスaddr_wをラインバッファ200と読込アドレス計算部207とに渡す。   The write address calculation unit 201 increments the write address addr_w based on the input synchronization signal synchronized with the input image data, and calculates the write address addr_w for writing the pixel data of the input image to the line buffer 200. specify. The write address calculation unit 201 passes the calculated write address addr_w to the line buffer 200 and the read address calculation unit 207.

XY座標カウンタ202は、入力同期信号に基づいて、現在入力されている入力画像の画素データが、入力画像のどの画素に対応するのか(マトリクス状に配置された撮像素子24aのどの位置に対応するのか)を計算する。すなわち、XY座標カウンタ202は、現在入力されている入力画像の画素データに対応する画素の座標値(X,Y)を計算する。XY座標カウンタ202は、計算した座標値(X,Y)を読込アドレス計算部207に渡す。   Based on the input synchronization signal, the XY coordinate counter 202 corresponds to which pixel of the input image the pixel data of the input image currently input corresponds to (which position of the image sensor 24a arranged in a matrix). ). That is, the XY coordinate counter 202 calculates the coordinate value (X, Y) of the pixel corresponding to the pixel data of the input image currently input. The XY coordinate counter 202 passes the calculated coordinate value (X, Y) to the read address calculation unit 207.

出力タイミング生成部203は、ラインバッファ200に入力画像データのうち所定のデータ量が書き込まれる間、画素データの読み込みを遅延させる出力同期信号を生成する。   The output timing generation unit 203 generates an output synchronization signal that delays the reading of pixel data while a predetermined amount of data of the input image data is written to the line buffer 200.

X’Y’座標カウンタ204は、出力タイミング生成部203によって生成された出力同期信号に基づいて、インターポレータ208によって構築される出力画像の座標値(X’,Y’)を計算する。すなわち、出力画像の座標値(X’,Y’)は、入力画像の座標値(X,Y)に対し、出力タイミング生成部203によって計算される所定の処理遅延分だけずれた座標値となる。X’Y’座標カウンタ204は、計算した座標値(X’,Y’)を座標変換データ切替部205と、座標計算部206と、読込アドレス計算部207とに渡す。   The X′Y ′ coordinate counter 204 calculates the coordinate value (X ′, Y ′) of the output image constructed by the interpolator 208 based on the output synchronization signal generated by the output timing generation unit 203. That is, the coordinate value (X ′, Y ′) of the output image becomes a coordinate value that is shifted from the coordinate value (X, Y) of the input image by a predetermined processing delay calculated by the output timing generation unit 203. . The X′Y ′ coordinate counter 204 passes the calculated coordinate values (X ′, Y ′) to the coordinate conversion data switching unit 205, the coordinate calculation unit 206, and the read address calculation unit 207.

座標変換データ切替部205は、出力画像の座標値(X’,Y’)に基づいて、後段の座標計算部206による座標変換処理に用いられる座標変換データとして、S偏光画像用の第1座標変換データ(第1補正データ)を用いるか、P偏光画像用の第2座標変換データ(第2補正データ)を用いるかを切り替える。本実施の形態においては、例えば、入力画像における奇数ライン目がS偏光画像を構成する画素列、偶数ライン目がP偏光画像を構成する画素列として、ラインバッファ200に入力されているため、座標変換データ切替部205は、座標値(X’,Y’)がどのラインを示しているかによって、座標変換データを切り替える。ここで、座標変換データは、後段の座標計算部206により計算される座標移動量(ΔX,ΔY)について、初期値を計算するための高次多項式の係数パラメータであり、ROM33等に格納されている。座標変換データ切替部205は、切り替えた座標変換データを座標計算部206に渡す。   The coordinate conversion data switching unit 205 uses the coordinate values (X ′, Y ′) of the output image as the coordinate conversion data used for the coordinate conversion processing by the subsequent coordinate calculation unit 206, and the first coordinates for the S-polarized image. Switching between using conversion data (first correction data) or using second coordinate conversion data (second correction data) for a P-polarized image is switched. In the present embodiment, for example, the odd-numbered lines in the input image are input to the line buffer 200 as pixel rows that form an S-polarized image, and the even-numbered lines are input to the line buffer 200 as a pixel row that forms a P-polarized image. The conversion data switching unit 205 switches the coordinate conversion data depending on which line the coordinate value (X ′, Y ′) indicates. Here, the coordinate conversion data is a coefficient parameter of a high-order polynomial for calculating an initial value for the coordinate movement amount (ΔX, ΔY) calculated by the subsequent coordinate calculation unit 206, and is stored in the ROM 33 or the like. Yes. The coordinate conversion data switching unit 205 passes the switched coordinate conversion data to the coordinate calculation unit 206.

なお、温度変化または経時変化によってズレが生じた際には、上述の高次多項式の係数である座標変換データはステレオカメラ10内部のCPU32等によって計算し直され、EEPROM等の書き換え可能な不揮発性メモリに保持されるものとすればよい。   When a deviation occurs due to a temperature change or a change over time, the coordinate conversion data which is a coefficient of the above-described higher-order polynomial is recalculated by the CPU 32 or the like inside the stereo camera 10 and is rewritable nonvolatile such as an EEPROM. It may be held in the memory.

ここで、図8を参照しながら、座標変換データ切替部205の動作の詳細について説明する。   Details of the operation of the coordinate conversion data switching unit 205 will be described with reference to FIG.

<<ステップS11>>
座標変換データ切替部205は、X’Y’座標カウンタ204から受けた座標値(X’,Y’)のX座標値X’によって、その座標値(X’,Y’)が画像を構成する各ラインの最初の画素を示す座標値であるか否かを判定する。すなわち、ラインの開始を検出する。そして、座標変換データ切替部205がラインの開始を検出した場合、ステップS12へ進む。なお、ここでは、座標値(X’,Y’)のX座標値X’によって各ラインの最初の画素を示すか否かを判定するものとしたが、これに限定されるものではない。すなわち、座標変換データ切替部205は、出力タイミング生成部203から出力される水平同期信号(Hsync信号)またはラインのデータ有効信号(Line Valid信号)によって、各ラインの最初の画素を示すか否かを判定してもよい。
<< Step S11 >>
The coordinate conversion data switching unit 205 uses the X coordinate value X ′ of the coordinate value (X ′, Y ′) received from the X′Y ′ coordinate counter 204, and the coordinate value (X ′, Y ′) forms an image. It is determined whether or not the coordinate value indicates the first pixel of each line. That is, the start of the line is detected. When the coordinate conversion data switching unit 205 detects the start of a line, the process proceeds to step S12. Here, it is determined whether or not the first pixel of each line is indicated by the X coordinate value X ′ of the coordinate value (X ′, Y ′), but is not limited to this. That is, whether or not the coordinate conversion data switching unit 205 indicates the first pixel of each line by the horizontal synchronization signal (Hsync signal) or the line data valid signal (Line Valid signal) output from the output timing generation unit 203. May be determined.

<<ステップS12>>
座標変換データ切替部205は、座標値(X’,Y’)のY座標値Y’から、座標値(X’,Y’)が示す画素が画像における奇数ライン目であるのか、偶数ライン目であるのかを判定する。奇数ライン目であると判定した場合(ステップS12:Yes)、ステップS13へ進み、偶数ライン目であると判定した場合(ステップS12:No)、ステップS14へ進む。
<< Step S12 >>
The coordinate conversion data switching unit 205 determines from the Y coordinate value Y ′ of the coordinate value (X ′, Y ′) whether the pixel indicated by the coordinate value (X ′, Y ′) is an odd line or an even line in the image. It is determined whether it is. If it is determined that the line is an odd line (step S12: Yes), the process proceeds to step S13. If it is determined that the line is an even line (step S12: No), the process proceeds to step S14.

<<ステップS13>>
座標変換データ切替部205は、座標値(X’,Y’)が示す画素が出力画像の奇数ライン目に属すると判定、すなわち、座標値(X’,Y’)が示す画素がS偏光画像を構成するものと判定し、第1座標変換データを座標計算部206に渡す。そして、座標変換データの切り替え動作を終了する。
<< Step S13 >>
The coordinate conversion data switching unit 205 determines that the pixel indicated by the coordinate value (X ′, Y ′) belongs to the odd line of the output image, that is, the pixel indicated by the coordinate value (X ′, Y ′) is an S-polarized image. And the first coordinate conversion data is passed to the coordinate calculation unit 206. Then, the coordinate conversion data switching operation ends.

<<ステップS14>>
座標変換データ切替部205は、座標値(X’,Y’)が示す画素が出力画像の偶数ライン目に属すると判定、すなわち、座標値(X’,Y’)が示す画素がP偏光画像を構成するものと判定し、第2座標変換データを座標計算部206に渡す。そして、座標変換データの切り替え動作を終了する。
<< Step S14 >>
The coordinate conversion data switching unit 205 determines that the pixel indicated by the coordinate value (X ′, Y ′) belongs to the even line of the output image, that is, the pixel indicated by the coordinate value (X ′, Y ′) is a P-polarized image. And the second coordinate conversion data is passed to the coordinate calculation unit 206. Then, the coordinate conversion data switching operation ends.

以上のように、座標変換データ切替部205は、座標計算部206による座標変換処理に用いる座標変換データを、ライン毎に切り替える。   As described above, the coordinate conversion data switching unit 205 switches the coordinate conversion data used for the coordinate conversion processing by the coordinate calculation unit 206 for each line.

座標計算部206は、高次多項式および漸化式を用いて、入力画像に対する歪み補正をするために画素単位に座標変換処理を実行する。具体的には、座標計算部206は、出力画像において座標値(X’,Y’)(座標変換先の画素の座標値)で示される画素に対する入力画像における画素の座標値(座標変換元の画素の座標値)の座標移動量(ΔX,ΔY)を計算する。つまり、座標計算部206は、歪み補正するための座標変換量を計算する。座標計算部206は、計算した座標移動量(ΔX,ΔY)を読込アドレス計算部207に渡す。   The coordinate calculation unit 206 performs a coordinate conversion process on a pixel basis in order to perform distortion correction on the input image using a high-order polynomial and a recurrence formula. Specifically, the coordinate calculation unit 206 outputs the coordinate value of the pixel in the input image (the coordinate conversion source) to the pixel indicated by the coordinate value (X ′, Y ′) (the coordinate value of the coordinate conversion destination pixel) in the output image. The coordinate movement amount (ΔX, ΔY) of the pixel coordinate value) is calculated. That is, the coordinate calculation unit 206 calculates a coordinate conversion amount for correcting distortion. The coordinate calculation unit 206 passes the calculated coordinate movement amount (ΔX, ΔY) to the read address calculation unit 207.

ここで、図9および10を参照しながら、座標計算部206のブロック構成および各処理部の動作について説明する。図9に示すように、座標計算部206は、初期値演算部220と、漸化式演算部221とを備えている。   Here, the block configuration of the coordinate calculation unit 206 and the operation of each processing unit will be described with reference to FIGS. 9 and 10. As shown in FIG. 9, the coordinate calculation unit 206 includes an initial value calculation unit 220 and a recurrence formula calculation unit 221.

初期値演算部220は、出力同期信号に基づいて、入力画像の最大補正量に対する補正割合に応じて変化させた係数による高次多項式により、後述する漸化式に用いる初期値を、入力画像の主走査方向(撮像素子24aによりS偏光成分またはP偏光成分を検出する画素列の方向)のラインごとに演算する。ここで、初期値演算部220は、座標値(X’,Y’)がS偏光画像を構成する画素列に属する画素である場合、座標変換データ切替部205から上述の係数として第1座標変換パラメータを受け取る。また、初期値演算部220は、座標値(X’,Y’)がP偏光画像を構成する画素列に属する画素である場合、座標変換データ切替部205から上述の係数として第2座標変換パラメータを受け取る。   The initial value calculation unit 220 calculates an initial value used in a recurrence formula (to be described later) of the input image by a high-order polynomial based on a coefficient that is changed according to the correction ratio with respect to the maximum correction amount of the input image based on the output synchronization signal. The calculation is performed for each line in the main scanning direction (the direction of the pixel column in which the S-polarized component or the P-polarized component is detected by the image sensor 24a). Here, when the coordinate value (X ′, Y ′) is a pixel belonging to the pixel column constituting the S-polarized image, the initial value calculation unit 220 receives the first coordinate conversion from the coordinate conversion data switching unit 205 as the above coefficient. Receive parameters. In addition, when the coordinate value (X ′, Y ′) is a pixel belonging to the pixel column constituting the P-polarized image, the initial value calculation unit 220 receives the second coordinate conversion parameter from the coordinate conversion data switching unit 205 as the above-described coefficient. Receive.

具体的には、初期値演算部220は、座標変換データ切替部205から受け取った係数を用いた高次多項式である下記の式(1)により、Y座標値Y’に対応するX軸(主走査方向)のライン上において、左端の3画素分の補正値を求める。   Specifically, the initial value calculation unit 220 uses the following equation (1), which is a high-order polynomial using the coefficient received from the coordinate conversion data switching unit 205, to determine the X axis (main On the line in the scanning direction), correction values for the leftmost three pixels are obtained.

f(x)=cx(3)×X^2+cx(4)×X×Y+cx(5)×Y^2+cx(1)×X+cx(2)×Y+cx(0) (1)
x:1〜3(3画素分の繰り返し回数)
X:X座標
Y:Y座標
cx(0)〜cx(5):高次多項式の係数
^:べき乗
f (x) = cx (3) * X ^ 2 + cx (4) * X * Y + cx (5) * Y ^ 2 + cx (1) * X + cx (2) * Y + cx (0) (1)
x: 1 to 3 (number of repetitions for 3 pixels)
X: X coordinate Y: Y coordinate cx (0) to cx (5): coefficient of higher order polynomial ^: power

次に、初期値演算部220は、式(1)により演算した3画素分の補正量f(1)〜f(3)を用いて、下記の式(2)〜式(4)により、後述する漸化式の初期値(Y座標Y’での初期値)を求める。   Next, the initial value calculation unit 220 uses the correction amounts f (1) to f (3) for three pixels calculated by the equation (1), and uses the following equations (2) to (4) to describe later. The initial value (initial value at Y coordinate Y ′) of the recurrence formula is obtained.

d0(1)=f(1) (2)
d1(1)=f(2)−f(1) (3)
d2=f(3)−2×f(2)+f(1) (4)
d0(1),d1(1),d2:漸化式の初期値
d0 (1) = f (1) (2)
d1 (1) = f (2) -f (1) (3)
d2 = f (3) −2 × f (2) + f (1) (4)
d0 (1), d1 (1), d2: initial value of the recurrence formula

そして、初期値演算部220は、式(2)〜式(4)により演算して求めた、初期値d0(1)、d1(1)、d2を漸化式演算部221に渡す。なお、上述のように初期値演算部220が用いる式(1)に示す高次多項式は、二次多項式として示したが、これに限定されるものではなく、より高次(三次以上)の多項式を用いてもよい。   Then, the initial value calculation unit 220 passes the initial values d0 (1), d1 (1), and d2 obtained by calculation using the equations (2) to (4) to the recurrence equation calculation unit 221. Note that the high-order polynomial shown in the equation (1) used by the initial value calculation unit 220 as described above is shown as a second-order polynomial, but is not limited to this, and is a higher-order (third-order or higher) polynomial. May be used.

漸化式演算部221は、出力同期信号に基づいて、初期値演算部220で演算された初期値d0(1)、d1(1)、d2を用いて、下記の式(5)および式(6)に示すニュートン前進差分法の基づく漸化式により、座標変換処理のための座標変換量を、主走査方向のライン上の左端から画素ごとに逐次演算する。   The recurrence equation calculation unit 221 uses the initial values d0 (1), d1 (1), and d2 calculated by the initial value calculation unit 220 based on the output synchronization signal, and uses the following equations (5) and ( The coordinate transformation amount for the coordinate transformation process is sequentially calculated for each pixel from the left end on the line in the main scanning direction by the recurrence formula based on the Newton forward difference method shown in 6).

d0(n+1)=d0(n)+d1(n) (5)
d1(n+1)=d1(n)+d2 (6)
d0(n):座標変換量
n:ライン上の画素において左端から何番目かを示す(1〜n)
d0 (n + 1) = d0 (n) + d1 (n) (5)
d1 (n + 1) = d1 (n) + d2 (6)
d0 (n): Coordinate conversion amount n: Indicates the number of pixels on the line from the left end (1 to n)

漸化式演算部221は、式(5)および式(6)に示す漸化式により演算したd0(n)を、出力画像における座標値(X’,Y’)に対する入力画像における画素の座標値のX座標についての座標移動量ΔXとする。   The recurrence formula calculation unit 221 calculates the coordinates of the pixel in the input image with respect to the coordinate value (X ′, Y ′) in the output image by using d0 (n) calculated by the recurrence formula shown in the formulas (5) and (6). The coordinate movement amount ΔX with respect to the X coordinate of the value is set.

同様に、初期値演算部220は、出力同期信号に基づいて、入力画像の最大補正量に対する補正割合に応じて変化させた係数による高次多項式により、漸化式に用いる初期値を、入力画像の副走査方向(主走査方向と直交する方向)のラインごとに演算する。具体的には、初期値演算部220は、高次多項式により、X座標値X’に対応するY軸(副走査方向)のライン上において、上端の3画素分の補正値を求める。   Similarly, the initial value calculation unit 220 uses the high-order polynomial with a coefficient changed according to the correction ratio with respect to the maximum correction amount of the input image based on the output synchronization signal, and sets the initial value used in the recurrence formula as the input image. For each line in the sub-scanning direction (direction perpendicular to the main scanning direction). Specifically, the initial value calculation unit 220 obtains correction values for the top three pixels on the Y-axis (sub-scanning direction) line corresponding to the X coordinate value X ′ by a high-order polynomial.

次に、初期値演算部220は、高次多項式により演算した3画素分の補正量を用いて、上述の式(2)〜式(4)により、漸化式の初期値(X座標X’での初期値)を求める。そして、初期値演算部220は、式(2)〜式(4)により演算して求めた、初期値d0(1)、d1(1)、d2を漸化式演算部221に渡す。   Next, the initial value calculation unit 220 uses the correction amount for three pixels calculated by a high-order polynomial, and the initial value (X coordinate X ′ ′) of the recurrence formula using the above formulas (2) to (4). (Initial value at). Then, the initial value calculation unit 220 passes the initial values d0 (1), d1 (1), and d2 obtained by calculation using the equations (2) to (4) to the recurrence equation calculation unit 221.

漸化式演算部221は、出力同期信号に基づいて、初期値演算部220で演算された初期値d0(1)、d1(1)、d2を用いて、上述の式(5)および式(6)に示す漸化式により、座標変換処理のための座標変換量を、副走査方向のライン上の上端から画素ごとに逐次演算する。漸化式演算部221は、式(5)および式(6)に示す漸化式により演算したd0(n)を、出力画像における座標値(X’,Y’)に対する入力画像における画素の座標値のY座標についての座標移動量ΔYとする。   The recurrence formula calculation unit 221 uses the initial values d0 (1), d1 (1), and d2 calculated by the initial value calculation unit 220 based on the output synchronization signal, and uses the above formulas (5) and ( The coordinate transformation amount for the coordinate transformation process is sequentially calculated for each pixel from the upper end on the line in the sub-scanning direction by the recurrence formula shown in 6). The recurrence formula calculation unit 221 calculates the coordinates of the pixel in the input image with respect to the coordinate value (X ′, Y ′) in the output image by using d0 (n) calculated by the recurrence formula shown in the formulas (5) and (6). The coordinate movement amount ΔY about the Y coordinate of the value is assumed.

以上のような動作によって、座標計算部206は、出力画像における座標値(X’,Y’)(座標変換先の画素の座標値)に対する入力画像における画素の座標値(座標変換元の画素の座標値)の座標移動量(ΔX,ΔY)を計算し、読込アドレス計算部207に渡す。   Through the operation as described above, the coordinate calculation unit 206 causes the coordinate value of the pixel in the input image (the coordinate value of the pixel as the coordinate conversion source) to the coordinate value (X ′, Y ′) (the coordinate value of the pixel as the coordinate conversion destination) in the output image. The coordinate movement amount (ΔX, ΔY) of (coordinate value) is calculated and passed to the read address calculation unit 207.

次に、図10を参照しながら、座標計算部206の初期値演算部220および漸化式演算部221が、パイプライン処理によってそれぞれ初期値の演算および漸化式による演算を実行する動作について説明する。   Next, with reference to FIG. 10, an operation in which the initial value calculation unit 220 and the recurrence formula calculation unit 221 of the coordinate calculation unit 206 execute an initial value calculation and a recurrence formula calculation by pipeline processing, respectively, will be described. To do.

初期値演算部220は、出力同期信号のタイミングに合わせて、主走査方向の1ラインごとに漸化式の初期値を演算し、演算した初期値を漸化式演算部221へと渡す。漸化式演算部221は、受け取った初期値によって、主走査方向の1ラインにおける画素ごとに漸化式によって座標移動量を演算する。つまり、漸化式演算部221は、初期値演算部220により演算された初期値を漸化式の演算に反映して、座標移動量(ΔX,ΔY)(画素ごとの座標移動量)を演算する。   The initial value calculation unit 220 calculates the initial value of the recurrence formula for each line in the main scanning direction in accordance with the timing of the output synchronization signal, and passes the calculated initial value to the recurrence formula calculation unit 221. The recurrence formula computing unit 221 computes the coordinate movement amount by the recurrence formula for each pixel in one line in the main scanning direction based on the received initial value. That is, the recurrence formula calculation unit 221 calculates the coordinate movement amount (ΔX, ΔY) (coordinate movement amount for each pixel) by reflecting the initial value calculated by the initial value calculation unit 220 in the recurrence formula calculation. To do.

以上のような初期値演算部220及び漸化式演算部221の演算処理を、図10に示すように、パイプライン処理によって並行に実行させる。具体的には、漸化式演算部221が、主走査方向のnライン上の座標移動量を求めている間に、初期値演算部220が、主走査方向のn+1ラインにおける漸化式の初期値を求める。このような、漸化式演算部221による漸化式の演算処理は、初期値演算部220による初期値の演算処理より1ライン遅延して実行されることにより、パイプライン処理が可能となり、座標計算部206による座標変換処理の高速化が図れる。   The calculation processing of the initial value calculation unit 220 and the recurrence formula calculation unit 221 as described above is executed in parallel by pipeline processing as shown in FIG. Specifically, while the recurrence formula calculating unit 221 calculates the coordinate movement amount on the n line in the main scanning direction, the initial value calculating unit 220 sets the initial recurrence formula in the n + 1 line in the main scanning direction. Find the value. Such a recursive equation calculation process by the recursive equation calculation unit 221 is executed with a delay of one line from the initial value calculation process by the initial value calculation unit 220, thereby enabling pipeline processing and coordinates. The speed of coordinate conversion processing by the calculation unit 206 can be increased.

なお、上述した座標計算部206の座標変換処理を以下のように実現してもよい。例えば、初期値演算部220は、上述の式(1)に示すように乗算処理を含む演算を実行するため、処理は複雑ではあるものの、1ラインにおける3画素分の演算処理(3回の演算処理)を実行すればよいので、演算時間に余裕がある。一方、漸化式演算部221は、上述の式(5)および式(6)に示すように加算処理による演算を実行するため、処理は単純ではあるものの、1ラインのすべての画素ごとに演算処理を実行するため、演算時間に余裕がない。このことから、座標計算部206は、初期値演算部220の演算処理機能を、プログラム等のソフトウェアによって実現し、漸化式演算部221の演算処理機能を、ハードウェア回路によって実現するのが好適である。この場合、初期値演算部220の演算処理機能を実現するプログラムは、ROM33等の記憶装置に予め組み込んで提供される。プログラムは、初期値演算部220の演算処理機能を含むモジュール構成となっており、CPU32がROM33からプログラムを読み出して実行することにより、RAM34上にロードされ、初期値演算部220がRAM34上に生成される。   Note that the coordinate conversion processing of the coordinate calculation unit 206 described above may be realized as follows. For example, since the initial value calculation unit 220 executes a calculation including a multiplication process as shown in the above equation (1), although the process is complicated, the calculation process for three pixels in one line (three calculations) The processing time can be afforded. On the other hand, since the recurrence formula calculation unit 221 executes the calculation by addition processing as shown in the above formulas (5) and (6), although the processing is simple, the calculation is performed for every pixel in one line. Since the process is executed, there is no allowance for calculation time. Therefore, it is preferable that the coordinate calculation unit 206 realizes the calculation processing function of the initial value calculation unit 220 by software such as a program, and realizes the calculation processing function of the recurrence formula calculation unit 221 by a hardware circuit. It is. In this case, a program for realizing the calculation processing function of the initial value calculation unit 220 is provided by being incorporated in advance in a storage device such as the ROM 33. The program has a module configuration including the calculation processing function of the initial value calculation unit 220. When the CPU 32 reads the program from the ROM 33 and executes it, the program is loaded on the RAM 34, and the initial value calculation unit 220 is generated on the RAM 34. Is done.

読込アドレス計算部207は、書込アドレス計算部201より受け取った書込アドレスaddr_w、XY座標カウンタ202より受け取った座標値(X,Y)、X’Y’座標カウンタ204より受け取った座標値(X’,Y’)、および座標計算部206より受け取った座標移動量(ΔX,ΔY)に基づいて、ラインバッファ200に対する読込アドレスaddr_rを演算する。   The read address calculation unit 207 receives the write address addr_w received from the write address calculation unit 201, the coordinate values (X, Y) received from the XY coordinate counter 202, and the coordinate values received from the X′Y ′ coordinate counter 204 (X ', Y') and the coordinate movement amount (ΔX, ΔY) received from the coordinate calculation unit 206, the read address addr_r for the line buffer 200 is calculated.

ここで、前述のように、座標変換処理部42に入力される入力画像は、入射部21aより入射した光によるS偏光画像と、入射部21bより入射した光によるP偏光画像とが、ライン毎に交互に配置されて構成されている。S偏光画像は、光学系22のうち三角柱プリズム110a、クロスプリズム100および撮像レンズ114を透過することによる歪みを有している。一方、P偏光画像は、光学系22のうち三角柱プリズム110b、クロスプリズム100および撮像レンズ114を透過することによる歪みを有している。さらに、S偏光画像およびP偏光画像は、視差を有する画像である。そのため、読込アドレス計算部207が座標計算部206により演算された座標移動量(ΔX,ΔY)をそのまま使用すると、S偏光画像の歪み補正にP偏光画像を構成する画素の画素データを参照してしまったり、P偏光画像の歪み補正にS偏光画像を構成する画素の画素データを参照してしまったりするおそれがある。そのため、読込アドレス計算部207は、読込アドレスaddr_rを演算するために、S偏光画像の歪み補正のためにはS偏光画像を構成する画素の画素データのみを参照し、P偏光画像の歪み補正のためにはP偏光画像を構成する画素の画素データのみを参照するように座標移動量(ΔX,ΔY)を調整する必要がある。   Here, as described above, the input image input to the coordinate transformation processing unit 42 includes an S-polarized image by light incident from the incident unit 21a and a P-polarized image by light incident from the incident unit 21b for each line. Are arranged alternately. The S-polarized image has distortion due to transmission through the triangular prism 110a, the cross prism 100, and the imaging lens 114 in the optical system 22. On the other hand, the P-polarized image has distortion due to transmission through the triangular prism 110 b, the cross prism 100 and the imaging lens 114 in the optical system 22. Furthermore, the S-polarized image and the P-polarized image are images having parallax. Therefore, when the read address calculation unit 207 uses the coordinate movement amount (ΔX, ΔY) calculated by the coordinate calculation unit 206 as it is, the pixel data of the pixels constituting the P-polarized image is referred to for distortion correction of the S-polarized image. There is a risk that the pixel data of the pixels constituting the S-polarized image may be referred to for correcting the distortion of the P-polarized image. Therefore, the read address calculation unit 207 refers to only pixel data of pixels constituting the S-polarized image for distortion correction of the S-polarized image and calculates distortion of the P-polarized image in order to calculate the read address addr_r. For this purpose, it is necessary to adjust the coordinate movement amounts (ΔX, ΔY) so as to refer only to the pixel data of the pixels constituting the P-polarized image.

図11(a)は、座標計算部206によって求められた座標移動量(ΔX,ΔY)が(−5.2,−4.5)である場合を示している。すなわち、入力画像における変換元座標310aは、出力画像300において座標値(X’,Y’)で示される出力画素301の座標に対してX方向に5.2画素、Y方向に4.5画素ずれていることを示している。逆に、出力画像300における出力画素301の座標は、入力画像における変換元座標310aに対して座標移動量(ΔX,ΔY)=(−5.2,−4.5)だけずれていることを示している。ただし、実際には、座標移動量(ΔX,ΔY)は、小数部を含む値なので、小数部を切り捨てた移動量(−5,−4)とし、出力画素301は、入力画像における変換元画素302aに対して移動量(−5,−4)だけずれている。図11においては、出力画像300上に、説明の便宜上、入力画像における変換元画素(図11(a)においては変換元画素302a、図11(b)においては変換元画素302b)を示している。   FIG. 11A shows a case where the amount of coordinate movement (ΔX, ΔY) obtained by the coordinate calculation unit 206 is (−5.2, −4.5). That is, the transformation source coordinates 310a in the input image are 5.2 pixels in the X direction and 4.5 pixels in the Y direction with respect to the coordinates of the output pixel 301 indicated by the coordinate value (X ′, Y ′) in the output image 300. It shows that it has shifted. On the other hand, the coordinates of the output pixel 301 in the output image 300 are shifted by the coordinate movement amount (ΔX, ΔY) = (− 5.2, −4.5) with respect to the conversion source coordinate 310a in the input image. Show. However, in actuality, the coordinate movement amount (ΔX, ΔY) is a value including a decimal part, so the movement amount (−5, −4) is obtained by discarding the decimal part, and the output pixel 301 is a conversion source pixel in the input image. It is shifted by a moving amount (−5, −4) with respect to 302a. In FIG. 11, on the output image 300, for convenience of explanation, a conversion source pixel in the input image (a conversion source pixel 302a in FIG. 11A and a conversion source pixel 302b in FIG. 11B) is shown. .

図11(b)は、座標計算部206によって求められた座標移動量(ΔX,ΔY)が(−5.2,−3.7)である場合を示している。すなわち、入力画像における変換元座標310bは、出力画像300において座標値(X’,Y’)で示される出力画素301の座標に対してX方向に5.2画素、Y方向に3.7画素ずれていることを示している。逆に、出力画像300における出力画素301の座標は、入力画像における変換元座標310bに対して座標移動量(ΔX,ΔY)=(−5.2,−3.7)だけずれていることを示している。ここで、同様に、座標移動量(ΔX,ΔY)は、小数部を含む値なので、小数部を切り捨てた移動量(−5,−3)とし、出力画素301は、入力画像における変換元画素302bに対して移動量(−5,−3)だけずれているものと考える。ただし、この場合、移動量(−5,−3)のY成分は、奇数であるので、出力画素301がS偏光画像の画素であるとすると、変換元画素302bはP偏光画像の画素となってしまう。   FIG. 11B shows a case where the coordinate movement amounts (ΔX, ΔY) obtained by the coordinate calculation unit 206 are (−5.2, −3.7). That is, the transformation source coordinates 310b in the input image are 5.2 pixels in the X direction and 3.7 pixels in the Y direction with respect to the coordinates of the output pixel 301 indicated by the coordinate value (X ′, Y ′) in the output image 300. It shows that it has shifted. Conversely, the coordinates of the output pixel 301 in the output image 300 are shifted by the coordinate movement amount (ΔX, ΔY) = (− 5.2, −3.7) with respect to the conversion source coordinate 310b in the input image. Show. Similarly, since the coordinate movement amount (ΔX, ΔY) is a value including a decimal part, the movement amount (−5, −3) is obtained by discarding the decimal part, and the output pixel 301 is a conversion source pixel in the input image. It is considered that the movement amount is shifted by (−5, −3) with respect to 302b. However, in this case, since the Y component of the movement amount (−5, −3) is an odd number, if the output pixel 301 is a pixel of an S-polarized image, the conversion source pixel 302b is a pixel of a P-polarized image. End up.

以上のことから、下記の法則にしたがって、座標移動量(ΔX,ΔY)を座標移動調整量(ΔX’,ΔY’)に変換するものとする。ΔYの整数部が、偶数(0を含む)の場合、ΔY’=ΔYとし、奇数の場合、ΔY’=ΔY+1とする。そして、ΔXについては何も調整せずにΔX’=ΔXとする。   From the above, it is assumed that the coordinate movement amount (ΔX, ΔY) is converted into the coordinate movement adjustment amount (ΔX ′, ΔY ′) according to the following rule. When the integer part of ΔY is an even number (including 0), ΔY ′ = ΔY, and when it is an odd number, ΔY ′ = ΔY + 1. Then, ΔX ′ = ΔX without any adjustment for ΔX.

図11(a)の場合、上述の法則にしたがうと、座標移動量(ΔX,ΔY)と座標移動調整量(ΔX’,ΔY’)とは同一となり、(ΔX’,ΔY’)=(−5.2,−4.5)となる。一方、図11(b)の場合、上述の法則により、座標移動量(ΔX,ΔY)=(−5.2,−3.7)は、座標移動調整量(ΔX’,ΔY’)=(−5.2,−2.7)に調整される。このように、座標移動調整量(ΔX’,ΔY’)を求めることによって、図11(b)に示すように、S偏光画像の画素である変換元画素302bの座標は、座標移動調整量(ΔX’,ΔY’)の整数部だけずれることによって、S偏光画像の画素である出力画像300の座標となる。   In the case of FIG. 11A, according to the above-mentioned law, the coordinate movement amount (ΔX, ΔY) and the coordinate movement adjustment amount (ΔX ′, ΔY ′) are the same, and (ΔX ′, ΔY ′) = (− 5.2, -4.5). On the other hand, in the case of FIG. 11B, the coordinate movement amount (ΔX, ΔY) = (− 5.2, −3.7) is equal to the coordinate movement adjustment amount (ΔX ′, ΔY ′) = ( -5.2, -2.7). Thus, by obtaining the coordinate movement adjustment amounts (ΔX ′, ΔY ′), as shown in FIG. 11B, the coordinates of the conversion source pixel 302b, which is the pixel of the S-polarized image, are converted into the coordinate movement adjustment amount ( The coordinates of the output image 300, which is a pixel of the S-polarized image, are obtained by shifting by an integer part of (ΔX ′, ΔY ′).

以上のことから、座標移動調整量(ΔX’,ΔY’)は、出力画像300における座標値(X’,Y’)で示される出力画素301に対する入力画像における画素(変換元画素302a、302b)の移動量となる。   From the above, the coordinate movement adjustment amounts (ΔX ′, ΔY ′) are the pixels in the input image (conversion source pixels 302a, 302b) with respect to the output pixel 301 indicated by the coordinate values (X ′, Y ′) in the output image 300. The amount of movement.

次に、読込アドレス計算部207は、下記の式(7)により、変換元画素302a、302bの画素データが格納されているラインバッファ200内の読込アドレスaddr_rを演算する。   Next, the read address calculation unit 207 calculates the read address addr_r in the line buffer 200 in which the pixel data of the conversion source pixels 302a and 302b is stored according to the following equation (7).

addr_r=addr_w−(Y−Y’+ΔY’)×Linepix−(X−X’+ΔX’) (7)
addr_r:読込アドレス
addr_w:書込アドレス
X,Y:入力されている入力画像の画素データに対応する画素の座標値
X’,Y’:歪み補正の対象となる出力画像における画素の座標値
ΔX’,ΔY’:入力画像における変換元画素の座標移動調整量
Linepix:1ラインの画素数
addr_r = addr_w− (Y−Y ′ + ΔY ′) × Linepix− (X−X ′ + ΔX ′) (7)
addr_r: read address addr_w: write address X, Y: coordinate value of pixel corresponding to input pixel data of input image X ′, Y ′: coordinate value of pixel in output image targeted for distortion correction ΔX ′ , ΔY ′: Coordinate movement adjustment amount of conversion source pixel in input image Linepix: number of pixels in one line

読込アドレス計算部207は、式(7)により演算した読込アドレスaddr_rをラインバッファ200に渡し、座標移動調整量(ΔX’,ΔY’)(座標移動量(ΔX,ΔY))の小数部のデータをインターポレータ208に渡す。ここで、読込アドレスaddr_rで示される変換元画素(302a、302b)の座標値を(X0,Y0)とおくと、下記の式(8)が成立する。   The read address calculation unit 207 passes the read address addr_r calculated by Expression (7) to the line buffer 200, and data of the decimal part of the coordinate movement adjustment amount (ΔX ′, ΔY ′) (coordinate movement amount (ΔX, ΔY)). Is passed to the interpolator 208. Here, when the coordinate value of the conversion source pixel (302a, 302b) indicated by the read address addr_r is set to (X0, Y0), the following equation (8) is established.

(X0,Y0)=(X’−ΔX’,Y’−ΔY’) (8)   (X0, Y0) = (X′−ΔX ′, Y′−ΔY ′) (8)

ラインバッファ200は、読込アドレス計算部207から受け取った読込アドレスaddr_rおよび変換元画素の座標値(X0,Y0)に基づいて、入力画像における座標値(X0,Y0)、(X0+1,Y0)、(X0,Y0+2)および(X0+1,Y0+2)それぞれで示される変換元画素302a、要素画素303a、304a、305a(図11(b)においては変換元画素302b、要素画素303b、304b、305b)の4つの画素データを読み込んでインターポレータ208に渡す。   Based on the read address addr_r received from the read address calculation unit 207 and the coordinate value (X0, Y0) of the conversion source pixel, the line buffer 200 uses the coordinate values (X0, Y0), (X0 + 1, Y0), ( X0, Y0 + 2) and (X0 + 1, Y0 + 2), the conversion source pixel 302a and the element pixels 303a, 304a, and 305a (in FIG. 11B, the conversion source pixel 302b and the element pixels 303b, 304b, and 305b). Pixel data is read and passed to the interpolator 208.

なお、例えば図11(a)において、変換元画素302a、要素画素303a、304a、305aの位置関係について、変換元画素302aは、図11(a)の紙面視において左上の画素に対応するが、これに限定されるものではない。すなわち、変換元画素302aは、要素画素303a、304a、305aとの位置関係において、左下、右上または右下であってもよい。   For example, in FIG. 11A, regarding the positional relationship between the conversion source pixel 302a and the element pixels 303a, 304a, and 305a, the conversion source pixel 302a corresponds to the upper left pixel in the paper view of FIG. It is not limited to this. That is, the conversion source pixel 302a may be in the lower left, upper right, or lower right in the positional relationship with the element pixels 303a, 304a, and 305a.

インターポレータ208は、ラインバッファ200から受け取った4つの画素データおよび読込アドレス計算部207から受け取った座標移動調整量(ΔX’,ΔY’)(座標移動量(ΔX,ΔY))の小数部のデータに基づいて、バイリニア補間処理を実行し、出力画像を構築する。   The interpolator 208 includes the four pixel data received from the line buffer 200 and the decimal part of the coordinate movement adjustment amount (ΔX ′, ΔY ′) (coordinate movement amount (ΔX, ΔY)) received from the read address calculation unit 207. Based on the data, bilinear interpolation processing is executed to construct an output image.

図12を参照しながら、バイリニア補間処理の詳細について説明する。図11(a)に示すように、座標計算部206によって座標移動量(ΔX,ΔY)=(−5.2,−4.5)が演算されたものとする。また、図11(a)に示すように、変換元画素302a、要素画素303a、304a、305aの画素データをそれぞれD(X0,Y0)、D(X0+1,Y0)、D(X0,Y0+2)およびD(X0+1,Y0+2)とする。なお、変換元画素302aおよび要素画素303aと、要素画素304a、305aとの間にあるP偏光画像の画素は無視するものとする。すなわち、変換元画素302aおよび要素画素303aと、要素画素304a、305aとのY方向の距離は「1」であるものとして考える。さらに、座標移動量(ΔX,ΔY)の小数部のデータのうちX成分である「0.2」をax、Y成分である「0.5」をayとする。   Details of the bilinear interpolation processing will be described with reference to FIG. As shown in FIG. 11A, it is assumed that the coordinate calculation unit 206 calculates the coordinate movement amount (ΔX, ΔY) = (− 5.2, −4.5). Further, as shown in FIG. 11A, the pixel data of the conversion source pixel 302a and the element pixels 303a, 304a, and 305a are respectively represented by D (X0, Y0), D (X0 + 1, Y0), D (X0, Y0 + 2), and Let D (X0 + 1, Y0 + 2). Note that the pixels of the P-polarized image between the conversion source pixel 302a and the element pixel 303a and the element pixels 304a and 305a are ignored. That is, the distance in the Y direction between the conversion source pixel 302a and the element pixel 303a and the element pixels 304a and 305a is assumed to be “1”. Further, in the decimal part of the coordinate movement amount (ΔX, ΔY), “0.2” as the X component is ax, and “0.5” as the Y component is ay.

インターポレータ208は、バイリニア補間処理を示す下記の式(9)により、図12に示す演算対象位置306に対応する部分のデータD(X’,Y’)を演算する。演算対象位置306は、図11(a)に示す変換元座標310aに対応する。   The interpolator 208 calculates the data D (X ′, Y ′) of the portion corresponding to the calculation target position 306 shown in FIG. 12 by the following equation (9) indicating the bilinear interpolation process. The calculation target position 306 corresponds to the conversion source coordinates 310a illustrated in FIG.

D(X’,Y’)=(1−ax)×(1−ay)×D(X0,Y0)
+ax×(1−ay)×D(X0+1,Y0)
+(1−ax)×ay×D(X0,Y0+2)
+ax×ay×D(X0+1,Y0+2) (9)
D (X ′, Y ′) = (1-ax) × (1-ay) × D (X0, Y0)
+ Ax × (1-ay) × D (X0 + 1, Y0)
+ (1-ax) × ay × D (X0, Y0 + 2)
+ Ax × ay × D (X0 + 1, Y0 + 2) (9)

インターポレータ208は、式(9)により演算したデータD(X’,Y’)を出力画像300における出力画素301の画素データとして、偏光分離処理部209に渡す。このようにインターポレータ208によって演算される画素データによって構成される出力画像データが、入力画像データに対して歪み補正処理が実行された画像データとなる。   The interpolator 208 passes the data D (X ′, Y ′) calculated by Expression (9) to the polarization separation processing unit 209 as pixel data of the output pixel 301 in the output image 300. Thus, the output image data constituted by the pixel data calculated by the interpolator 208 becomes image data obtained by executing distortion correction processing on the input image data.

なお、要素画素303a、304a、305aの少なくともいずれかが、入力画像の範囲外となる場合には、これらの画素の画素データを「0」または所定値として扱うものとすればよい。   When at least one of the element pixels 303a, 304a, and 305a falls outside the range of the input image, the pixel data of these pixels may be handled as “0” or a predetermined value.

偏光分離処理部209は、インターポレータ208から受け取った出力画像からS偏光画像(第1出力画像)とP偏光画像(第2出力画像)とに分離する。具体的には、図13に示すように、偏光分離処理部209は、インターポレータ208から受け取った出力画像320のうち、S成分画像領域320aから第1出力画像321aを分離し、P成分画像領域320bから第2出力画像321bを分離する。そして、偏光分離処理部209は、第1出力画像321aのデータである第1出力画像データ、および第2出力画像321bのデータである第2出力画像データを、距離演算部43に渡す。   The polarization separation processing unit 209 separates the output image received from the interpolator 208 into an S-polarized image (first output image) and a P-polarized image (second output image). Specifically, as illustrated in FIG. 13, the polarization separation processing unit 209 separates the first output image 321a from the S component image region 320a in the output image 320 received from the interpolator 208, and generates a P component image. The second output image 321b is separated from the region 320b. Then, the polarization separation processing unit 209 passes the first output image data that is the data of the first output image 321 a and the second output image data that is the data of the second output image 321 b to the distance calculation unit 43.

なお、上述のように、偏光分離処理部209によって出力画像から単に分離された第1出力画像および第2出力画像によって、被写体に対する視差を演算する場合、第1出力画像および第2出力画像におけるY方向の対応する画素列は、1画素分ずれているため、誤差が生じる可能性がある。したがって、偏光分離処理部209は、分離した第1出力画像および第2出力画像において、Y方向の画素列における隣接する画素の間に、その隣接する画素の画素データにより線形補間したデータを挿入することが望ましい。この結果、線形補間された第1出力画像および第2出力画像は、入力画像また出力画像のサイズと同等となり、距離演算部43は、2つの出力画像から、高精度に被写体までの距離を算出することができる。なお、偏光分離処理部209により分離された第1出力画像および第2出力画像において、Y方向の画素列における隣接する画素の間を補間する方法としては、線形補間だけに限定されるものではなく、他の補間処理によるものとしてもよい。   As described above, when the parallax with respect to the subject is calculated based on the first output image and the second output image simply separated from the output image by the polarization separation processing unit 209, Y in the first output image and the second output image is calculated. Since the corresponding pixel column in the direction is shifted by one pixel, an error may occur. Therefore, the polarization separation processing unit 209 inserts data that is linearly interpolated with the pixel data of the adjacent pixels between the adjacent pixels in the pixel column in the Y direction in the separated first output image and second output image. It is desirable. As a result, the linearly interpolated first output image and second output image have the same size as the input image or output image, and the distance calculation unit 43 calculates the distance to the subject with high accuracy from the two output images. can do. In the first output image and the second output image separated by the polarization separation processing unit 209, the method for interpolating between adjacent pixels in the pixel column in the Y direction is not limited to linear interpolation. It is also possible to use other interpolation processing.

<歪み補正処理の全体の流れ>
図14は、第1の実施の形態に係るステレオカメラの全体動作を示すフローチャートである。図14を参照しながら、座標変換処理部42における歪み補正処理の全体動作について説明する。
<Overall flow of distortion correction processing>
FIG. 14 is a flowchart showing the overall operation of the stereo camera according to the first embodiment. The overall operation of the distortion correction processing in the coordinate conversion processing unit 42 will be described with reference to FIG.

<<ステップS21>>
画像入力部20は、ステレオカメラ10の前方からの光を入射して、入射した光を光学系22によってS偏光およびP偏光された光を同時に検出して、1つの画像として撮像する。
<< Step S21 >>
The image input unit 20 receives light from the front of the stereo camera 10, and simultaneously detects the S-polarized light and P-polarized light by the optical system 22 and picks up the light as one image.

<<ステップS22>>
画像処理部41は、画像入力部20により撮像された画像に対して、γ補正等の各種画像処理を実行し、入力画像として座標変換処理部42に渡す。
<< Step S22 >>
The image processing unit 41 performs various types of image processing such as γ correction on the image captured by the image input unit 20 and passes the processed image as an input image to the coordinate conversion processing unit 42.

<<ステップS23>>
座標変換処理部42のラインバッファ200は、画像処理部41からの入力画像のデータ(入力画像データ)のうち所定のデータ量ずつ、一時保持する。また、座標変換処理部42のXY座標カウンタ202は、現在入力されている入力画像の画素データに対応する画素の座標値(X,Y)を計算する。また、座標変換処理部42の出力タイミング生成部203は、ラインバッファ200に入力画像データのうち所定のデータ量が書き込まれる間、画素データの読み込みを遅延させる出力同期信号を生成する。
<< Step S23 >>
The line buffer 200 of the coordinate conversion processing unit 42 temporarily holds a predetermined amount of data among input image data (input image data) from the image processing unit 41. In addition, the XY coordinate counter 202 of the coordinate conversion processing unit 42 calculates the coordinate value (X, Y) of the pixel corresponding to the pixel data of the input image currently input. The output timing generation unit 203 of the coordinate conversion processing unit 42 generates an output synchronization signal that delays the reading of the pixel data while a predetermined amount of data of the input image data is written to the line buffer 200.

<<ステップS24>>
X’Y’座標カウンタ204は、出力タイミング生成部203によって生成された出力同期信号に基づいて、入力画像の画素データが、インターポレータ208によって構築される出力画像のどの画素に対応するのかを示す座標値(X’,Y’)を計算する。
<< Step S24 >>
The X′Y ′ coordinate counter 204 determines which pixel of the output image constructed by the interpolator 208 corresponds to the pixel data of the input image based on the output synchronization signal generated by the output timing generation unit 203. The indicated coordinate value (X ′, Y ′) is calculated.

<<ステップS25>>
座標変換データ切替部205は、出力画像の座標値(X’,Y’)に基づいて、座標計算部206による座標変換処理を、S偏光画像用の第1座標変換データを用いるか、P偏光画像用の第2座標変換データを用いるかを切り替える。
<< Step S25 >>
The coordinate conversion data switching unit 205 uses the first coordinate conversion data for the S-polarized image or the P-polarized light for the coordinate conversion processing by the coordinate calculation unit 206 based on the coordinate values (X ′, Y ′) of the output image. Whether to use the second coordinate conversion data for the image is switched.

<<ステップS26>>
座標計算部206は、座標変換処理として、出力画像において座標値(X’,Y’)で示される出力画素に対する入力画像における画素の座標値(座標変換元の画素の座標値)の座標移動量(ΔX,ΔY)を計算する。
<< Step S26 >>
As the coordinate conversion process, the coordinate calculation unit 206 performs the coordinate movement amount of the pixel coordinate value (coordinate value of the coordinate conversion source pixel) in the input image with respect to the output pixel indicated by the coordinate value (X ′, Y ′) in the output image Calculate (ΔX, ΔY).

<<ステップS27>>
読込アドレス計算部207は、書込アドレス計算部201より受け取った書込アドレスaddr_w、XY座標カウンタ202より受け取った座標値(X,Y)、X’Y’座標カウンタ204より受け取った座標値(X’,Y’)、および座標計算部206より受け取った座標移動量(ΔX,ΔY)に基づいて、ラインバッファ200に対する読込アドレスaddr_rを演算する。
<< Step S27 >>
The read address calculation unit 207 receives the write address addr_w received from the write address calculation unit 201, the coordinate values (X, Y) received from the XY coordinate counter 202, and the coordinate values received from the X′Y ′ coordinate counter 204 (X ', Y') and the coordinate movement amount (ΔX, ΔY) received from the coordinate calculation unit 206, the read address addr_r for the line buffer 200 is calculated.

<<ステップS28>>
ラインバッファ200は、読込アドレスaddr_rおよび変換元画素の座標値(X0,Y0)に基づいて、入力画像における変換元画素、および3つの要素画素の4つの画素データを読み込んでインターポレータ208に渡す。
<< Step S28 >>
The line buffer 200 reads the four pixel data of the conversion source pixel and the three element pixels in the input image based on the read address addr_r and the coordinate value (X0, Y0) of the conversion source pixel and passes them to the interpolator 208. .

<<ステップS29>>
インターポレータ208は、4つの画素データからバイリニア補間処理を実行し、演算したデータを出力画像の画素データとして出力画像を構築し、偏光分離処理部209に渡す。
<< Step S29 >>
The interpolator 208 executes bilinear interpolation processing from the four pixel data, constructs an output image using the calculated data as pixel data of the output image, and passes it to the polarization separation processing unit 209.

<<ステップS30>>
偏光分離処理部209は、インターポレータ208から受け取った出力画像からS偏光画像(第1出力画像)とP偏光画像(第2出力画像)とに分離する。
<< Step S30 >>
The polarization separation processing unit 209 separates the output image received from the interpolator 208 into an S-polarized image (first output image) and a P-polarized image (second output image).

以上のように、本実施の形態に係るステレオカメラ10は、撮像部および撮像レンズがそれぞれ1つで構成可能なので低コスト化が図れる。   As described above, since the stereo camera 10 according to the present embodiment can be configured with one imaging unit and one imaging lens, cost can be reduced.

また、本実施の形態に係るステレオカメラ10は、撮像レンズを含んだ光学系は1つであるため、光学系を支持する筐体に対して、光学系の熱膨張率は小さく、基線長の変化に伴う被写体までの距離の算出への影響を抑制することができる。すなわち、温度変化または経時変化等に伴う光学系による歪み量の変化、および撮像部の取付位置の変化には影響されずに、高精度な歪み補正が実現可能となる。さらに具体的に説明すると、視差を有する2つの画像が重ね合わさった上で1つの光学系を介して撮像部に結像する構成であるため、温度変化または経時変化により光学系の歪みが生じた場合は、その歪みによる影響は視差を有する2つの画像それぞれに同じように及ぶ。また、同様に、温度変化または経時変化により撮像部の取付位置がずれた場合には、そのずれによって、視差を有する2つの画像が撮像部の受光面上でそれぞれ同じように変化する。その結果、温度変化または経時変化により発生する光学系の歪み量の変化、および撮像部の取付位置の変化には影響されないステレオカメラを得ることができる。   In addition, since the stereo camera 10 according to the present embodiment has one optical system including the imaging lens, the thermal expansion coefficient of the optical system is small with respect to the casing supporting the optical system, and the baseline length is long. The influence on the calculation of the distance to the subject due to the change can be suppressed. That is, highly accurate distortion correction can be realized without being affected by changes in the amount of distortion caused by the optical system accompanying changes in temperature or changes over time, and changes in the mounting position of the imaging unit. More specifically, since the configuration is such that two images having parallax are superimposed and imaged on the imaging unit via one optical system, distortion of the optical system has occurred due to temperature changes or changes over time. In this case, the influence of the distortion extends equally to each of the two images having parallax. Similarly, when the mounting position of the imaging unit is shifted due to temperature change or temporal change, two images having parallax change in the same manner on the light receiving surface of the imaging unit due to the shift. As a result, it is possible to obtain a stereo camera that is not affected by a change in the distortion amount of the optical system caused by a temperature change or a change with time and a change in the mounting position of the imaging unit.

また、2つの入射部から入射した光を1つの撮像部で撮像して画像を形成し、この画像に含まれるS偏光画像およびP偏光画像それぞれに対応する座標変換データを用いて、それぞれの画像に対して、1つの座標変換処理部で歪み補正をすることができる。したがって、カメラ毎の歪み補正用に2つの座標変換処理部を備えていた従来のステレオカメラと比較して、本実施の形態に係るステレオカメラは、1つの座標変換処理部を備えていればよいので、回路規模を縮小できると共に低コスト化を図ることができる。   Further, the light incident from the two incident portions is picked up by one image pickup portion to form an image, and each image is obtained using coordinate conversion data corresponding to each of the S-polarized image and the P-polarized image included in the image. On the other hand, distortion correction can be performed by one coordinate conversion processing unit. Therefore, the stereo camera according to the present embodiment only needs to include one coordinate conversion processing unit as compared with the conventional stereo camera that includes two coordinate conversion processing units for distortion correction for each camera. Therefore, the circuit scale can be reduced and the cost can be reduced.

<変形例>
図15は、第1の実施の形態の変形例の座標計算部の構成を示すブロック図である。図15を参照しながら、本変形例の座標計算部206aの構成および動作について説明する。第1の実施の形態における座標計算部206は、座標値(X’,Y’)から高次多項式および漸化式を用いて、入力画像に対する歪み補正をするための座標変換処理を実行、すなわち、座標移動量(ΔX,ΔY)を演算した。本変形例の座標計算部206aは、ルックアップテーブル(LUT)を参照することにより、座標移動量(ΔX,ΔY)を演算する。
<Modification>
FIG. 15 is a block diagram illustrating a configuration of a coordinate calculation unit according to a modification of the first embodiment. The configuration and operation of the coordinate calculation unit 206a of this modification will be described with reference to FIG. The coordinate calculation unit 206 according to the first embodiment executes a coordinate conversion process for correcting distortion of an input image using a high-order polynomial and a recurrence formula from the coordinate values (X ′, Y ′), that is, The coordinate movement amount (ΔX, ΔY) was calculated. The coordinate calculation unit 206a according to the present modification calculates coordinate movement amounts (ΔX, ΔY) by referring to a lookup table (LUT).

図15に示すように、座標計算部206aは、LUT参照部222を備えている。LUT参照部222は、出力同期信号に基づいて、座標値(X’,Y’)から一意に定まる座標移動量(ΔX,ΔY)のデータ(LUTデータ)を座標変換データ切替部205から受け取る。LUTデータは、事前に行われるキャリブレーションによって求められており、ステレオカメラ10固有の値となる。座標変換データ切替部205は、ROM33に予め保存されているLUTを参照し、入力した座標値(X’,Y’)から一意に定まる座標移動量(ΔX,ΔY)のデータであるLUTデータをLUT参照部222に渡す。座標計算部206aは、座標変換データ切替部205から受け取った、LUTデータである座標移動量(ΔX,ΔY)を、読込アドレス計算部207に渡す。   As shown in FIG. 15, the coordinate calculation unit 206 a includes an LUT reference unit 222. The LUT reference unit 222 receives data (LUT data) of coordinate movement amounts (ΔX, ΔY) uniquely determined from the coordinate values (X ′, Y ′) based on the output synchronization signal from the coordinate conversion data switching unit 205. The LUT data is obtained by calibration performed in advance, and is a value unique to the stereo camera 10. The coordinate conversion data switching unit 205 refers to the LUT stored in advance in the ROM 33, and reads LUT data that is data of coordinate movement amounts (ΔX, ΔY) uniquely determined from the input coordinate values (X ′, Y ′). The data is passed to the LUT reference unit 222. The coordinate calculation unit 206 a passes the coordinate movement amount (ΔX, ΔY), which is the LUT data, received from the coordinate conversion data switching unit 205 to the read address calculation unit 207.

なお、温度変化または経時変化によってズレが生じた際には、上述のLUTデータはステレオカメラ10内部のCPU32等によって計算し直され、EEPROM等の書き換え可能な不揮発性メモリに保持されるものとすればよい。   When a deviation occurs due to a temperature change or a change with time, the LUT data described above is recalculated by the CPU 32 or the like inside the stereo camera 10 and stored in a rewritable nonvolatile memory such as an EEPROM. That's fine.

このように、座標値(X’,Y’)から一意に定まる座標移動量(ΔX,ΔY)のデータを格納しているLUTを用いることによって、座標計算部206aにおける複雑な演算処理を行う必要がない。したがって、歪み補正処理の高速化を図ることができる。   As described above, it is necessary to perform complicated calculation processing in the coordinate calculation unit 206a by using the LUT storing the data of the coordinate movement amounts (ΔX, ΔY) uniquely determined from the coordinate values (X ′, Y ′). There is no. Accordingly, it is possible to increase the speed of the distortion correction process.

(第2の実施の形態)
第2の実施の形態に係るステレオカメラについて、第1の実施の形態に係るステレオカメラ10の動作と相違する点を中心に説明する。第1の実施の形態においては、ステレオカメラ10は、入射部21aから入射して撮像部24により撮像されるS偏光画像と、入射部21bから入射して撮像部24により撮像されるP偏光画像との2つの画像を用いることによって、被写体の位置情報を取得する動作について説明した。本実施の形態においては、これらの2つの画像から検出される視差によって被写体の位置情報を利用するステレオアプリケーション(以下、「ステレオアプリ」という)の他、2つの入射部21のうちいずれかから入射して撮像された画像のみを用いた単眼アプリケーション(以下、「単眼アプリ」という)を実行する動作について説明する。
(Second Embodiment)
The stereo camera according to the second embodiment will be described focusing on differences from the operation of the stereo camera 10 according to the first embodiment. In the first embodiment, the stereo camera 10 includes an S-polarized image incident from the incident unit 21 a and captured by the imaging unit 24, and a P-polarized image incident from the incident unit 21 b and captured by the imaging unit 24. The operation of acquiring the position information of the subject by using the two images has been described. In the present embodiment, in addition to a stereo application (hereinafter referred to as “stereo application”) that uses position information of a subject based on parallax detected from these two images, it is incident from one of two incident units 21. An operation for executing a monocular application (hereinafter, referred to as “monocular application”) using only the captured image will be described.

ステレオアプリとしては、被写体の位置情報を検出することによって障害物を検知して車両を減速および停止させるためのブレーキ制御アプリケーション等が挙げられる。単眼アプリとしては、白線認識による車線逸脱警報、レーンキープアシスト、標識認識およびヘッドライト配光制御等を実行するアプリケーションが挙げられる。   Examples of the stereo application include a brake control application for detecting an obstacle by detecting position information of a subject to decelerate and stop the vehicle. Examples of the monocular application include applications that execute lane departure warning by white line recognition, lane keeping assist, sign recognition, headlight light distribution control, and the like.

図16は、第2の実施の形態に係るステレオカメラの各種アプリケーションにおける入力画像の使用例を説明する図である。図16を参照しながら、ステレオアプリと単眼アプリとを実行する動作について説明する。入射部21aから入射した光のS偏光成分が撮像部24によって撮像されるS偏光画像を第1入力画像、入射部21bから入射した光のP偏光成分が撮像部24によって撮像されるP偏光画像を第2入力画像というものとする。図16においては、単眼アプリは、例えば、第1入力画像のみを利用するものする。   FIG. 16 is a diagram for explaining an example of using an input image in various applications of the stereo camera according to the second embodiment. The operation of executing the stereo application and the monocular application will be described with reference to FIG. An S-polarized image in which the S-polarized component of light incident from the incident unit 21a is captured by the imaging unit 24 is a first input image, and a P-polarized image in which the P-polarized component of light incident from the incident unit 21b is captured by the imaging unit 24 Is a second input image. In FIG. 16, the monocular application uses only the first input image, for example.

ステレオカメラ10は、第1入力画像および第2入力画像から座標変換処理部42によりそれぞれ生成された第1出力画像および第2出力画像に基づいて、視差を算出してステレオアプリ用の結果情報を生成し、その結果情報を車両制御装置11に送信する。また、ステレオカメラ10は、第1入力画像のみを利用して座標変換処理部42により生成された第1出力画像に基づいて、単眼アプリ用の結果情報を生成し、その結果情報を車両制御装置11に送信する。   The stereo camera 10 calculates parallax based on the first output image and the second output image generated by the coordinate conversion processing unit 42 from the first input image and the second input image, respectively, and obtains result information for the stereo application. The result information is transmitted to the vehicle control device 11. Further, the stereo camera 10 generates result information for the monocular application based on the first output image generated by the coordinate conversion processing unit 42 using only the first input image, and the result information is used as the vehicle control device. 11 to send.

車両制御装置11(図2参照)は、内部のROM等にステレオアプリおよび単眼アプリであるソフトウェアを記憶しており、内部のCPUがROMから各アプリケーションを読み出す。そして、車両制御装置11は、ステレオカメラ10から受信した結果情報を利用して各アプリケーションを実行する。   The vehicle control device 11 (see FIG. 2) stores software that is a stereo application and a monocular application in an internal ROM or the like, and an internal CPU reads each application from the ROM. Then, the vehicle control device 11 executes each application using the result information received from the stereo camera 10.

図16に示すように、車両制御装置11は、例えば100ms間ごとに、第1単眼アプリ、第2単眼アプリおよびステレオアプリを順に実行する場合を考える。この場合、各アプリケーションは、約33ms間で実行される。   As shown in FIG. 16, the vehicle control apparatus 11 considers the case where a 1st monocular application, a 2nd monocular application, and a stereo application are performed in order, for example for every 100 ms. In this case, each application is executed in about 33 ms.

ステレオカメラ10は、上述のように、車両制御装置11においてステレオアプリが実行される場合、第1入力画像および第2入力画像から座標変換処理部42の歪み補正処理によりそれぞれ生成された第1出力画像および第2出力画像に基づいて、視差を算出してステレオアプリ用の結果情報を生成する。   As described above, when the stereo application is executed in the vehicle control device 11, the stereo camera 10 generates the first output respectively generated by the distortion correction processing of the coordinate conversion processing unit 42 from the first input image and the second input image. Based on the image and the second output image, parallax is calculated and result information for the stereo application is generated.

一方、ステレオカメラ10は、車両制御装置11において第1単眼アプリまたは第2単眼アプリが実行される場合、第1入力画像のみから座標変換処理部42の歪み補正処理により第1出力画像が生成され、第1出力画像に基づいて第1単眼アプリ用または第2単眼アプリ用の結果情報を生成する。この場合、ステレオカメラ10は、入射部21bから入射する光に基づいて撮像される第2入力画像は使用せず、第1入力画像のみに対して歪み補正処理を実行する。そのため、座標変換処理部42の座標変換データ切替部205(図7参照)は、車両制御装置11において単1単眼アプリまたは第2単眼アプリが実行されている間、第1入力画像に対して歪み補正処理をするための第1座標変換データを座標計算部206に渡す。   On the other hand, when the first monocular app or the second monocular app is executed in the vehicle control device 11, the stereo camera 10 generates a first output image by the distortion correction processing of the coordinate conversion processing unit 42 from only the first input image. The result information for the first monocular application or the second monocular application is generated based on the first output image. In this case, the stereo camera 10 does not use the second input image captured based on the light incident from the incident unit 21b, and performs the distortion correction process only on the first input image. Therefore, the coordinate conversion data switching unit 205 (see FIG. 7) of the coordinate conversion processing unit 42 distorts the first input image while the monocular single app or the second monocular app is being executed in the vehicle control device 11. The first coordinate conversion data for performing the correction process is passed to the coordinate calculation unit 206.

このように、車両制御装置11において単眼アプリが実行される場合、ステレオカメラ10は、入射部21bから入射する光に基づいて撮像される第2入力画像に対する歪み補正処理等を実行しなくてもよい。したがって、単眼アプリが実行されている期間、座標変換処理部42は補正処理動作をしなくてよいので、消費電力を低減することができる。   As described above, when the monocular application is executed in the vehicle control device 11, the stereo camera 10 does not need to execute a distortion correction process on the second input image captured based on the light incident from the incident unit 21b. Good. Therefore, since the coordinate conversion processing unit 42 does not need to perform the correction processing operation during the period when the monocular application is being executed, power consumption can be reduced.

なお、単眼アプリは、第1入力画像のみを利用するものするものとしていたが、これに限定されるものではなく、入射部21bから入射する光に基づいて撮像される第2入力画像のみを使用するものとしてもよい。   Note that the monocular application uses only the first input image. However, the present invention is not limited to this, and only the second input image captured based on the light incident from the incident unit 21b is used. It is good also as what to do.

1 車両
2 本体
3 車室
10 ステレオカメラ
11 車両制御装置
12 ステアリングホイール
13 ブレーキペダル
20 画像入力部
21a、21b 入射部
22 光学系
23 光学フィルタ
23a フィルタ基板
23b 偏光フィルタ層
23c 充填層
24 撮像部
24a 撮像素子
24b 基板
26 筐体
30 処理部
31 FPGA
32 CPU
33 ROM
34 RAM
41 画像処理部
42 座標変換処理部
43 距離演算部
51 制御部
52 認識処理部
100 クロスプリズム
101a、101b 偏光面
102a、102b 側面
103 出射面
110a、110b 三角柱プリズム
111a、111b 入射面
112a、112b 反射面
113a、113b 光線有効範囲
114 撮像レンズ
120 偏光フィルタ部分
120a S偏光透過領域部分
120b P偏光透過領域部分
130 撮像素子部分
130a 画素
200 ラインバッファ
201 書込アドレス計算部
202 XY座標カウンタ
203 出力タイミング生成部
204 X’Y’座標カウンタ
205 座標変換データ切替部
206、206a 座標計算部
207 読込アドレス計算部
208 インターポレータ
209 偏光分離処理部
220 初期値演算部
221 漸化式演算部
222 LUT参照部
300 出力画像
301 出力画素
302a、302b 変換元画素
303a、303b 要素画素
304a、304b 要素画素
305a、305b 要素画素
306 演算対象位置
310a、310b 変換元座標
320 出力画像
320a S成分画像領域
320b P成分画像領域
321a 第1出力画像
321b 第2出力画像
addr_r 読込アドレス
addr_w 書込アドレス
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Main body 3 Car interior 10 Stereo camera 11 Vehicle control apparatus 12 Steering wheel 13 Brake pedal 20 Image input part 21a, 21b Incident part 22 Optical system 23 Optical filter 23a Filter substrate 23b Polarizing filter layer 23c Filling layer 24 Imaging part 24a Imaging Element 24b Substrate 26 Housing 30 Processing unit 31 FPGA
32 CPU
33 ROM
34 RAM
41 Image processing unit 42 Coordinate conversion processing unit 43 Distance calculation unit 51 Control unit 52 Recognition processing unit 100 Cross prisms 101a and 101b Polarizing surfaces 102a and 102b Side surfaces 103 Outgoing surfaces 110a and 110b Triangular prisms 111a and 111b Incident surfaces 112a and 112b Reflecting surfaces 113a, 113b Effective ray range 114 Imaging lens 120 Polarization filter portion 120a S-polarization transmission region portion 120b P-polarization transmission region portion 130 Imaging element portion 130a Pixel 200 Line buffer 201 Write address calculation unit 202 XY coordinate counter 203 Output timing generation unit 204 X'Y 'coordinate counter 205 Coordinate conversion data switching unit 206, 206a Coordinate calculation unit 207 Read address calculation unit 208 Interpolator 209 Polarization separation processing unit 220 Initial value calculation Unit 221 recursive equation calculation unit 222 LUT reference unit 300 output image 301 output pixel 302a, 302b conversion source pixel 303a, 303b element pixel 304a, 304b element pixel 305a, 305b element pixel 306 calculation target position 310a, 310b conversion source coordinate 320 output Image 320a S component image area 320b P component image area 321a First output image 321b Second output image addr_r read address addr_w write address

特開2010−243463号公報JP 2010-243463 A

Claims (12)

被写体からの光をそれぞれ入射する2つの入射部と、
前記2つの入射部のうち、一方の入射部に入射した第1入射光から第1光成分を抽出し、他方の入射部に入射した第2入射光から第2光成分を抽出し、前記第1光成分と前記第2光成分とを1つの経路に合成する光学系と、
前記第1光成分を透過させる複数の第1透過領域と、前記第2光成分を透過させる複数の第2透過領域と、を有する領域分割部と、
前記領域分割部を透過した前記第1光成分と前記第2光成分とを撮像して1つの入力画像を生成する撮像部と、
前記入力画像に含まれ、かつ、前記第1光成分から生成された第1画像に対して補正するための第1補正データと、前記入力画像に含まれ、かつ、前記第2光成分から生成された第2画像に対して補正するための第2補正データとを切り替えて補正処理を実行し、出力画像を生成する補正処理部と、
を備える撮像装置。
Two incident parts each for receiving light from the subject,
Of the two incident parts, a first light component is extracted from first incident light incident on one incident part, a second light component is extracted from second incident light incident on the other incident part, An optical system that combines one light component and the second light component into one path;
A region dividing section having a plurality of first transmission regions that transmit the first light component and a plurality of second transmission regions that transmit the second light component;
An imaging unit that images the first light component and the second light component that have passed through the region dividing unit to generate one input image;
First correction data for correcting the first image included in the input image and generated from the first light component, and included in the input image and generated from the second light component A correction processing unit that performs a correction process by switching the second correction data for correcting the second image, and generates an output image;
An imaging apparatus comprising:
前記領域分割部は、前記撮像部に配設された複数の画素において1列以上の画素列ごとに対向して前記第1透過領域と前記第2透過領域とが交互に配設された請求項1に記載の撮像装置。   The region dividing unit is configured such that the first transmission region and the second transmission region are alternately arranged to face each other in one or more pixel columns in a plurality of pixels arranged in the imaging unit. The imaging apparatus according to 1. 前記補正処理部は、前記出力画像から、前記第1画像に対して前記補正処理が実行された第1出力画像と、前記第2画像に対して前記補正処理が実行された第2出力画像とを分離して出力する分離処理部を有し、
前記第1出力画像と前記第2出力画像とから前記被写体に対する視差を検出して、前記視差により前記被写体までの距離を演算する距離演算部をさらに備える請求項1または2に記載の撮像装置。
The correction processing unit includes, from the output image, a first output image obtained by performing the correction process on the first image, and a second output image obtained by performing the correction process on the second image. A separation processing unit for separating and outputting
The imaging apparatus according to claim 1, further comprising a distance calculation unit that detects a parallax with respect to the subject from the first output image and the second output image and calculates a distance to the subject based on the parallax.
前記分離処理部は、分離した前記第1出力画像および前記第2出力画像それぞれについて、前記出力画像に対して大きさが縮小した方向において隣接する画素の画素データから線形補間したデータを、前記隣接する画素の画素データの間に挿入して生成した画像を、前記第1出力画像および前記第2出力画像として出力する請求項3に記載の撮像装置。   The separation processing unit, for each of the separated first output image and the second output image, performs linear interpolation on pixel data of pixels adjacent to each other in a direction in which the size of the output image is reduced. The imaging apparatus according to claim 3, wherein an image generated by being inserted between pixel data of pixels to be output is output as the first output image and the second output image. 前記補正処理部は、
前記第1画像について前記補正処理される場合には前記第1補正データを、前記第2画像について前記補正処理される場合には前記第2補正データを切り替えて出力する補正データ処理部と、
前記第1補正データまたは前記第2補正データに基づいて漸化式の初期値を、前記第1画像または前記第2画像における画素列ごとに演算する初期値演算部と、
前記初期値を用いた前記漸化式によって、前記補正処理における前記入力画像の画素から前記出力画像の画素に座標移動させるための座標移動量を演算する漸化式演算部と、
を有する請求項1〜4のいずれか一項に記載の撮像装置。
The correction processing unit
A correction data processing unit that switches and outputs the first correction data when the correction processing is performed on the first image, and the second correction data when the correction processing is performed on the second image;
An initial value calculator that calculates an initial value of a recurrence formula based on the first correction data or the second correction data for each pixel column in the first image or the second image;
A recurrence formula computing unit that computes a coordinate movement amount for moving the coordinates from the pixel of the input image to the pixel of the output image in the correction process by the recurrence formula using the initial value;
The imaging device according to claim 1, wherein:
前記補正処理部は、前記漸化式演算部により演算された前記座標移動量に基づいて座標移動する前の前記入力画像の画素の画素データと、該画素に隣接する複数の画素の画素データとを用いてバイリニア補間処理を実行して算出したデータを、前記座標移動量によって座標移動した前記出力画像の画素の画素データとする補間処理部を有する請求項5に記載の撮像装置。   The correction processing unit includes pixel data of pixels of the input image before coordinate movement based on the coordinate movement amount calculated by the recurrence formula calculation unit, pixel data of a plurality of pixels adjacent to the pixel, and The imaging apparatus according to claim 5, further comprising: an interpolation processing unit that uses the data calculated by executing bilinear interpolation processing using as a pixel data of the pixels of the output image whose coordinates are moved by the coordinate movement amount. 前記補間処理部は、前記隣接する複数の画素のうち、前記入力画像の範囲外に対応する位置となる画素の画素データを所定値であるものとして、前記バイリニア補間処理を実行する請求項6に記載の撮像装置。   The interpolation processing unit performs the bilinear interpolation processing by assuming that pixel data of a pixel corresponding to a position outside the range of the input image among the plurality of adjacent pixels is a predetermined value. The imaging device described. 前記第1光成分は、前記光学系によって前記第1入射光を第1方向に偏光された第1偏光成分であり、
前記第2光成分は、前記光学系によって前記第2入射光を前記第1方向とは異なる第2方向に偏光された第2偏光成分である請求項1〜7のいずれか一項に記載の撮像装置。
The first light component is a first polarization component obtained by polarizing the first incident light in a first direction by the optical system,
8. The second light component is a second polarization component obtained by polarizing the second incident light in a second direction different from the first direction by the optical system. 9. Imaging device.
前記光学系は、前記第1入射光を第1の面に対してS偏光した光を前記第1偏光成分として抽出し、前記第2入射光を第2の面に対してP偏光した光を前記第2偏光成分として抽出する請求項8に記載の撮像装置。   The optical system extracts light obtained by S-polarizing the first incident light with respect to the first surface as the first polarization component, and light obtained by P-polarizing the second incident light with respect to the second surface. The imaging device according to claim 8, wherein the imaging device extracts the second polarization component. 請求項1〜9のいずれか一項に記載の撮像装置と、
前記第1画像と前記第2画像との視差から算出される前記被写体までの距離情報を利用するステレオアプリケーションと、前記第1画像のみまたは前記第2画像のみを利用する単眼アプリケーションとを切り替えて実行する車両制御装置と、
を備える撮像システム。
The imaging device according to any one of claims 1 to 9,
Switch between a stereo application that uses distance information to the subject calculated from the parallax between the first image and the second image, and a monocular application that uses only the first image or only the second image. A vehicle control device,
An imaging system comprising:
請求項1〜9のいずれか一項に記載の撮像装置を搭載した車両。   A vehicle equipped with the imaging device according to claim 1. 請求項10に記載の撮像システムを搭載した車両。   A vehicle equipped with the imaging system according to claim 10.
JP2013173994A 2013-08-23 2013-08-23 Imaging apparatus, imaging system, and vehicle Expired - Fee Related JP6311238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013173994A JP6311238B2 (en) 2013-08-23 2013-08-23 Imaging apparatus, imaging system, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013173994A JP6311238B2 (en) 2013-08-23 2013-08-23 Imaging apparatus, imaging system, and vehicle

Publications (2)

Publication Number Publication Date
JP2015042004A true JP2015042004A (en) 2015-03-02
JP6311238B2 JP6311238B2 (en) 2018-04-18

Family

ID=52695893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013173994A Expired - Fee Related JP6311238B2 (en) 2013-08-23 2013-08-23 Imaging apparatus, imaging system, and vehicle

Country Status (1)

Country Link
JP (1) JP6311238B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016178523A (en) * 2015-03-20 2016-10-06 株式会社リコー Imaging apparatus, imaging method, program, vehicle control system, and vehicle
JP2017072821A (en) * 2015-10-06 2017-04-13 エーエーシー テクノロジーズ ピーティーイー リミテッドAac Technologies Pte.Ltd. Array lens module

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228629A (en) * 2003-01-20 2004-08-12 Sharp Corp Imaging device for three-dimensional parallax image, imaging optical system, and imaging apparatus
JP2007306272A (en) * 2006-05-11 2007-11-22 Toyota Motor Corp Image processor for vehicle
JP2010135966A (en) * 2008-12-03 2010-06-17 Panasonic Electric Works Co Ltd Image signal processor
JP2011078018A (en) * 2009-10-01 2011-04-14 Isuzu Motors Ltd Stereo imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228629A (en) * 2003-01-20 2004-08-12 Sharp Corp Imaging device for three-dimensional parallax image, imaging optical system, and imaging apparatus
JP2007306272A (en) * 2006-05-11 2007-11-22 Toyota Motor Corp Image processor for vehicle
JP2010135966A (en) * 2008-12-03 2010-06-17 Panasonic Electric Works Co Ltd Image signal processor
JP2011078018A (en) * 2009-10-01 2011-04-14 Isuzu Motors Ltd Stereo imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016178523A (en) * 2015-03-20 2016-10-06 株式会社リコー Imaging apparatus, imaging method, program, vehicle control system, and vehicle
JP2017072821A (en) * 2015-10-06 2017-04-13 エーエーシー テクノロジーズ ピーティーイー リミテッドAac Technologies Pte.Ltd. Array lens module

Also Published As

Publication number Publication date
JP6311238B2 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
JP6167525B2 (en) Distance measuring device and vehicle
JP5440927B2 (en) Distance camera device
JP5615441B2 (en) Image processing apparatus and image processing method
JP6202367B2 (en) Image processing device, distance measurement device, mobile device control system, mobile device, and image processing program
JP5273356B2 (en) Compound eye image input device and distance measuring device using the same
US8922626B2 (en) Stereo camera apparatus and method of obtaining image
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
US9414045B2 (en) Stereo camera
JP6035774B2 (en) Image processing apparatus, image processing method, and vehicle
JP6392693B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP2012198077A (en) Stereo camera device and parallax image generating method
JP2011013064A (en) Position detection device
JP3765862B2 (en) Vehicle environment recognition device
JP2014174088A (en) Inspection tool, stereo camera inspection apparatus, and inspection method
US11509813B2 (en) Image processing device
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6311238B2 (en) Imaging apparatus, imaging system, and vehicle
JP3599255B2 (en) Environment recognition device for vehicles
JP2019164318A (en) Video display system, video display method, program, and movable body including video display system
JP6435660B2 (en) Image processing apparatus, image processing method, and device control system
JP2019204393A (en) Image processing device and image processing method
JP2020051903A (en) Stereo camera system and distance measurement method
JP6136748B2 (en) 2D 3D display device
JP6443502B2 (en) Image processing apparatus, photographing apparatus, control system, moving object, and program
JP6999239B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180305

R151 Written notification of patent or utility model registration

Ref document number: 6311238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees