JP2017175206A - Imaging apparatus, on-vehicle camera, and image processing method - Google Patents

Imaging apparatus, on-vehicle camera, and image processing method Download PDF

Info

Publication number
JP2017175206A
JP2017175206A JP2016055926A JP2016055926A JP2017175206A JP 2017175206 A JP2017175206 A JP 2017175206A JP 2016055926 A JP2016055926 A JP 2016055926A JP 2016055926 A JP2016055926 A JP 2016055926A JP 2017175206 A JP2017175206 A JP 2017175206A
Authority
JP
Japan
Prior art keywords
image
optical system
processor
specific value
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016055926A
Other languages
Japanese (ja)
Other versions
JP6571571B2 (en
Inventor
友樹 溝渕
Yuki Mizobuchi
友樹 溝渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016055926A priority Critical patent/JP6571571B2/en
Publication of JP2017175206A publication Critical patent/JP2017175206A/en
Application granted granted Critical
Publication of JP6571571B2 publication Critical patent/JP6571571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of correcting influence of a temperature change without using a temperature sensor, and to provide an on-vehicle camera and an image processing method.SOLUTION: An imaging apparatus includes an optical system 20, an imaging element 31 for capturing a subject imaged through the optical system 20, a processor 40 for extracting a specific value of a predetermined portion from the captured image including the subject, and a memory 30 for storing a reference value to be a reference of the specific value. The processor 40 performs correction or area setting of the image on the basis of a change of the specific value from the reference value. Further, the processor 40 may extract a position of a feature point from the image as a specific value and perform correction or area setting of the image on the basis of a change in the position of the feature point.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、車載カメラおよび画像処理方法に関する。   The present invention relates to an imaging device, an in-vehicle camera, and an image processing method.

従来から、撮像素子を含む電子回路ユニットを有する撮像装置が知られている。近年においては、撮像素子が取得する被写体像を結像するための光学系(レンズ等の光学素子を含む)も含んでパッケージ化された小型の撮像装置が多く使用されている。撮像装置は、例えば車両における運転者の視認を支援する車載カメラや、セキュリティを目的とする監視カメラ等として広く使用されている。   Conventionally, an imaging apparatus having an electronic circuit unit including an imaging element is known. In recent years, a small-sized image pickup apparatus packaged including an optical system (including an optical element such as a lens) for forming a subject image acquired by the image pickup element is often used. Imaging devices are widely used as, for example, in-vehicle cameras that support the driver's visual recognition in vehicles, surveillance cameras for security purposes, and the like.

一般に、撮像装置では、温度変化によってレンズの屈折率変化や熱膨張が発生し光学系の性能に影響を及ぼす。車両等で使用される撮像装置についても、使用環境の温度変化が性能に影響を及ぼす可能性がある。   In general, in an imaging apparatus, a change in the refractive index of a lens or thermal expansion occurs due to a change in temperature, which affects the performance of the optical system. For an imaging device used in a vehicle or the like, a change in temperature in the usage environment may affect performance.

例えば、特許文献1には、温度センサにより測定された温度データに基づいて、光学系の温度変化による歪曲収差の変化を画像データ上で補正することができる画像撮像装置が開示されている。   For example, Patent Document 1 discloses an image pickup apparatus capable of correcting a change in distortion due to a temperature change of an optical system on image data based on temperature data measured by a temperature sensor.

特開2009−225119号公報JP 2009-225119 A

しかし、温度センサを撮像装置に内包することは撮像装置の大型化およびコストの上昇につながる。温度センサを撮像装置外に設けると、測定された温度が必ずしも撮像装置のレンズの温度を反映していないおそれがある。   However, including the temperature sensor in the imaging device leads to an increase in size and cost of the imaging device. If the temperature sensor is provided outside the imaging device, the measured temperature may not necessarily reflect the temperature of the lens of the imaging device.

かかる事情に鑑みてなされた本発明の目的は、温度センサを用いることなく温度変化の影響を補正できる撮像装置、車載カメラおよび画像処理方法を提供することにある。   An object of the present invention made in view of such circumstances is to provide an imaging device, an in-vehicle camera, and an image processing method capable of correcting the influence of a temperature change without using a temperature sensor.

上述した課題を解決すべく、本発明に係る撮像装置は、光学系と、前記光学系を介して結像される被写体を撮像する撮像素子と、前記被写体を含んで撮像された画像から所定の部分の特定値を抽出するプロセッサと、前記特定値の基準となる基準値を記憶するメモリと、を備え、前記プロセッサは、前記基準値からの前記特定値の変化に基づいて前記画像の補正または領域設定を行う。   In order to solve the above-described problem, an imaging apparatus according to the present invention includes an optical system, an imaging element that images a subject imaged via the optical system, and a predetermined image from an image that includes the subject. A processor for extracting a specific value of a part; and a memory for storing a reference value serving as a reference for the specific value, wherein the processor corrects the image based on a change in the specific value from the reference value. Set the area.

また、上述した課題を解決すべく、本発明に係る車載カメラは、光学系と、前記光学系を介して結像される車両の一部を撮像する撮像素子と、前記車両の一部を含んで撮像された画像から所定の部分の特定値を抽出するプロセッサと、前記特定値の基準となる基準値を記憶するメモリと、を備え、前記プロセッサは、前記基準値からの前記特定値の変化に基づいて前記画像の補正または領域設定を行う。   In order to solve the above-described problem, an in-vehicle camera according to the present invention includes an optical system, an imaging element that images a part of a vehicle imaged through the optical system, and a part of the vehicle. A processor for extracting a specific value of a predetermined portion from the image captured in step (b), and a memory for storing a reference value serving as a reference for the specific value, wherein the processor changes the specific value from the reference value. The image is corrected or the area is set based on the above.

また、上述した課題を解決すべく、本発明に係る画像処理方法は、光学系と、撮像素子と、プロセッサと、メモリと、を備える撮像装置が実行する画像処理方法であって、前記撮像素子が、前記光学系を介して結像される被写体を撮像するステップと、前記プロセッサが、前記被写体を含んで撮像された画像から所定の部分の特定値を抽出するステップと、前記メモリが、前記特定値の基準となる基準値を記憶するステップと、前記プロセッサが、前記基準値からの前記特定値の変化に基づいて前記画像の補正または領域設定を行うステップと、を含む。   In order to solve the above-described problem, an image processing method according to the present invention is an image processing method executed by an imaging apparatus including an optical system, an imaging element, a processor, and a memory, and the imaging element Imaging a subject imaged via the optical system, the processor extracting a specific value of a predetermined portion from an image captured including the subject, and the memory Storing a reference value serving as a reference for the specific value, and performing correction or region setting on the image based on a change in the specific value from the reference value.

本発明の実施形態に係る撮像装置、車載カメラおよび画像処理方法によれば、温度センサを用いることなく温度変化の影響を補正できる。   According to the imaging device, the in-vehicle camera, and the image processing method according to the embodiment of the present invention, it is possible to correct the influence of the temperature change without using the temperature sensor.

本発明の第1実施形態に係る撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1実施形態に係る撮像装置を備える車載カメラシステムの構成要素の配置を示す概略図である。It is the schematic which shows arrangement | positioning of the component of a vehicle-mounted camera system provided with the imaging device which concerns on 1st Embodiment of this invention. 図3(A)は光学系の基準となる状態における特徴点の位置を例示する図である。図3(B)は温度変化によって光学系の屈折率変化や熱膨張が生じた場合の特徴点の位置の変化を例示する図である。FIG. 3A is a diagram illustrating the position of the feature point in a state serving as a reference of the optical system. FIG. 3B is a diagram illustrating a change in the position of the feature point when the refractive index change or thermal expansion of the optical system occurs due to the temperature change. 図4(A)〜(C)は第1実施形態における光学系、撮像素子、および画像の切り出し領域の関係を例示する図である。FIGS. 4A to 4C are diagrams illustrating the relationship among the optical system, the image sensor, and the image clipping region in the first embodiment. 本発明の第1実施形態に係る撮像装置の処理を示すフローチャートである。It is a flowchart which shows the process of the imaging device which concerns on 1st Embodiment of this invention. 図6(A)〜(C)は第2実施形態における光学系、撮像素子、および画像の切り出し領域の関係を例示する図である。FIGS. 6A to 6C are diagrams illustrating the relationship among the optical system, the image sensor, and the image cut-out region in the second embodiment. 図7(A)および(B)はマーカーの画像を例示する図である。7A and 7B are diagrams illustrating examples of marker images. 本発明の第2実施形態に係る撮像装置の処理を示すフローチャートである。It is a flowchart which shows the process of the imaging device which concerns on 2nd Embodiment of this invention. 図9(A)はレンズ上のマーカーの変形例を例示する図である。図9(B)はリング状の遮光板を用いる変形例を例示する図である。図9(C)は光軸中心から離れて特徴点が設けられる一例を示す図である。FIG. 9A illustrates a modified example of the marker on the lens. FIG. 9B is a diagram illustrating a modification using a ring-shaped light shielding plate. FIG. 9C is a diagram illustrating an example in which feature points are provided away from the optical axis center.

以下、本発明の実施形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
(撮像装置の概略構成)
図1に示されるように、本実施形態に係る撮像装置10は、光学系20、撮像素子31、メモリ30およびプロセッサ40を備える。本実施形態の撮像装置10は、車両1の後方の周辺画像を撮像するための車載カメラである。車両1は例えば自動車である。
[First Embodiment]
(Schematic configuration of imaging device)
As shown in FIG. 1, the imaging apparatus 10 according to the present embodiment includes an optical system 20, an imaging element 31, a memory 30, and a processor 40. The imaging device 10 according to the present embodiment is an in-vehicle camera for capturing a peripheral image behind the vehicle 1. The vehicle 1 is, for example, an automobile.

ここで、図2の例では、車載カメラシステムは撮像装置10および表示装置50を備える。撮像装置10は例えば魚眼レンズなどの画角の広いレンズを備えており、車両1の周辺領域を広角撮影可能である。本実施形態において、撮像装置10は車両1の外部のバンパー60の上部に固定される。   Here, in the example of FIG. 2, the in-vehicle camera system includes the imaging device 10 and the display device 50. The imaging device 10 includes a lens with a wide angle of view, such as a fisheye lens, and can capture a peripheral region of the vehicle 1 at a wide angle. In the present embodiment, the imaging device 10 is fixed to the upper portion of the bumper 60 outside the vehicle 1.

また、図2に示されるように、撮像装置10からの画像を表示する表示装置50が車両1に搭載される。表示装置50は運転席から視認可能に設けられる。表示装置50は、例えばLCDを含んで構成され、リアルタイムの動画像を表示可能である。表示装置50は、例えば車載ネットワーク(例えばCAN:Controller Area Network等)を用いて車両1の周辺画像を表示してもよい。   Further, as shown in FIG. 2, a display device 50 that displays an image from the imaging device 10 is mounted on the vehicle 1. The display device 50 is provided so as to be visible from the driver's seat. The display device 50 includes, for example, an LCD and can display a real-time moving image. The display device 50 may display a surrounding image of the vehicle 1 using, for example, an in-vehicle network (for example, CAN: Controller Area Network).

再び図1を参照して撮像装置10の構成について説明する。光学系20は被写体を撮像素子31に結像させる。光学系20は、少なくともレンズおよび絞りを備え、被写体像を結像させる。光学系20は画角の広いレンズを備えているため、被写体として車両1の一部、特にバンパー60が撮像素子31に結像する。後述するように、本実施形態に係る撮像装置10では、画像におけるバンパー60上に特徴点(画像における指標となる点)を設けて、光学系20の温度変化の影響を補正する際に用いる。   The configuration of the imaging device 10 will be described with reference to FIG. 1 again. The optical system 20 forms an image of the subject on the image sensor 31. The optical system 20 includes at least a lens and a diaphragm, and forms a subject image. Since the optical system 20 includes a lens with a wide angle of view, a part of the vehicle 1, particularly the bumper 60, forms an image on the image sensor 31 as a subject. As will be described later, in the imaging apparatus 10 according to the present embodiment, a feature point (a point serving as an index in the image) is provided on the bumper 60 in the image and used when correcting the influence of the temperature change of the optical system 20.

撮像素子31は、光学系20の後方に配置され、光学系20を介して受光面上に結像される被写体像を撮像して電気信号に変換して出力する。撮像素子31としては、例えばCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等を用いることができる。撮像装置10は、撮像素子31からの電気信号に基づく画像信号を、後述するプロセッサ40によって撮像装置10の外部に出力する。   The image pickup device 31 is disposed behind the optical system 20, picks up a subject image formed on the light receiving surface via the optical system 20, converts it into an electrical signal, and outputs it. As the image sensor 31, for example, a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS) image sensor, or the like can be used. The imaging device 10 outputs an image signal based on an electrical signal from the imaging element 31 to the outside of the imaging device 10 by a processor 40 described later.

メモリ30は、プロセッサ40が実行する演算および処理で用いられる各種のデータ、演算および処理の結果を記憶する。また、メモリ30は、プロセッサ40が画像取得部21、特定値抽出部22、演算部23、画像処理部26、および画像出力部27として機能するためのプログラムを格納する。また、メモリ30は、プロセッサ40によって切り出された領域の画像データを撮像装置10以外の機器(例えば表示装置50)に出力する際に用いられてもよい。   The memory 30 stores various data used in the calculations and processes executed by the processor 40, and the results of the calculations and processes. In addition, the memory 30 stores a program for the processor 40 to function as the image acquisition unit 21, the specific value extraction unit 22, the calculation unit 23, the image processing unit 26, and the image output unit 27. Further, the memory 30 may be used when outputting image data of an area cut out by the processor 40 to a device (for example, the display device 50) other than the imaging device 10.

プロセッサ40は、画像取得部21と、特定値抽出部22と、演算部23と、画像処理部26と、画像出力部27とを備える。画像取得部21と、特定値抽出部22と、演算部23と、画像処理部26と、画像出力部27は、プロセッサ40で実行される処理の機能ブロックである。また、本実施形態においてプロセッサ40は、特定のプログラムを読み込むことにより特定の機能を実現するCPUである。プロセッサ40は、単一のCPU、または、複数のCPUで構成することも可能である。   The processor 40 includes an image acquisition unit 21, a specific value extraction unit 22, a calculation unit 23, an image processing unit 26, and an image output unit 27. The image acquisition unit 21, the specific value extraction unit 22, the calculation unit 23, the image processing unit 26, and the image output unit 27 are functional blocks of processing executed by the processor 40. In the present embodiment, the processor 40 is a CPU that realizes a specific function by reading a specific program. The processor 40 can be configured by a single CPU or a plurality of CPUs.

画像取得部21は、画像処理部26が必要な処理(例えばノイズ除去、輝度信号処理、および色信号処理等)を実行して、画像出力部27が切り出された領域の画像データを出力できるように、例えば30fpsの周期で画像を取得する。   The image acquisition unit 21 can perform necessary processing (for example, noise removal, luminance signal processing, and color signal processing) by the image processing unit 26, and the image output unit 27 can output image data of the extracted region. For example, an image is acquired at a cycle of 30 fps.

特定値抽出部22は、所定のタイミングで、画像取得部21が取得した画像信号に基づく1フレームの画像から特定値を抽出する。所定のタイミングは例えば車両1のキースイッチがオンになった時である。また、特定値抽出部22は、キースイッチがオンになってから定期的(例えば20分毎等)に1フレームの画像から特定値を抽出してもよい。特定値は、画像に常に含まれる所定の部分と関連付けられた値である。特定値は、例えば所定の部分の位置、長さ、幅、湾曲量(曲率)等である。プロセッサ40は、特定値の変化によって、画像の所定の部分の変位および形状変化の少なくとも一方を把握できる。本実施形態では、特定値は特徴点の位置(例えば二次元の画像におけるxy座標)であって、光学系20の屈折率変化や熱膨張に応じて変化する。また、本実施形態において特定値抽出部22は一つの特徴点の位置を抽出する。特徴点は一つに限らず複数であってもよい。   The specific value extraction unit 22 extracts a specific value from an image of one frame based on the image signal acquired by the image acquisition unit 21 at a predetermined timing. The predetermined timing is, for example, when the key switch of the vehicle 1 is turned on. The specific value extraction unit 22 may extract the specific value from the image of one frame periodically (for example, every 20 minutes) after the key switch is turned on. The specific value is a value associated with a predetermined portion that is always included in the image. The specific value is, for example, the position, length, width, amount of curvature (curvature), or the like of a predetermined portion. The processor 40 can grasp at least one of a displacement and a shape change of a predetermined portion of the image based on the change of the specific value. In the present embodiment, the specific value is the position of a feature point (for example, xy coordinates in a two-dimensional image), and changes according to the refractive index change or thermal expansion of the optical system 20. In the present embodiment, the specific value extraction unit 22 extracts the position of one feature point. The number of feature points is not limited to one and may be plural.

演算部23は、光学系20の屈折率変化や熱膨張を把握するために、基準位置からの特徴点の位置の変化を演算する。本実施形態において、基準位置は光学系20の屈折率変化や熱膨張が生じていない状態における特徴点の位置である。本実施形態において、演算部23は、画像における光学系20の光軸中心が結像する位置から特徴点の位置までの距離を演算し、その距離と基準値との比率を求める。光学系20の光軸中心の位置は、温度により光学系20を構成するレンズの性能変化(例えば屈折率変化、熱膨張等)が生じても変化しないため、光学系20の光軸中心の位置からの距離を演算することで特徴点の位置の変化を求めることができる。本実施形態において、基準値は予め定めた基準の温度における光学系20の光軸中心の位置と特徴点との距離である。基準値は例えば、撮像装置10の出荷時、撮像装置10が車両1に初めて搭載された際の設定時、その後に撮像装置10のキャリブレーションが実行された時等に取得(または更新)されてメモリ30に記憶される。   The calculation unit 23 calculates a change in the position of the feature point from the reference position in order to grasp the refractive index change and thermal expansion of the optical system 20. In the present embodiment, the reference position is the position of the feature point in a state where the refractive index change or thermal expansion of the optical system 20 has not occurred. In the present embodiment, the calculation unit 23 calculates the distance from the position where the optical axis center of the optical system 20 in the image is formed to the position of the feature point, and obtains the ratio between the distance and the reference value. The position of the optical axis center of the optical system 20 does not change even if a change in the performance of the lenses constituting the optical system 20 (for example, refractive index change, thermal expansion, etc.) occurs due to temperature. The change in the position of the feature point can be obtained by calculating the distance from the. In this embodiment, the reference value is the distance between the position of the optical axis center of the optical system 20 and the feature point at a predetermined reference temperature. For example, the reference value is acquired (or updated) when the imaging device 10 is shipped, at the time of setting when the imaging device 10 is first mounted on the vehicle 1, and when the calibration of the imaging device 10 is subsequently executed. Stored in the memory 30.

画像処理部26は、特徴点の位置の変化に基づいて画像の補正または領域設定を行う。本実施形態において領域設定は、画像の切り出しのための領域設定である。画像処理部26は演算部23が求めた上記の比率を用いて画像の切り出しを行う。一般に温度が上昇して光学系20を構成するレンズに性能変化が生じると、光軸を中心として被写体が縮むように結像位置が変動する。そのため、画像処理部26が光学系20を構成するレンズに性能変化が生じる前後で同じように画像の切り出しを行うと撮像範囲が変化してしまう。例えば、リアカメラの光学系20を構成するレンズに性能変化が生じた場合、画像処理部26が切り出し領域を変えることがなければ、サイドカメラの画像と合成して表示装置50で表示する際に不自然な境界がユーザに視認される。そのため、同じ撮像範囲の画像を表示装置50に出力するように、画像処理部26は切り出し領域を調整する。画像処理部26は、さらに画像信号に対して、ノイズ除去、輝度信号処理(例えば明るさ補正、ガンマ補正等)および色信号処理(例えば色補間、色補正、ホワイトバランス等)、その他の補正(歪み補正、湾曲補正)を実行してもよい。   The image processing unit 26 performs image correction or region setting based on the change in the position of the feature point. In the present embodiment, the area setting is an area setting for image clipping. The image processing unit 26 cuts out an image using the above ratio obtained by the calculation unit 23. In general, when the temperature rises and the performance of the lens constituting the optical system 20 changes, the imaging position fluctuates so that the subject shrinks around the optical axis. For this reason, if the image processing unit 26 cuts out the image in the same manner before and after the performance change occurs in the lens constituting the optical system 20, the imaging range changes. For example, when a performance change occurs in the lens constituting the optical system 20 of the rear camera, if the image processing unit 26 does not change the cutout region, it is combined with the image of the side camera and displayed on the display device 50. An unnatural boundary is visually recognized by the user. Therefore, the image processing unit 26 adjusts the cutout region so that an image in the same imaging range is output to the display device 50. The image processing unit 26 further performs noise removal, luminance signal processing (for example, brightness correction, gamma correction, etc.), color signal processing (for example, color interpolation, color correction, white balance, etc.), and other corrections on the image signal (for example). (Distortion correction, curvature correction) may be executed.

画像出力部27は、画像処理部26が補正または切り出しを行った画像を、表示装置50等に出力する。画像出力部27は、周期的に(例えば30fpsで)画像信号を出力してもよい。   The image output unit 27 outputs the image corrected or cut out by the image processing unit 26 to the display device 50 or the like. The image output unit 27 may output an image signal periodically (for example, at 30 fps).

(特徴点の抽出)
図3(A)は光学系20の基準となる状態(すなわち、温度変化による屈折率変化や熱膨張が生じていない状態)における特徴点の位置を例示する図である。図3(A)に示される画像は、例えば撮像装置10が車両1に初めて搭載された際の設定時における、撮像素子31からの画像信号に基づく画像である。このとき、光学系20が備えるレンズの屈折率はnaであるとする。図3(A)に示される画像は、被写体として、実線(紙面右方)と破線(紙面左方)とで区切られた車両1の移動領域(路面)と、バンパー60aとを含む。このうち、バンパー60aは撮像装置10が撮影する画像に常に含まれる。そのため、バンパー60a上に特徴点を設定することができる。本実施形態では、バンパー60aと移動領域との境界と、図3(A)に示される画像の左右の中間線との交点を特徴点62とする。図3(A)における特徴点62の位置が基準位置でありメモリ30に記憶される。また、本実施形態において、画像における光学系20の光軸中心の位置(以下、光軸中心61という)と特徴点62の位置との距離DAが基準値としてメモリ30に記憶される。また、本実施形態において光軸中心61も中間線上に存在する。また、本実施形態では、物理的なマーカーがバンパー60aに付されているのではなく、画像上で特徴点62が設定される。
(Extraction of feature points)
FIG. 3A is a diagram exemplifying the positions of feature points in a reference state of the optical system 20 (that is, a state in which no refractive index change or thermal expansion is caused by a temperature change). The image shown in FIG. 3A is an image based on an image signal from the image sensor 31 at the time of setting when the imaging device 10 is first mounted on the vehicle 1, for example. At this time, it is assumed that the refractive index of the lens provided in the optical system 20 is na. The image shown in FIG. 3A includes, as subjects, a moving region (road surface) of the vehicle 1 divided by a solid line (right side of the paper) and a broken line (left side of the paper), and a bumper 60a. Among these, the bumper 60a is always included in an image captured by the imaging device 10. Therefore, feature points can be set on the bumper 60a. In the present embodiment, the intersection of the boundary between the bumper 60a and the moving region and the left and right intermediate lines of the image shown in FIG. The position of the feature point 62 in FIG. 3A is a reference position and is stored in the memory 30. In the present embodiment, the distance DA between the position of the optical axis center of the optical system 20 in the image (hereinafter referred to as the optical axis center 61) and the position of the feature point 62 is stored in the memory 30 as a reference value. In the present embodiment, the optical axis center 61 also exists on the intermediate line. In this embodiment, a physical marker is not attached to the bumper 60a, but a feature point 62 is set on the image.

図3(B)は温度変化によって光学系20の屈折率変化や熱膨張が生じた場合の特徴点の位置の変化を例示する図である。図3(B)に示される画像は、例えば車両1の走行中に太陽光の影響で撮像装置10の使用環境温度が上昇した時の撮像素子31からの画像信号に基づく画像である。このとき、光学系20が備えるレンズの屈折率はnaではなくnbに変化したとする。この屈折率の変化によって、図3(B)に示される画像のようにバンパー60bの位置が変化する。図3(B)に破線で示すバンパー60aは、図3(A)に示した変化前のバンパー60aと同じものである。つまり、画像全体が光軸中心61に向かって縮んでいる。そのため、特徴点62も図3(A)の基準位置から光軸中心61の方向に移動している。演算部23は、光軸中心61と特徴点62の位置との距離DBを演算して、メモリ30から距離DAを受け取り、距離DBと距離DAとの比率(例えばDB/DAで計算される値)を求める。   FIG. 3B is a diagram illustrating a change in the position of the feature point when the refractive index change or thermal expansion of the optical system 20 occurs due to a temperature change. The image shown in FIG. 3B is an image based on an image signal from the image sensor 31 when the use environment temperature of the imaging device 10 rises due to the influence of sunlight while the vehicle 1 is traveling, for example. At this time, it is assumed that the refractive index of the lens provided in the optical system 20 changes to nb instead of na. Due to this change in the refractive index, the position of the bumper 60b changes as shown in the image of FIG. A bumper 60a indicated by a broken line in FIG. 3B is the same as the bumper 60a before the change shown in FIG. That is, the entire image is contracted toward the optical axis center 61. Therefore, the feature point 62 is also moved in the direction of the optical axis center 61 from the reference position in FIG. The computing unit 23 computes a distance DB between the optical axis center 61 and the position of the feature point 62, receives the distance DA from the memory 30, and a ratio between the distance DB and the distance DA (for example, a value calculated by DB / DA). )

ここで、上記のように、画像処理部26は線形補間によって切り出し領域を調整する。この調整によって、温度変化によるレンズの性能変化の影響(例えば、サイドカメラの画像と合成して表示される際に不自然な境界が生じること等)がユーザに視認されないようにする。ここで、光学系20を構成するレンズは、温度変化によって歪曲収差の影響が生じる可能性がある。例えば、図3(B)でバンパー60aの端部付近の湾曲部分の湾曲量(曲率)とバンパー60bの湾曲量とが異なる可能性がある。画像処理部26は、歪曲収差で歪んだ被写体の形状自体について補正してもよい。例えば、画像処理部26はメモリ30からレンズ28の設計データ(特性テーブル)を読み出して、被写体の形状補正(歪みおよび湾曲の補正)を行ってもよい。設計データは、例えば光軸と入射光とがなす角度に応じて、像が光軸からどれだけ離れて表示されるかを示すものであってもよい。例えば、画像処理部26は光軸中心から所定の距離よりも離れた位置に表示される被写体の形状補正を行ってから、切り出し領域の調整を行ってもよい。また、設計データと特徴点の変化とを対応させることにより、画像処理部26は光学系20の温度を推定してもよい。そして、画像処理部26は推定した温度に基づいて、公知の手法による画像の温度補正を実行してもよい。   Here, as described above, the image processing unit 26 adjusts the cutout region by linear interpolation. By this adjustment, the influence of the lens performance change due to the temperature change (for example, the occurrence of an unnatural boundary when combined with the image of the side camera is displayed) is prevented from being visually recognized by the user. Here, the lens constituting the optical system 20 may be affected by distortion due to a temperature change. For example, in FIG. 3B, the bending amount (curvature) of the curved portion near the end of the bumper 60a may be different from the bending amount of the bumper 60b. The image processing unit 26 may correct the shape of the subject itself distorted by distortion. For example, the image processing unit 26 may read design data (characteristic table) of the lens 28 from the memory 30 and perform shape correction (distortion and curvature correction) of the subject. The design data may indicate how far the image is displayed from the optical axis, for example, according to the angle formed by the optical axis and the incident light. For example, the image processing unit 26 may adjust the cutout region after correcting the shape of the subject displayed at a position away from the optical axis center by a predetermined distance. Further, the image processing unit 26 may estimate the temperature of the optical system 20 by associating the design data with the change of the feature point. Then, the image processing unit 26 may perform image temperature correction by a known method based on the estimated temperature.

図4(A)は光学系20が備えるレンズ28の正面図である。図4(A)のレンズ28の光軸中心61は、図3(A)および(B)で示した光軸中心61に対応する。図4(B)はレンズ28の側面図であって、撮像素子31との位置関係を示すものである。被写体はレンズ28の紙面左方に存在し、撮像素子31に被写体が結像する。ここで、図4(B)の光路Laは屈折率がnaである場合(光学系20に温度変化の影響がない場合)の光の経路を模式的に示すものである。また、図4(B)の光路Lbは屈折率がnbである場合(光学系20に温度変化の影響が生じた場合)の光の経路を模式的に示すものである。図4(B)に示されるように、レンズ28の屈折率がnaからnbへと変化すると、撮像素子31に結像する画像が光軸中心61を中心にして縮むように歪む。図4(C)の大きな太枠は撮像素子31からの画像信号に基づく1フレームの画像を模式的に示している。ただし、撮像素子31に結像する実際の像は倒立像となるが、図4(C)では説明を容易にするため正立像として表示している。図4(C)の特徴点62aは屈折率がnaである場合の特徴点の位置であり、特徴点62bは屈折率がnbへと変化した場合の特徴点の位置である。画像処理部26は、演算部23が求めた基準値との比率を用いて、光学系20の温度変化の影響を打ち消すように切り出し領域を調整する。この調整により、撮像装置10は被写体を含む同じ撮像範囲の画像を出力可能である。図4(C)に示される領域Aaは屈折率がnaである場合の切り出し領域である。図4(C)に示される領域Abは屈折率がnbである場合の切り出し領域である。本実施形態において、領域Abの境界は、光軸中心61を原点として、領域Aaの境界までの距離に演算部23が演算した比率(例えば図3の例ではDB/DAで計算される値)を乗じる線形補間を行うことで得られる。図4(C)の例では、光軸中心61から領域Aaの境界上の点Baまでの距離に、演算部23が演算した比率を乗じると、領域Abの境界上の点Bbが得られる。   FIG. 4A is a front view of the lens 28 provided in the optical system 20. The optical axis center 61 of the lens 28 in FIG. 4 (A) corresponds to the optical axis center 61 shown in FIGS. 3 (A) and 3 (B). FIG. 4B is a side view of the lens 28 and shows a positional relationship with the image sensor 31. The subject is present on the left side of the surface of the lens 28, and the subject forms an image on the image sensor 31. Here, the optical path La in FIG. 4B schematically shows a light path when the refractive index is na (when the optical system 20 is not affected by the temperature change). Also, the optical path Lb in FIG. 4B schematically shows a light path when the refractive index is nb (when the optical system 20 is affected by a temperature change). As shown in FIG. 4B, when the refractive index of the lens 28 changes from na to nb, the image formed on the image sensor 31 is distorted so as to shrink around the optical axis center 61. A large thick frame in FIG. 4C schematically shows an image of one frame based on an image signal from the image sensor 31. However, although an actual image formed on the image sensor 31 is an inverted image, in FIG. 4C, it is displayed as an erect image for ease of explanation. The feature point 62a in FIG. 4C is the position of the feature point when the refractive index is na, and the feature point 62b is the position of the feature point when the refractive index changes to nb. The image processing unit 26 uses the ratio to the reference value obtained by the calculation unit 23 to adjust the cutout region so as to cancel the influence of the temperature change of the optical system 20. By this adjustment, the imaging apparatus 10 can output an image in the same imaging range including the subject. A region Aa shown in FIG. 4C is a cut-out region when the refractive index is na. A region Ab shown in FIG. 4C is a cut-out region when the refractive index is nb. In the present embodiment, the boundary of the region Ab is the ratio calculated by the calculation unit 23 to the distance to the boundary of the region Aa with the optical axis center 61 as the origin (for example, a value calculated by DB / DA in the example of FIG. 3). Obtained by performing linear interpolation by multiplying by. In the example of FIG. 4C, when the distance from the optical axis center 61 to the point Ba on the boundary of the region Aa is multiplied by the ratio calculated by the calculation unit 23, the point Bb on the boundary of the region Ab is obtained.

(画像処理方法)
以下に、本実施形態の撮像装置10のプロセッサ40が実行する画像処理方法について図5を参照して説明する。ここで、特徴点の基準位置および基準値については、以下のステップS1からステップS13の実行前に、メモリ30に記憶されているものとする。
(Image processing method)
Hereinafter, an image processing method executed by the processor 40 of the imaging apparatus 10 according to the present embodiment will be described with reference to FIG. Here, it is assumed that the reference positions and reference values of the feature points are stored in the memory 30 before the following steps S1 to S13 are executed.

画像取得部21は、メモリ30に記憶された1フレーム分の画像信号を取得する(ステップS1)。   The image acquisition unit 21 acquires an image signal for one frame stored in the memory 30 (step S1).

特定値抽出部22は、画像取得部21が取得した画像信号に基づく1フレームの画像から特徴点を抽出する(ステップS2)。   The specific value extraction unit 22 extracts feature points from one frame image based on the image signal acquired by the image acquisition unit 21 (step S2).

演算部23は、画像における光学系20の光軸中心の位置から特徴点の位置までの距離を演算する(ステップS10)。ここで、光学系20の光軸中心の位置および特徴点の位置は、画像の水平方向をx軸、垂直方向をy軸とするxy平面の座標で定められてもよい。このとき、演算部23は座標に基づいて効率的に距離を演算することができる。   The calculator 23 calculates the distance from the position of the optical axis center of the optical system 20 to the position of the feature point in the image (step S10). Here, the position of the center of the optical axis and the position of the feature point of the optical system 20 may be determined by coordinates on the xy plane, where the horizontal direction of the image is the x axis and the vertical direction is the y axis. At this time, the calculation unit 23 can efficiently calculate the distance based on the coordinates.

演算部23は、ステップS10で演算した距離と、メモリ30から取得した基準値(本実施形態では光学系20に温度変化の影響がない状態における光軸中心の位置と特徴点との距離)との比率を求める(ステップS11)。   The calculation unit 23 calculates the distance calculated in step S10 and the reference value acquired from the memory 30 (in this embodiment, the distance between the position of the optical axis center and the feature point in a state where the optical system 20 is not affected by the temperature change). Is obtained (step S11).

画像処理部26は、ステップS11で求められた比率に応じて、切り出し領域を決定する(ステップS12)。上記のように、画像処理部26は、光軸中心61を原点として、光学系20に温度変化の影響がない状態における切り出し領域の境界までの距離に上記の比率を乗じる線形補間を行うことで、新たな切り出し領域を決定する。   The image processing unit 26 determines a cutout region according to the ratio obtained in step S11 (step S12). As described above, the image processing unit 26 performs linear interpolation with the optical axis center 61 as the origin and the distance to the boundary of the cutout region in the state where the optical system 20 is not affected by the temperature change by the above ratio. A new cutout area is determined.

画像出力部27は、画像処理部26が決定した切り出し領域の画像を、表示装置50等に出力する(ステップS13)。   The image output unit 27 outputs the image of the cutout area determined by the image processing unit 26 to the display device 50 or the like (step S13).

以上に説明したように、本実施形態の撮像装置10は、温度変化によって光学系20に生じる屈折率変化や熱膨張の影響を補正できる。つまり、演算部23が演算した比率を用いて、画像処理部26が光学系20の温度変化の影響を打ち消すように切り出し領域を調整することによって、本実施形態の撮像装置10は同じ撮像範囲の画像を出力することができる。本実施形態の撮像装置10は、温度センサを用いることなく補正を実行することができる。そのため、温度センサを備えることによる、撮像装置10の大型化、高コスト化を回避できる。   As described above, the imaging apparatus 10 of the present embodiment can correct the influence of refractive index change and thermal expansion that occur in the optical system 20 due to temperature change. That is, by using the ratio calculated by the calculation unit 23, the image processing unit 26 adjusts the cutout area so as to cancel the influence of the temperature change of the optical system 20, so that the imaging apparatus 10 of the present embodiment has the same imaging range. An image can be output. The imaging apparatus 10 of the present embodiment can perform correction without using a temperature sensor. Therefore, it is possible to avoid an increase in size and cost of the imaging device 10 due to the provision of the temperature sensor.

[第2実施形態]
(特徴点)
以下に、第2実施形態に係る撮像装置10について説明する。本実施形態に係る撮像装置10の構成、および本実施形態に係る撮像装置10を備える車載カメラシステムの構成要素の車両1への配置は第1実施形態と同じである。重複説明を回避するために、第1実施形態と異なる特徴点および画像処理方法についてのみ以下に説明する。
[Second Embodiment]
(Feature point)
The imaging device 10 according to the second embodiment will be described below. The configuration of the imaging device 10 according to the present embodiment and the arrangement of components of the vehicle-mounted camera system including the imaging device 10 according to the present embodiment on the vehicle 1 are the same as those in the first embodiment. In order to avoid redundant description, only the feature points and image processing methods that differ from the first embodiment will be described below.

本実施形態に係る撮像装置10では、光学系20に付されたマーカーが撮像された点を特徴点とする。マーカーは光学系20に付されているため、撮像素子31からの画像信号に基づく画像に常に含まれる。そのため、マーカーが撮像された点を特徴点とすることができる。また、本実施形態に係る撮像装置10では、光軸中心を挟んで対称的に配置された複数のマーカーが光学系20に付されている。そのため、第1実施形態とは異なり、光軸中心の位置が不明であっても容易に位置を特定することが可能である。   In the imaging apparatus 10 according to the present embodiment, a feature point is a point where the marker attached to the optical system 20 is imaged. Since the marker is attached to the optical system 20, it is always included in the image based on the image signal from the image sensor 31. Therefore, the point where the marker is imaged can be used as the feature point. In the imaging device 10 according to the present embodiment, a plurality of markers arranged symmetrically with respect to the optical axis center are attached to the optical system 20. Therefore, unlike the first embodiment, the position can be easily specified even if the position of the center of the optical axis is unknown.

図6(A)は光学系20が備えるレンズ28の正面図である。第1実施形態とは異なり、レンズ28にはマーカー63とマーカー64とが付されている。マーカー63とマーカー64とは、表面に印刷されてもよいし、表面加工(例えば削る等)によって設けられてもよい。マーカー63は、光軸中心61を挟んでマーカー64と対称な位置に設けられる。   FIG. 6A is a front view of the lens 28 provided in the optical system 20. Unlike the first embodiment, the lens 28 is provided with a marker 63 and a marker 64. The marker 63 and the marker 64 may be printed on the surface, or may be provided by surface processing (for example, shaving). The marker 63 is provided at a position symmetrical to the marker 64 with the optical axis center 61 interposed therebetween.

図6(B)はレンズ28の側面図であって、撮像素子31との位置関係を示すものである。撮像素子31に被写体が結像するときに、マーカー63とマーカー64も画像に含まれる。図6(C)の大きな太枠は撮像素子31からの画像信号に基づく1フレームの画像を模式的に示している。ただし、撮像素子31に結像する実際の像は倒立像となるが、図6(C)では説明を容易にするため正立像として表示している。図6(C)の特徴点63a,64aは屈折率がnaである場合の特徴点の位置である。また、図6(C)の特徴点63b,64bは屈折率がnbへと変化した場合の特徴点の位置である。   FIG. 6B is a side view of the lens 28 and shows a positional relationship with the image sensor 31. When the subject forms an image on the image sensor 31, the marker 63 and the marker 64 are also included in the image. A large thick frame in FIG. 6C schematically shows an image of one frame based on an image signal from the image sensor 31. However, the actual image formed on the image sensor 31 is an inverted image, but in FIG. 6C, it is displayed as an erect image for ease of explanation. Feature points 63a and 64a in FIG. 6C are the positions of the feature points when the refractive index is na. Also, the feature points 63b and 64b in FIG. 6C are the positions of the feature points when the refractive index changes to nb.

ここで、演算部23は光軸中心61が不明である場合にも、特徴点63bと特徴点64bとを結ぶ(または特徴点63aと特徴点64aとを結ぶ)直線の中間点を光軸中心61であると推定することが可能である。   Here, even when the optical axis center 61 is unknown, the calculation unit 23 sets an intermediate point of a straight line connecting the feature point 63b and the feature point 64b (or connecting the feature point 63a and the feature point 64a) to the optical axis center. It can be estimated to be 61.

ここで、マーカー63とマーカー64とは、被写体の撮像を妨げないように、レンズ28の周辺部に付される。図7(A)に示されるように、本実施形態の特徴点は周囲に広がったぼやけた像となる。このとき、演算部23は特徴点が広がっている範囲の画素のそれぞれについて輝度を求める。そして、輝度の最も低い値を示す座標を特徴点の位置としてもよい。図7(B)の例では、特徴点のx軸方向の座標は輝度が最も低くなるPxである。演算部23はy軸方向についても同様の処理を実行することで、マーカー63およびマーカー64に対応する特徴点のxy座標を決定することができる。   Here, the marker 63 and the marker 64 are attached to the periphery of the lens 28 so as not to interfere with the imaging of the subject. As shown in FIG. 7A, the feature point of the present embodiment is a blurred image spreading around. At this time, the calculation unit 23 obtains the luminance for each pixel in the range where the feature points are widened. The coordinates indicating the lowest value of the luminance may be used as the feature point position. In the example of FIG. 7B, the coordinate of the feature point in the x-axis direction is Px having the lowest luminance. The calculation unit 23 can determine the xy coordinates of the feature points corresponding to the marker 63 and the marker 64 by executing the same processing in the y-axis direction.

(画像処理方法)
以下に、本実施形態の撮像装置10が実行する画像処理方法について図8を参照して説明する。ここで、図8のステップS3以外、つまり、ステップS1,S2,S10,S11,S12,S13については、第1実施形態と同じであるため説明を省略する。
(Image processing method)
Hereinafter, an image processing method executed by the imaging apparatus 10 of the present embodiment will be described with reference to FIG. Here, steps other than step S3 in FIG. 8, that is, steps S1, S2, S10, S11, S12, and S13 are the same as those in the first embodiment, and thus the description thereof is omitted.

ステップS3はステップS2の後に実行される。演算部23は特徴点63bおよび64b(または特徴点63aおよび64a)から光学系20の光軸中心、すなわちレンズ28の光軸中心の位置を求める(ステップS3)。より詳細には、演算部23は特徴点63bおよび64bを結ぶ直線の中間点を光軸中心61であると推定する。ステップS3の後には、第1実施形態と同様にステップS10〜S13の処理が実行される。ここで、本実施形態でも、画像処理部26は歪曲収差で歪んだ被写体の形状自体について補正してもよい。   Step S3 is executed after step S2. The computing unit 23 obtains the position of the optical axis center of the optical system 20, that is, the optical axis center of the lens 28, from the feature points 63b and 64b (or feature points 63a and 64a) (step S3). More specifically, the calculation unit 23 estimates that the midpoint of the straight line connecting the feature points 63 b and 64 b is the optical axis center 61. After step S3, the processes of steps S10 to S13 are executed as in the first embodiment. Here, also in the present embodiment, the image processing unit 26 may correct the shape of the subject itself distorted by distortion.

以上に説明したように、本実施形態の撮像装置10は、第1実施形態で説明した効果に加えて、光軸中心が結像する位置が不明である場合でも容易に位置を推定できるとの効果を奏する。光軸中心が結像する位置が不明である場合は、例えば光軸中心が結像する位置が事前にメモリ30に記憶されていない場合、撮像装置10の修理等で光軸中心が結像する位置が変化した場合等である。また、特徴点を撮像装置10の被写体(例えばバンパー)の上に設けた場合、被写体の形状変化(例えばバンパーの破損)が生じると新たに基準位置および基準値をメモリ30に記憶する必要が生じる。しかし、本実施形態では被写体の変形によって、基準位置および基準値を更新する必要はない。   As described above, in addition to the effects described in the first embodiment, the imaging apparatus 10 according to the present embodiment can easily estimate the position even when the position where the optical axis center is imaged is unknown. There is an effect. When the position where the optical axis center is imaged is unknown, for example, when the position where the optical axis center is imaged is not stored in the memory 30 in advance, the optical axis center is imaged by repairing the imaging device 10 or the like. For example, when the position changes. Further, when the feature point is provided on the subject (for example, bumper) of the imaging device 10, it is necessary to newly store the reference position and the reference value in the memory 30 when the shape of the subject changes (for example, the bumper is broken). . However, in this embodiment, it is not necessary to update the reference position and the reference value due to deformation of the subject.

本発明を図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各手段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。   Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions included in each means, each step, etc. can be rearranged so as not to be logically contradictory, and a plurality of means, steps, etc. can be combined into one or divided. .

第2実施形態に係る撮像装置10では、光軸中心を挟んで対称的に配置された2つのマーカーが光学系20に付されていた。次のように基準位置、基準値を第2実施形態と異ならせることも可能である。例えば、演算部23は、特徴点63aおよび64aの位置を基準位置として、特徴点63aと特徴点64aの間の距離を基準値としてもよい。このとき、演算部23は図8のステップS10において「特徴点とレンズの光軸中心との距離」に代えて「2つの特徴点の間の距離」を演算する。演算部23は特徴点63bと特徴点64bの間の距離を基準値と比較するので、第1実施形態の場合と比べてより長い距離での比較を行う。そのため、求める比率の精度がより高まることが期待される。   In the imaging device 10 according to the second embodiment, two markers arranged symmetrically with respect to the optical axis center are attached to the optical system 20. It is also possible to make the reference position and reference value different from those of the second embodiment as follows. For example, the computing unit 23 may use the positions of the feature points 63a and 64a as a reference position and the distance between the feature points 63a and 64a as a reference value. At this time, the calculation unit 23 calculates “distance between two feature points” instead of “distance between the feature point and the center of the optical axis of the lens” in step S10 of FIG. Since the calculation unit 23 compares the distance between the feature point 63b and the feature point 64b with the reference value, the calculation unit 23 performs comparison at a longer distance than in the case of the first embodiment. Therefore, it is expected that the accuracy of the required ratio is further increased.

また、第2実施形態に係る撮像装置10では、光学系20に付されていたマーカーの数は2つであるが、さらに数を増やしてもよい。例えば、図9(A)に示されるように、4つのマーカーを光学系20に付してもよい。このとき、マーカー63および64に対応する特徴点を結ぶ直線の中間点を用いて光軸中心61を推定するだけでなく、マーカー65および66を用いて同様の手法で光軸中心61を推定することができる。例えば、推定される複数の光軸中心61の座標の平均値を求めることで、より正確に光軸中心61の位置を推定することが可能である。   In the imaging device 10 according to the second embodiment, the number of markers attached to the optical system 20 is two, but the number may be further increased. For example, four markers may be attached to the optical system 20 as shown in FIG. At this time, not only the optical axis center 61 is estimated using the midpoint of the straight line connecting the feature points corresponding to the markers 63 and 64, but also the optical axis center 61 is estimated by the same method using the markers 65 and 66. be able to. For example, it is possible to estimate the position of the optical axis center 61 more accurately by obtaining the average value of the coordinates of the estimated optical axis centers 61.

また、第2実施形態に係る撮像装置10で、演算部23が光軸中心61の位置を把握している場合には、光学系20に付されるマーカーは1つであってもよいし、複数あっても1つだけが使用されてもよい。このとき、第1実施形態の画像処理方法(図5参照)を用いることが可能である。   In the imaging device 10 according to the second embodiment, when the calculation unit 23 knows the position of the optical axis center 61, the number of markers attached to the optical system 20 may be one, Only one or more may be used. At this time, it is possible to use the image processing method of the first embodiment (see FIG. 5).

また、第2実施形態に係る撮像装置10で、図9(B)に示されるように、光学系20にマーカーを付す代わりにリング状の遮光板70が用いられてもよい。光学系20において、遮光板70はレンズ28と撮像素子31との間に位置するように設けられる。遮光板70によって、被写体を含む円形の撮像領域と、その周囲のリング状の暗い領域とを含む画像が生成される。このとき、撮像領域とリング状の暗い領域との境界上に特徴点を1つまたは複数設定することができる。このとき、2つの特徴点の間の距離が撮像領域の直径に等しいならば、光軸中心を挟んで対称的に配置された2つのマーカーを光学系20に付した場合(つまり第2実施形態)と同じ画像処理方法を用いることが可能である。   Further, in the imaging apparatus 10 according to the second embodiment, as shown in FIG. 9B, a ring-shaped light shielding plate 70 may be used instead of attaching a marker to the optical system 20. In the optical system 20, the light shielding plate 70 is provided so as to be positioned between the lens 28 and the imaging device 31. The light shielding plate 70 generates an image including a circular imaging region including a subject and a surrounding ring-shaped dark region. At this time, one or more feature points can be set on the boundary between the imaging region and the ring-shaped dark region. At this time, if the distance between the two feature points is equal to the diameter of the imaging region, two markers arranged symmetrically across the center of the optical axis are attached to the optical system 20 (that is, the second embodiment). ) Can be used.

また、温度変化によって画像に歪曲収差の影響が生じる場合、上記のように画像処理部26は被写体の形状補正を行ってもよい。歪曲収差の影響を受けると、画像は光軸中心から離れるにつれて同心円状に歪みを生じる。そのため、光軸中心からできるだけ離れたところに特徴点を設けることで、歪曲収差の影響をより正確に把握できる。具体例としては、画像における車両1のバンパーの端部を特徴点とすることが考えられる。図9(C)は、バンパー60aの両端の特徴点67aおよび68aが、バンパー60bの両端の特徴点67bおよび68bへと変化する様子を示している。ここで、バンパー60aは屈折率がnaである場合のバンパーの位置である。また、バンパー60bは屈折率がnbとなった場合(温度変化によって光学系20に歪曲収差に変化が生じた場合)のバンパーの位置である。バンパーの中心部を特徴点とする図3(B)の例と比較して、水平方向(x軸方向)にも垂直方向(y軸方向)にも大きく特徴点が変位している。また、演算部23は、特徴点67bと68bとの間の距離Dを基準値(例えば特徴点67aと68aとの間の距離)と比較する処理を実行してもよい。光軸中心から離れた場所に特徴点を設けて、それらの間の距離の変化を検出することで、検出の感度を高めることができる。   Further, when the influence of distortion occurs on the image due to the temperature change, the image processing unit 26 may correct the shape of the subject as described above. When affected by the distortion, the image is distorted concentrically as the distance from the optical axis center increases. Therefore, by providing the feature point as far as possible from the center of the optical axis, the influence of distortion aberration can be grasped more accurately. As a specific example, it can be considered that the end of the bumper of the vehicle 1 in the image is a feature point. FIG. 9C shows a state in which the feature points 67a and 68a at both ends of the bumper 60a change to feature points 67b and 68b at both ends of the bumper 60b. Here, the bumper 60a is the position of the bumper when the refractive index is na. The bumper 60b is the position of the bumper when the refractive index is nb (when the distortion is changed in the optical system 20 due to a temperature change). Compared with the example of FIG. 3B in which the central portion of the bumper is a feature point, the feature point is greatly displaced both in the horizontal direction (x-axis direction) and in the vertical direction (y-axis direction). In addition, the calculation unit 23 may execute a process of comparing the distance D between the feature points 67b and 68b with a reference value (for example, the distance between the feature points 67a and 68a). Sensitivity of detection can be increased by providing a feature point at a location away from the center of the optical axis and detecting a change in the distance between them.

また、上記の第1実施形態において、画像処理部26は線形補間によって切り出し領域を調整する。しかし、画像処理部26は、特徴点の位置の変化に対応するように、切り出し領域をシフト(平行移動)させてもよい。   In the first embodiment, the image processing unit 26 adjusts the cutout region by linear interpolation. However, the image processing unit 26 may shift (translate) the cutout region so as to correspond to the change in the position of the feature point.

また、上記の第1実施形態において、被写体であるバンパー60(図2参照)上の一部を特徴点としたが、バンパー60に限らず車体の一部を特徴点としてもよい。例えば、撮像装置10が車両1のサイドミラーに設けられる場合には、タイヤの一部やドアの一部を特徴点としてもよい。   In the first embodiment described above, a part on the bumper 60 (see FIG. 2), which is the subject, is a feature point. However, the feature point is not limited to the bumper 60 and may be a part of the vehicle body. For example, when the imaging device 10 is provided on a side mirror of the vehicle 1, a part of a tire or a part of a door may be used as a feature point.

また、上記の実施形態において、撮像装置10はメモリ30を備えるが、ハードディスクドライブ等の記憶装置を用いてもよい。また、メモリ30は揮発性メモリおよび不揮発性メモリを備えるが、これらの一方(例えば不揮発性メモリ)のみを備えていてもよい。   In the above-described embodiment, the imaging device 10 includes the memory 30, but a storage device such as a hard disk drive may be used. The memory 30 includes a volatile memory and a nonvolatile memory, but may include only one of them (for example, a nonvolatile memory).

1 車両
10 撮像装置
20 光学系
21 画像取得部
22 特定値抽出部
23 演算部
26 画像処理部
27 画像出力部
28 レンズ
30 メモリ
31 撮像素子
40 プロセッサ
50 表示装置
60,60a,60b バンパー
61 光軸中心
62,62a,62b,63a,63b,64a,64b,67a,67b 特徴点
63,64,65,66 マーカー
70 遮光板
DESCRIPTION OF SYMBOLS 1 Vehicle 10 Imaging device 20 Optical system 21 Image acquisition part 22 Specific value extraction part 23 Calculation part 26 Image processing part 27 Image output part 28 Lens 30 Memory 31 Imaging element 40 Processor 50 Display apparatus 60, 60a, 60b Bumper 61 Optical axis center 62, 62a, 62b, 63a, 63b, 64a, 64b, 67a, 67b Feature point 63, 64, 65, 66 Marker 70 Light shielding plate

Claims (10)

光学系と、
前記光学系を介して結像される被写体を撮像する撮像素子と、
前記被写体を含んで撮像された画像から所定の部分の特定値を抽出するプロセッサと、
前記特定値の基準となる基準値を記憶するメモリと、を備え、
前記プロセッサは、前記基準値からの前記特定値の変化に基づいて前記画像の補正または領域設定を行う撮像装置。
Optical system,
An image sensor for imaging a subject imaged via the optical system;
A processor that extracts a specific value of a predetermined portion from an image captured including the subject;
A memory for storing a reference value serving as a reference for the specific value,
The imaging apparatus, wherein the processor corrects the image or sets an area based on a change in the specific value from the reference value.
前記プロセッサは、前記特定値として前記画像から特徴点の位置を抽出し、前記特徴点の位置の変化に基づいて前記画像の補正または領域設定を行う請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the processor extracts a position of a feature point from the image as the specific value, and corrects or sets an area of the image based on a change in the position of the feature point. 前記プロセッサは、前記画像における前記光学系の光軸中心が結像する位置から前記特徴点の位置までの距離の変化に基づいて前記画像の補正または領域設定を行う請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the processor corrects the image or sets a region based on a change in a distance from a position where an optical axis center of the optical system in the image forms an image to a position of the feature point. . 前記プロセッサは、複数の前記特徴点を用いて前記光軸中心が結像する位置を定める、請求項3に記載の撮像装置。   The imaging device according to claim 3, wherein the processor determines a position at which the optical axis center forms an image by using a plurality of the feature points. 前記特徴点は、前記画像における前記被写体上の一部に設けられる、請求項2または3に記載の撮像装置。   The imaging device according to claim 2, wherein the feature point is provided in a part on the subject in the image. 前記特徴点は、前記光学系に付された一つまたは複数のマーカーが撮像された点である、請求項2または3に記載の撮像装置。   The imaging device according to claim 2, wherein the feature point is a point at which one or a plurality of markers attached to the optical system is imaged. 前記プロセッサは、前記特定値として前記所定の部分の湾曲量を抽出し、前記湾曲量の変化に基づいて、前記画像の補正または領域設定を行う請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the processor extracts a bending amount of the predetermined portion as the specific value, and corrects or sets an area of the image based on a change in the bending amount. 前記プロセッサは、前記メモリに記憶された前記光学系の設計データに基づいて、前記画像の歪みおよび湾曲を補正する、請求項7に記載の撮像装置。   The imaging device according to claim 7, wherein the processor corrects distortion and curvature of the image based on design data of the optical system stored in the memory. 光学系と、
前記光学系を介して結像される車両の一部を撮像する撮像素子と、
前記車両の一部を含んで撮像された画像から所定の部分の特定値を抽出するプロセッサと、
前記特定値の基準となる基準値を記憶するメモリと、を備え、
前記プロセッサは、前記基準値からの前記特定値の変化に基づいて前記画像の補正または領域設定を行う車載カメラ。
Optical system,
An image sensor for imaging a part of a vehicle imaged via the optical system;
A processor for extracting a specific value of a predetermined part from an image captured including a part of the vehicle;
A memory for storing a reference value serving as a reference for the specific value,
The processor is an in-vehicle camera that performs correction or region setting of the image based on a change in the specific value from the reference value.
光学系と、撮像素子と、プロセッサと、メモリと、を備える撮像装置が実行する画像処理方法であって、
前記撮像素子が、前記光学系を介して結像される被写体を撮像するステップと、
前記プロセッサが、前記被写体を含んで撮像された画像から所定の部分の特定値を抽出するステップと、
前記メモリが、前記特定値の基準となる基準値を記憶するステップと、
前記プロセッサが、前記基準値からの前記特定値の変化に基づいて前記画像の補正または領域設定を行うステップと、を含む画像処理方法。
An image processing method executed by an imaging apparatus including an optical system, an imaging element, a processor, and a memory,
The imaging element imaging a subject imaged via the optical system;
The processor extracting a specific value of a predetermined portion from an image captured including the subject; and
The memory storing a reference value serving as a reference for the specific value;
And a step of correcting the image or setting an area based on a change in the specific value from the reference value.
JP2016055926A 2016-03-18 2016-03-18 Imaging apparatus, in-vehicle camera, and image processing method Active JP6571571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016055926A JP6571571B2 (en) 2016-03-18 2016-03-18 Imaging apparatus, in-vehicle camera, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016055926A JP6571571B2 (en) 2016-03-18 2016-03-18 Imaging apparatus, in-vehicle camera, and image processing method

Publications (2)

Publication Number Publication Date
JP2017175206A true JP2017175206A (en) 2017-09-28
JP6571571B2 JP6571571B2 (en) 2019-09-04

Family

ID=59972275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016055926A Active JP6571571B2 (en) 2016-03-18 2016-03-18 Imaging apparatus, in-vehicle camera, and image processing method

Country Status (1)

Country Link
JP (1) JP6571571B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113615151A (en) * 2019-03-26 2021-11-05 索尼半导体解决方案公司 Camera device mounted on vehicle and image distortion correction method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017169A (en) * 2007-07-04 2009-01-22 Sony Corp Camera system and method for correcting attachment error of camera
JP2012037574A (en) * 2010-08-03 2012-02-23 Olympus Imaging Corp Electronic imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017169A (en) * 2007-07-04 2009-01-22 Sony Corp Camera system and method for correcting attachment error of camera
JP2012037574A (en) * 2010-08-03 2012-02-23 Olympus Imaging Corp Electronic imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113615151A (en) * 2019-03-26 2021-11-05 索尼半导体解决方案公司 Camera device mounted on vehicle and image distortion correction method

Also Published As

Publication number Publication date
JP6571571B2 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
KR101787304B1 (en) Calibration method, calibration device, and computer program product
WO2016056197A1 (en) In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method
JP6545997B2 (en) Image processing device
US8134608B2 (en) Imaging apparatus
TWI581007B (en) Head-mounted display apparatus and calibrating method thereof
JP6975003B2 (en) Peripheral monitoring device and its calibration method
JP6520080B2 (en) Stereo camera calibration method, parallax calculation device, stereo camera and vehicle
WO2015029443A1 (en) Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
JP2012189324A (en) Stereo camera
US10220783B2 (en) Vehicle-mounted stereo camera device and method for correcting the same
EP2770478A2 (en) Image processing unit, imaging device, and vehicle control system and program
JP2021025868A (en) Stereo camera
JP3666348B2 (en) Distance recognition device
JP2019061303A (en) Periphery monitoring apparatus and periphery monitoring method for vehicle
JP2014174067A (en) Calibration device of on-vehicle camera
JP4397573B2 (en) Image processing device
JP2019132855A (en) Stereo camera calibration method, parallax calculation device, and stereo camera
JP6571571B2 (en) Imaging apparatus, in-vehicle camera, and image processing method
JP5487946B2 (en) Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus
JP2004354256A (en) Calibration slippage detector, and stereo camera and stereo camera system equipped with the detector
EP3564747B1 (en) Imaging device and imaging method
JP2013005032A (en) On-vehicle camera posture detection device
JP6680335B2 (en) Stereo camera, vehicle, calculation method and program
WO2017042995A1 (en) In-vehicle stereo camera device and method for correcting same
JP4040620B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190808

R150 Certificate of patent or registration of utility model

Ref document number: 6571571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150