JP2023047328A - Image processing system, image processing method, imaging apparatus, optical system, and computer program - Google Patents

Image processing system, image processing method, imaging apparatus, optical system, and computer program Download PDF

Info

Publication number
JP2023047328A
JP2023047328A JP2022148737A JP2022148737A JP2023047328A JP 2023047328 A JP2023047328 A JP 2023047328A JP 2022148737 A JP2022148737 A JP 2022148737A JP 2022148737 A JP2022148737 A JP 2022148737A JP 2023047328 A JP2023047328 A JP 2023047328A
Authority
JP
Japan
Prior art keywords
image
area
processing system
image processing
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022148737A
Other languages
Japanese (ja)
Other versions
JP7434476B2 (en
Inventor
正則 斉藤
Masanori Saito
亮 笛田
Akira Fueda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN202211166440.5A priority Critical patent/CN115883984A/en
Priority to US17/951,487 priority patent/US12028603B2/en
Publication of JP2023047328A publication Critical patent/JP2023047328A/en
Application granted granted Critical
Publication of JP7434476B2 publication Critical patent/JP7434476B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing system that allows easy adjustment of the location and posture of a camera or other devices.SOLUTION: The image processing system includes: image acquisition means for acquiring an image signal formed by imaging means for capturing an optical image having a low distortion area and a high distortion area; characteristic information acquisition means for acquiring characteristic information on characteristics of the optical image; and display signal generation means for forming information indicating a boundary between the low distortion area and the high distortion area on the basis of the characteristic information acquired by the characteristic information acquisition means and generating a display signal to be superimposed on the image signal.SELECTED DRAWING: Figure 3

Description

本発明は、画像認識が可能な画像処理システム、画像処理方法、撮像装置、光学系、およびコンピュータプログラムに関する。 The present invention relates to an image processing system, an image processing method, an imaging device, an optical system, and a computer program capable of image recognition.

近年、車両に搭載されるルームミラー(後写鏡)を電子ルームミラーで置き換えるという要望がある。例えば特許文献1には、車両外の後方を撮像範囲とする撮像手段と車両内の表示手段で構成され、撮像手段で撮像した画像を車両内のディスプレイで表示することにより、ドライバーが車両外の後方の様子を確認できる電子ルームミラーシステムが開示されている。 In recent years, there has been a demand to replace rearview mirrors (rearview mirrors) mounted on vehicles with electronic rearview mirrors. For example, in Patent Document 1, an image capturing means having an image capturing range outside the vehicle and a display means inside the vehicle are configured. An electronic rearview mirror system is disclosed that allows for confirmation of what is happening behind.

他方、車両の後退時などに車両後方の死角をドライバーが確認できるようにする後方確認システムがある。特許文献2には、車両後方を撮像するようにカメラを設置し、撮像画像を車室内に表示することにより、後退時などに車両後方の死角をドライバーが確認できるようにするための後方確認システムが開示されている。 On the other hand, there is a rear confirmation system that enables the driver to check the blind spots behind the vehicle when the vehicle is backing up. Patent document 2 discloses a rear confirmation system for enabling the driver to check the blind spot behind the vehicle when backing up by installing a camera so as to image the rear of the vehicle and displaying the captured image in the vehicle interior. is disclosed.

特開2010-95202号公報JP 2010-95202 A 特開2004-345554号公報JP-A-2004-345554

上述の電子ルームミラー用画像を撮像する撮像部としてのカメラは、ドライバーが後方の比較的遠方の様子をより精細に確認するため高解像度を有することが求められる。一方で、後方確認システム用カメラは、後退時などの衝突を回避するために、車両後方の死角や後側方を含んだより広い範囲での安全を確認するため、より広い範囲を撮像することが求められる。 A camera as an imaging unit that captures the image for the electronic rearview mirror described above is required to have a high resolution so that the driver can more precisely confirm the situation in the rear relatively far away. On the other hand, the camera for the rear confirmation system must take a wider range of images to confirm safety in a wider range, including the blind spots behind the vehicle and the rear sides, in order to avoid collisions when reversing. is required.

したがって、電子ルームミラーシステムと後方確認システムを車両に同時に搭載する場合、電子ルームミラーシステム用のカメラと、後方確認システム用のカメラを個別に搭載すると車載画像処理システムが複雑になってしまう。このような課題は、例えば、車両の周囲の状況を撮影するために複数のカメラを配置して自動運転などを行う自動運転システムにおいても同様に発生している。 Therefore, when an electronic rearview mirror system and a rearview confirmation system are installed in a vehicle at the same time, if the camera for the electronic rearview mirror system and the camera for the rearview confirmation system are installed separately, the in-vehicle image processing system becomes complicated. Such a problem also occurs, for example, in an automatic driving system that automatically drives a vehicle by arranging a plurality of cameras to photograph the surroundings of the vehicle.

これに対して、例えば特殊な超広角レンズを用いたカメラを採用することによって、車両に設置するカメラの数を減らすことができる。しかし、広い画角は得られるものの高解像度領域(低歪曲領域)や低解像度領域(高歪曲領域)が存在するため、注目すべき撮影対象に高解像度領域(低歪曲領域)が正しく位置合わせされているか分かりにくい。カメラの設置のための調整等が非常に困難であるという問題があった。 On the other hand, the number of cameras installed in the vehicle can be reduced by adopting a camera using a special ultra-wide-angle lens, for example. However, although a wide angle of view can be obtained, there are high-resolution areas (low-distortion areas) and low-resolution areas (high-distortion areas). It is difficult to tell whether There was a problem that adjustment for installation of the camera was very difficult.

したがって本発明では、上記の課題を鑑みて、カメラを設置する位置又は姿勢の少なくとも何れかの調整が容易な画像処理システムを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image processing system that facilitates adjustment of at least one of the camera installation position and orientation.

上記目的を達成するために、本発明の1つの側面の画像処理システムは、
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得手段と、
前記光学像の特性に関する特性情報を取得する特性情報取得手段と、
前記特性情報取得手段により取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を形成し、前記境界を示す情報を前記画像信号に重畳するための表示信号を生成する表示信号生成手段と、
を有することを特徴とする。
In order to achieve the above object, an image processing system according to one aspect of the present invention includes:
an image acquisition means for acquiring an image signal formed by an imaging means for imaging an optical image having a low distortion area and a high distortion area;
a characteristic information obtaining means for obtaining characteristic information relating to the characteristics of the optical image;
forming information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information obtained by the characteristic information obtaining means, and generating a display signal for superimposing the information indicating the boundary on the image signal; a display signal generating means for
characterized by having

本発明によれば、カメラを設置する位置又は姿勢の少なくとも何れかの調整が容易な画像処理システムを実現することができる。 According to the present invention, it is possible to realize an image processing system that facilitates adjustment of at least one of the camera installation position and orientation.

実施形態1の画像処理システムにおける車両と撮像部の位置関係を説明する図である。4 is a diagram for explaining the positional relationship between a vehicle and an imaging unit in the image processing system of Embodiment 1; FIG. (A)、(B)は、実施形態1の撮像部の光学特性を説明するための図である。4A and 4B are diagrams for explaining optical characteristics of an imaging unit according to the first embodiment; FIG. 実施形態1における画像処理システムの構成を説明するための機能ブロック図である。1 is a functional block diagram for explaining the configuration of an image processing system according to Embodiment 1; FIG. 実施形態1のカメラ処理部の処理フローを説明するためのフローチャートである。4 is a flow chart for explaining a processing flow of a camera processing unit according to the first embodiment; 図4から続く処理を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining processing continued from FIG. 4; FIG. 図4からの分岐処理を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining branch processing from FIG. 4; FIG. 図6からの分岐処理を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining branch processing from FIG. 6; FIG. 図4からの他の分岐処理を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining another branching process from FIG. 4; FIG. 画像の表示状態と表示解像度境界の重畳例を説明するための図である。FIG. 10 is a diagram for explaining an example of superimposition of the display state of an image and the display resolution boundary; 画像に重畳される表示解像度境界93の他の例を説明するための図である。FIG. 11 is a diagram for explaining another example of a display resolution boundary 93 superimposed on an image; フラグFに応じて調整用の画面に表示される基準枠などの例を示す図である。FIG. 10 is a diagram showing an example of a reference frame and the like displayed on an adjustment screen according to a flag F; 基準枠の設置位置の例を示す図である。FIG. 4 is a diagram showing an example of the installation position of a reference frame;

以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。 BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below using examples with reference to the accompanying drawings. In each figure, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.

[実施形態1]
実施形態1では、高精細な電子ルームミラー用の表示や広範囲な後方などの車両周辺確認用の表示を少ない数のカメラで両立する改善された方法について説明する。図1は、実施形態1の画像処理システムにおける車両と撮像部の位置関係を説明する図である。
[Embodiment 1]
In Embodiment 1, an improved method for achieving both a high-definition display for an electronic rearview mirror and a display for checking the surroundings of a vehicle, such as a wide area behind the vehicle, with a small number of cameras will be described. FIG. 1 is a diagram for explaining the positional relationship between a vehicle and an imaging unit in the image processing system of Embodiment 1. FIG.

本実施形態では、図1に示すように、移動体としての例えば自動車の車両1の前方、右側方、後方、左側方にそれぞれカメラユニット11、12、13、14が設置されている。なお、本実施形態では4つのカメラユニットを有するが、カメラユニットの数は4に限定されず、少なくとも1つ以上のカメラユニットがあればよい。 In this embodiment, as shown in FIG. 1, camera units 11, 12, 13, and 14 are installed on the front, right, rear, and left sides of a vehicle 1, such as an automobile, which is a moving object. Although four camera units are provided in this embodiment, the number of camera units is not limited to four, and at least one or more camera units may be provided.

カメラユニット11~14は、移動体としての車両1のそれぞれ前方、右側方、後方、左側方を撮像範囲とするように設置されており、それぞれ撮像部として機能している。カメラユニット11~14は略同様の構成を有し、それぞれ光学像を撮像する撮像素子と、撮像素子の受光面に光学像を形成する光学系とを有する。 The camera units 11 to 14 are installed so as to cover the front, right, rear, and left sides of the vehicle 1 as a moving body, respectively, and function as imaging units. The camera units 11 to 14 have substantially the same configuration, each having an imaging device for capturing an optical image and an optical system for forming an optical image on the light receiving surface of the imaging device.

なお、例えばカメラユニット11、13が有する光学系の光軸は略水平となるように設置され、カメラユニット12、14が有する光学系の光軸は水平よりも若干下方を向くように設置されている。 For example, the optical axes of the optical systems of the camera units 11 and 13 are installed so as to be substantially horizontal, and the optical axes of the optical systems of the camera units 12 and 14 are installed so as to point slightly below the horizontal. there is

また、本実施形態で使用するカメラユニット11~14が有する光学系はそれぞれ光軸周辺の狭い画角において高精細な画像を得ることができ、かつ広い画角において低解像度の撮像画像を得ることができるように構成されている。なお、11a~14aは高解像度で低歪曲な像を撮像可能な撮像画角であり、11b~14bは低解像度で高歪曲な像を撮像可能な撮像画角を示している。 In addition, the optical systems of the camera units 11 to 14 used in this embodiment can obtain high-definition images at narrow angles of view around the optical axis, and obtain low-resolution captured images at wide angles of view. is configured so that Note that 11a to 14a are imaging field angles capable of imaging a high-resolution, low-distortion image, and 11b to 14b are imaging field angles capable of imaging a low-resolution, high-distortion image.

本実施形態におけるカメラユニット11~14が有する光学系について図2を用いて説明する。なお、それぞれのカメラユニット11~14の光学系の特性は同じでなくてもよいが、本実施形態においては、カメラユニット11~14が有する光学系は略同じ特性を有するものとし、カメラユニット11が有する光学系について例示的に説明する。 Optical systems of the camera units 11 to 14 in this embodiment will be described with reference to FIG. Although the characteristics of the optical systems of the camera units 11 to 14 may not be the same, in the present embodiment, the optical systems of the camera units 11 to 14 have substantially the same characteristics. An optical system possessed by is exemplarily described.

図2(A)、(B)は、本発明の実施形態1における撮像部の光学特性を説明するための図であり、図2(A)は、本実施形態におけるカメラユニット11が有する光学系の、撮像素子の受光面上での各半画角における像高yを等高線状に示した図である。 2A and 2B are diagrams for explaining the optical characteristics of the imaging unit according to Embodiment 1 of the present invention. FIG. 2A shows the optical system of the camera unit 11 according to this embodiment. 2 is a diagram showing contour lines of the image height y at each half angle of view on the light receiving surface of the imaging element.

図2(B)は、本実施形態におけるカメラユニット11が有する光学系の、像高yと半画角θとの関係を表す射影特性を表した図である。図2(B)では、半画角(光軸と入射光線とがなす角度)θを横軸とし、カメラユニット11のセンサ面上(像面上)での結像高さ(像高)yを縦軸として示している。 FIG. 2B is a diagram showing the projection characteristics representing the relationship between the image height y and the half angle of view θ of the optical system of the camera unit 11 in this embodiment. In FIG. 2B, the half angle of view (the angle formed by the optical axis and the incident light beam) θ is taken as the horizontal axis, and the imaging height (image height) y on the sensor surface (image plane) of the camera unit 11. is shown as the vertical axis.

本実施形態におけるカメラユニット11が有する光学系は、図2(B)に示すように、所定の半画角θa未満の領域と半画角θa以上の領域でその射影特性y(θ)が異なるように構成されている。したがって、単位あたりの半画角θに対する像高yの増加量を解像度というとき解像度が領域によって異なる。 As shown in FIG. 2B, the optical system of the camera unit 11 according to the present embodiment has different projection characteristics y(θ) between a region smaller than a predetermined half angle of view θa and a region larger than the half angle of view θa. is configured as Therefore, when the amount of increase in the image height y with respect to the half angle of view θ per unit is referred to as the resolution, the resolution differs depending on the area.

この局所的な解像度は、射影特性y(θ)の半画角θでの微分値dy(θ)/dθで表されるともいえる。即ち、図2(B)の射影特性y(θ)の傾きが大きいほど解像度が高いといえる。また、図2(A)の等高線状の各半画角における像高yの間隔が大きいほど解像度が高いともいえる。 It can also be said that this local resolution is represented by the differential value dy(θ)/dθ of the projection characteristic y(θ) at the half angle of view θ. That is, it can be said that the larger the slope of the projection characteristic y(θ) in FIG. 2B, the higher the resolution. Further, it can be said that the larger the interval of the image height y at each half angle of view of the contour lines in FIG. 2A, the higher the resolution.

本実施形態においては、半画角θが所定の半画角θa未満のときにセンサ面上に形成される中心寄りの領域を高解像度領域10a、半画角θが所定の半画角θa以上の外寄りの領域を低解像度領域10bと呼ぶ。なお、本実施形態では、高解像度領域10aと低解像度領域10bの境界の円を解像度境界と呼び、解像度境界に対応する表示画面上の境界画像を表示解像度境界または単に境界画像と呼ぶ。なお、表示画面に表示される境界画像(表示解像度境界)は円状でなくてもよい。便宜的に長方形などにしてもよい。 In the present embodiment, when the half angle of view θ is less than the predetermined half angle of view θa, the area near the center formed on the sensor surface is the high resolution area 10a, and the half angle of view θ is equal to or greater than the predetermined half angle of view θa. is called a low-resolution area 10b. In this embodiment, the circle of the boundary between the high-resolution area 10a and the low-resolution area 10b is called the resolution boundary, and the boundary image on the display screen corresponding to the resolution boundary is called the display resolution boundary or simply the boundary image. Note that the boundary image (display resolution boundary) displayed on the display screen does not have to be circular. For convenience, it may be rectangular or the like.

なお、本実施形態において、高解像度領域10aは歪曲が相対的に少ない低歪曲領域であり、低解像度領域10bは歪曲が相対的に多い高歪曲領域となっている。したがって、本実施形態においては、高解像度領域、低解像度領域はそれぞれ低歪曲領域、高歪曲領域に対応しており、高解像度領域、低解像度領域をそれぞれ低歪曲領域、高歪曲領域と呼ぶことがある。また、逆に低歪曲領域、高歪曲領域をそれぞれ高解像度領域、低解像度領域と呼ぶこともある。 In this embodiment, the high-resolution area 10a is a low-distortion area with relatively little distortion, and the low-resolution area 10b is a high-distortion area with relatively many distortions. Therefore, in the present embodiment, the high-resolution area and the low-resolution area correspond to the low-distortion area and the high-distortion area, respectively, and the high-resolution area and the low-resolution area can be called the low-distortion area and the high-distortion area, respectively. be. Conversely, the low distortion area and the high distortion area are sometimes called the high resolution area and the low resolution area, respectively.

本実施形態におけるカメラユニット11が有する光学系は、高解像度領域(低歪曲領域)10aにおいてその射影特性y(θ)がf×θより大きくなるように構成されている(fはカメラユニット11が有する光学系の焦点距離)。また、高解像度領域(低歪曲領域)における射影特性y(θ)は低解像度領域(高歪曲領域)における射影特性とは異なるように設定されている。 The optical system of the camera unit 11 in this embodiment is configured such that the projection characteristic y(θ) is greater than f×θ in the high resolution area (low distortion area) 10a (f is the camera unit 11 focal length of the optical system with). Also, the projection characteristic y(θ) in the high resolution area (low distortion area) is set to be different from the projection characteristic in the low resolution area (high distortion area).

また、θmaxをカメラユニット11が有する光学系が有する最大の半画角とするとき、θaとθmaxの比θa/θmaxは所定の下限値以上であることが望ましく、例えば所定の下限値として0.15~0.16が望ましい。 Further, when θmax is the maximum half angle of view of the optical system of the camera unit 11, the ratio θa/θmax between θa and θmax is desirably equal to or greater than a predetermined lower limit value, for example, 0.05 as the predetermined lower limit value. 15 to 0.16 is desirable.

また、θaとθmaxの比θa/θmaxは所定の上限値以下であることが望ましく、例えば0.25~0.35とすることが望ましい。例えば、θmaxを90°とし、所定の下限値を0.15、所定の上限値0.35とする場合、θaは13.5~31.5°の範囲で決定することが望ましい。さらに、カメラユニット11が有する光学系は、その射影特性y(θ)が、以下の数1も満足するように構成されている。 Also, the ratio θa/θmax of θa to θmax is desirably equal to or less than a predetermined upper limit value, such as 0.25 to 0.35. For example, when θmax is 90°, the predetermined lower limit is 0.15, and the predetermined upper limit is 0.35, θa is desirably determined within the range of 13.5 to 31.5°. Furthermore, the optical system of the camera unit 11 is configured such that its projection characteristic y(θ) also satisfies the following equation (1).

Figure 2023047328000002
Figure 2023047328000002

fは、前述のようにカメラユニット11が有する光学系の焦点距離であり、Aは所定の定数である。下限値を1とすることで、同じ最大結像高さを有する正射影方式(y=f×sinθ)の魚眼レンズよりも中心解像度を高くすることができ、上限値をAとすることで、魚眼レンズ同等の画角を得つつ良好な光学性能を維持することができる。所定の定数Aは、高解像度領域と、低解像度領域の解像度のバランスを考慮して決めればよく、1.4~1.9となるようにするのが望ましい。 f is the focal length of the optical system of the camera unit 11 as described above, and A is a predetermined constant. By setting the lower limit to 1, the central resolution can be made higher than that of an orthographic projection (y = f x sin θ) fisheye lens having the same maximum imaging height, and by setting the upper limit to A, the fisheye lens Good optical performance can be maintained while obtaining an equivalent angle of view. The predetermined constant A may be determined in consideration of the resolution balance between the high-resolution area and the low-resolution area, and is preferably 1.4 to 1.9.

以上のように光学系を構成することで、高解像度領域10aにおいては、高解像度が得られる一方、低解像度領域10bでは、単位あたりの半画角θに対する像高yの増加量を小さくし、より広い画角を撮像することが可能になる。したがって、魚眼レンズと同等の広画角を撮像範囲としつつ、高解像度領域10aにおいては、高い解像度を得ることができる。 By configuring the optical system as described above, high resolution can be obtained in the high resolution region 10a, while in the low resolution region 10b, the increase in the image height y with respect to the half angle of view θ per unit is reduced, It becomes possible to image a wider angle of view. Therefore, it is possible to obtain a high resolution in the high resolution area 10a while making the imaging range as wide as a fisheye lens.

さらに、本実施形態では、高解像度領域(低歪曲領域)においては、通常の撮像用の光学系の射影特性である中心射影方式(y=f×tanθ)や等距離射影方式(y=f×θ)に近い特性としているため、光学歪曲が小さく、精細に表示することが可能となる。したがって、先行車や後続車両といった周囲の車両などを目視する際における自然な遠近感が得られると共に、画質の劣化を抑えて良好な視認性を得ることができる。 Furthermore, in the present embodiment, in the high resolution area (low distortion area), the central projection method (y=f×tan θ) or the equidistant projection method (y=f× Since the characteristics are close to θ), optical distortion is small, and fine display is possible. Therefore, it is possible to obtain a natural perspective when viewing surrounding vehicles such as a preceding vehicle and a following vehicle, and to obtain good visibility by suppressing deterioration of image quality.

なお、上述の数1の条件を満たす射影特性y(θ)であれば、同様の効果を得ることができるため、本発明は図2に示した射影特性に限定されない。なお、本実施形態では上述の数1の条件を満たす射影特性y(θ)を有する光学系を異画角レンズと呼ぶ場合がある。 It should be noted that the present invention is not limited to the projection characteristics shown in FIG. 2 because the same effect can be obtained if the projection characteristics y(θ) satisfy the condition of Equation 1 above. In this embodiment, the optical system having the projection characteristic y(θ) that satisfies the condition of Equation 1 may be called a different angle of view lens.

なお、カメラユニット11~14のそれぞれの光学系の高解像度領域10aは撮像画角11a~14aに対応しており、低解像度領域10bは撮像画角11b~14bに対応している。 The high resolution area 10a of the optical system of each of the camera units 11 to 14 corresponds to the imaging field angles 11a to 14a, and the low resolution area 10b corresponds to the imaging field angles 11b to 14b.

尚、例えば移動体の正面(前面)、左側方、右側方などに取り付ける、カメラユニット11,12,14には、図2や数1で示したような異画角レンズではなく、以下の数2の条件を満たす射影特性y(θ)を有する光学系を用いることもできる。この光学系は、異画角レンズと比べて、高解像度領域と低解像度領域が凡そ反対になる。 For example, the camera units 11, 12, and 14 attached to the front (front), left side, and right side of the moving object are not lenses with different angles of view as shown in FIG. An optical system having a projection characteristic y(θ) that satisfies condition 2 can also be used. In this optical system, the high resolution area and the low resolution area are roughly opposite compared to the different angle of view lens.

即ち、前述の異画角レンズは中心寄りの領域が高解像度領域10aであり、半画角θが所定の半画角θa以上の外寄りの領域が低解像度領域10bである。しかし数2の条件を満たす光学系では、中心寄りの領域が低解像度領域10bであり、半画角θが所定の半画角θa以上の外寄りの領域が高解像度領域10aとなる。このような光学系を逆異画角レンズと呼ぶ場合がある。
0.2<2×f×tan(θmax/2)/y(θmax) <0.92 (数2)
That is, the above-described different angle of view lens has a high resolution area 10a in the central area, and a low resolution area 10b in the outer area where the half angle of view θ is equal to or greater than the predetermined half angle of view θa. However, in an optical system that satisfies the condition of Expression 2, the central area is the low resolution area 10b, and the outer area where the half angle of view θ is equal to or greater than the predetermined half angle of view θa is the high resolution area 10a. Such an optical system is sometimes called a reverse different angle of view lens.
0.2<2×f×tan(θmax/2)/y(θmax)<0.92 (Equation 2)

このように、移動体の異なる位置に前述の異画角レンズを有するカメラユニットと逆異画角レンズを有するカメラユニットとを夫々設置しても良い。即ち、カメラユニットの少なくとも1つは、その光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、上記の数2を満足するようにしても良い。 In this manner, the camera unit having the different angle of view lens and the camera unit having the reverse different angle of view lens may be installed at different positions on the moving body. That is, at least one of the camera units has a focal length of its optical system of f, a half angle of view of θ, an image height of y on the image plane, and a projection characteristic representing the relationship between the image height y and the half angle of view θ. When y([theta]) and [theta]max are the maximum half angle of view of the optical system, the above equation 2 may be satisfied.

次に本実施形態における画像処理システムの構成について図3を用いて説明する。図3は実施形態1における画像処理システムの構成を説明するための機能ブロック図である。 Next, the configuration of the image processing system according to this embodiment will be described with reference to FIG. FIG. 3 is a functional block diagram for explaining the configuration of the image processing system according to the first embodiment.

図3において画像処理システム100は、移動体としての車両1に搭載されており、カメラユニット11~14の筐体内にはそれぞれ撮像部21~24とカメラ処理部31~34が配置されている。 In FIG. 3, the image processing system 100 is mounted on a vehicle 1 as a moving body, and imaging units 21 to 24 and camera processing units 31 to 34 are arranged in housings of camera units 11 to 14, respectively.

撮像部21~24はそれぞれ異画角レンズ21c~24cと例えばCMOSイメージセンサやCCDイメージセンサなどの撮像素子21d~24dを有する。ここで、撮像部21~24はそれぞれ画像取得部として機能しており、各画像取得部は、低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像部から画像信号を取得している。また、本実施形態においては異なる位置に配置された複数の画像取得部を有している。 The image capturing units 21 to 24 have different field angle lenses 21c to 24c and image capturing elements 21d to 24d such as CMOS image sensors and CCD image sensors, respectively. Here, the imaging units 21 to 24 each function as an image acquisition unit, and each image acquisition unit acquires an image signal from the imaging unit that captures an optical image having a low distortion area and a high distortion area. . In addition, the present embodiment has a plurality of image acquisition units arranged at different positions.

光学系としての異画角レンズ21c~24cは、1枚以上の光学レンズから構成されており、数1の条件を満たす射影特性y(θ)を有し、低歪曲領域と高歪曲領域とを有する光学像をそれぞれ撮像素子21d~24dの受光面に形成する。撮像素子21d~24dは撮像部として機能しており、光学像を光電変換して撮像信号を出力する。撮像素子21d~24dの受光面には例えばRGBの色フィルタが画素毎に配列されている。RGBの配列は例えばベイヤー配列となっている。 The different view angle lenses 21c to 24c as an optical system are composed of one or more optical lenses, have a projection characteristic y(θ) that satisfies the condition of Equation 1, and have a low distortion area and a high distortion area. The optical images are formed on the light receiving surfaces of the imaging elements 21d to 24d, respectively. The imaging devices 21d to 24d function as imaging units, photoelectrically convert optical images, and output imaging signals. For example, RGB color filters are arranged for each pixel on the light receiving surfaces of the imaging elements 21d to 24d. The arrangement of RGB is, for example, a Bayer arrangement.

尚、正面又は側方には、異画角レンズを有する画像取得部の代わりに逆異画角レンズを有する画像取得部を配置することもできるが、異画角レンズを有する画像取得部と逆異画角レンズを有する画像取得部の配置位置はこれに限定されない。尚、これらの複数の画像取得部(異画角レンズを有する画像取得部と逆異画角レンズを有する画像取得部)の少なくとも2つの画像取得部の撮影範囲が互いに重複するように配置されているものとする。 It should be noted that an image acquisition unit having a reverse different angle of view lens can be arranged in place of the image acquisition unit having a different angle of view lens on the front or side. The arrangement position of the image acquisition unit having the different angle of view lens is not limited to this. At least two image acquisition units of the plurality of image acquisition units (an image acquisition unit having a different angle of view lens and an image acquisition unit having a reverse different angle of view lens) are arranged so that the photographing ranges of at least two of the image acquisition units overlap each other. It is assumed that there is

したがって、撮像素子からは、ベイヤー配列にしたがって例えば所定の行からはR,G,R、Gの信号が順次出力され、隣の行からはG,B,G,B、の信号が順次出力されるように構成されている。 Therefore, from the imaging device, signals of R, G, R, and G are sequentially output from a predetermined row, and signals of G, B, G, and B are sequentially output from the adjacent row in accordance with the Bayer arrangement. is configured as follows.

31~34はカメラ処理部であり、撮像部21~24と共にそれぞれ同じカメラユニット11~14の筐体に収納されており、撮像部21~24から出力された撮像信号をそれぞれ処理する。なお、図3では撮像部24、カメラ処理部34の詳細およびその配線は便宜上省略されている。 Camera processing units 31 to 34 are housed in the same housings of the camera units 11 to 14 together with the imaging units 21 to 24, respectively, and process imaging signals output from the imaging units 21 to 24, respectively. In FIG. 3, the details of the imaging unit 24 and the camera processing unit 34 and their wiring are omitted for the sake of convenience.

カメラ処理部31~34はそれぞれ画像処理部31a~34a、認識部31b~34b、カメラ情報部31c~34cを有する。画像処理部31a~34aは撮像部21~24から出力された撮像信号をそれぞれ画像処理する。なお、カメラ処理部31の一部または全部を撮像素子21d~24d内の積層された信号処理部で行ってもよい。 The camera processing units 31 to 34 have image processing units 31a to 34a, recognition units 31b to 34b, and camera information units 31c to 34c, respectively. The image processing units 31a to 34a process the imaging signals output from the imaging units 21 to 24, respectively. Note that part or all of the camera processing section 31 may be performed by stacked signal processing sections in the imaging elements 21d to 24d.

具体的には、画像処理部31a~34aは、撮像部21~24からベイヤー配列にしたがって入力された画像データをそれぞれデベイヤ処理し、RGBのラスタ形式の画像データへ変換する。さらに、ホワイトバランスの調整やゲイン・オフセット調整、ガンマ処理、カラーマトリックス処理や可逆圧縮処理など種々の補正処理を行う。但し、非可逆圧縮処理などは行わず、いわゆるRAW画像信号を形成する。 Specifically, the image processing units 31a to 34a debayer the image data input from the imaging units 21 to 24 according to the Bayer array, and convert the image data into RGB raster format image data. Furthermore, various correction processes such as white balance adjustment, gain/offset adjustment, gamma processing, color matrix processing, and reversible compression processing are performed. However, irreversible compression processing is not performed, and a so-called RAW image signal is formed.

認識部31b~34bは画像処理部31a~34aで画像処理された歪曲補正されていないRAW画像信号からそれぞれ所定の対象物(例えば自動車、人物、障害物など)を画像認識する。即ち、認識部31b~34bは、低歪曲領域に対応する画像信号を歪曲補正せずにRAW画像信号の状態で画像認識して第1の画像認識結果を出力する。すなわち、本実施形態の認識部31b~34bは少なくとも高解像度領域10aから得られたRAW画像信号に対して画像認識処理を行い、所定の対象物を認識する。 The recognizing units 31b to 34b perform image recognition of predetermined objects (for example, automobiles, people, obstacles, etc.) from the RAW image signals that have not undergone distortion correction and have been image-processed by the image processing units 31a to 34a. That is, the recognizing units 31b to 34b perform image recognition in the state of the RAW image signal without performing distortion correction on the image signal corresponding to the low distortion area, and output the first image recognition result. That is, the recognizing units 31b to 34b of the present embodiment perform image recognition processing on at least the RAW image signal obtained from the high-resolution area 10a to recognize a predetermined target object.

なお、この時、認識部31b~34bは、低解像度領域10bから得られたRAW画像信号についても画像認識処理をしてもよい。但し、RAW画像信号は歪曲補正されていないので、異画角レンズの周辺部の画像は歪が大きく認識の信頼性は落ちることになる。 At this time, the recognition units 31b to 34b may also perform image recognition processing on the RAW image signal obtained from the low resolution area 10b. However, since the distortion of the RAW image signal is not corrected, the distortion of the peripheral image of the different angle of view lens is large, and the reliability of recognition is lowered.

或いは、認識部31b~34bは、高解像度領域10aから得られたRAW画像信号を切り出して、その高解像度領域10aから得られたRAW画像信号に対してだけ画像認識処理を行ってもよい。 Alternatively, the recognizing units 31b to 34b may cut out the RAW image signal obtained from the high resolution area 10a and perform image recognition processing only on the RAW image signal obtained from the high resolution area 10a.

なお、その際切り出す領域は、画像認識処理のために矩形にすることが望ましい。また、切り出す矩形領域は高解像度領域10a内の一部だけ(例えば高解像度領域10aに内接する矩形)でもよいし、高解像度領域10aと低解像度領域10bの両方を含んだ矩形でもよい。 It should be noted that the area to be cut out at that time is desirably rectangular for image recognition processing. The rectangular area to be cut out may be only a part of the high-resolution area 10a (for example, a rectangle inscribed in the high-resolution area 10a), or may be a rectangle including both the high-resolution area 10a and the low-resolution area 10b.

ここで、認識部31b~34bは撮像部(画像取得部)により取得された画像信号の内、少なくとも一部領域の画像信号を画像認識して第1の画像認識結果を出力する第1の画像認識部として機能している。なお、本実施形態において、前記一部領域は低歪曲領域に対応する領域である。 Here, the recognizing units 31b to 34b recognize the image signal of at least a partial area among the image signals acquired by the imaging unit (image acquiring unit), and output the first image recognition result as a first image. It functions as a recognition part. In addition, in the present embodiment, the partial area is an area corresponding to the low distortion area.

認識部31b~34bは、対象物の種類と座標のセットを認識結果として統合処理部40に送信する。一方、認識部31b~34bは、統合処理部40の統合制御部41cから、カメラユニット間をまたがるような対象物の種類と、その対象物の移動方向に関する情報または優先認識領域情報のセットである予測情報を受信する。この予測情報については後述する。 The recognizing units 31b to 34b transmit the type of object and a set of coordinates to the integration processing unit 40 as a recognition result. On the other hand, the recognizing units 31b to 34b are a set of information on the type of object straddling the camera units and the moving direction of the object or priority recognition region information from the integrated control unit 41c of the integrated processing unit 40. Receive forecast information. This prediction information will be described later.

ここで、正面に対して設置されたカメラユニット11の認識部31bの出力は走行制御部(ECU)60にも直接供給されている。これは、認識部31bの障害物などの認識結果に基づいて直ちに走行を停止したり、障害物を回避するように走行を制御する必要が生じる場合があるからである。 Here, the output of the recognition section 31b of the camera unit 11 installed facing the front is also directly supplied to the running control section (ECU) 60. FIG. This is because it may be necessary to immediately stop traveling based on the recognition result of an obstacle or the like by the recognizing unit 31b, or to control traveling to avoid the obstacle.

カメラ情報部31c~34cはそれぞれカメラユニット11~14に固有のカメラ情報を予めメモリに保持している。カメラ情報部はカメラユニット11~14内に設けた各種センサ等からの情報を一時的に保持することもできる。 The camera information units 31c to 34c store camera information unique to the camera units 11 to 14 in advance in memory. The camera information section can also temporarily hold information from various sensors provided in the camera units 11-14.

カメラ情報は、例えば異画角レンズ21c~24cが形成する光学像の図2に示されるような特性情報(解像度境界情報など)を含む。また、撮像素子21d~24dの画素数、カメラユニットの車両座標における取り付け位置座標および姿勢(ピッチ、ロール、ヨーなど)の情報、撮像方向などを含む。カメラ情報は、ガンマ特性、感度特性、フレームレートなどの情報を含んでも良い。 The camera information includes, for example, characteristic information (resolution boundary information, etc.) as shown in FIG. It also includes the number of pixels of the imaging elements 21d to 24d, the mounting position coordinates and orientation (pitch, roll, yaw, etc.) information of the camera unit in the vehicle coordinates, the imaging direction, and the like. Camera information may include information such as gamma characteristics, sensitivity characteristics, and frame rate.

さらに、カメラ情報は、画像処理部31a~34aにおいてRAW画像信号を生成する際の可逆圧縮方法などの画像処理方法や画像フォーマットに関する情報を含んでもよい。なお、取り付け位置座標は、カメラユニット毎に車両に対する取り付け位置が決まっている場合が多いので、事前にカメラ情報部内のメモリに記憶しておいてもよい。 Furthermore, the camera information may include information about image processing methods such as lossless compression methods and image formats when generating RAW image signals in the image processing units 31a to 34a. Note that the mounting position coordinates may be stored in the memory in the camera information section in advance, since the mounting position with respect to the vehicle is often determined for each camera unit.

また、カメラユニットの姿勢座標は車両1に対する相対的な座標であり、カメラユニットに設けられた不図示のエンコーダなどから取得してもよい。あるいは3次元加速度センサなどを用いて取得してもよい。 The orientation coordinates of the camera unit are coordinates relative to the vehicle 1, and may be obtained from an encoder (not shown) provided in the camera unit. Alternatively, it may be acquired using a three-dimensional acceleration sensor or the like.

また、撮像方向に関する情報は例えば地磁気センサを用いて取得してもよい。カメラの解像度境界情報はレンズ設計によって決まるので予めカメラ情報部内のメモリに記憶しておくものとする。 Also, the information regarding the imaging direction may be acquired using, for example, a geomagnetic sensor. Since the resolution boundary information of the camera is determined by the lens design, it is assumed to be stored in advance in the memory within the camera information section.

なお、カメラ情報は撮像部21~24の固有の情報であり、互いに異なり、それらの情報は統合処理部40に送信され、統合処理部40において画像処理などをする際に参照される。 The camera information is specific to the imaging units 21 to 24 and different from each other. The information is transmitted to the integration processing unit 40 and referred to when the integration processing unit 40 performs image processing.

なお、カメラ処理部31~34の内部にはコンピュータとしてのCPUや記憶媒体としてのコンピュータプログラムを記憶したメモリが内蔵されている。また、CPUはメモリ内のコンピュータプログラムを実行することにより、カメラ処理部31~34内の各部を制御するように構成されている。 The camera processing units 31 to 34 incorporate a CPU as a computer and a memory storing a computer program as a storage medium. Also, the CPU is configured to control each section in the camera processing sections 31 to 34 by executing a computer program in the memory.

なお、本実施形態では、画像処理部31a~34aや認識部31b~34bは例えば専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などのハードウェアを用いる。それによって、高解像度領域の画像認識の高速化が実現でき、移動体の接触事故等を回避できる可能性を高めることができる。なお、画像処理部31a~34aは歪曲補正機能を持っていてもよい。 In this embodiment, the image processing units 31a to 34a and the recognition units 31b to 34b use hardware such as dedicated circuits (ASIC) and processors (reconfigurable processors, DSPs). As a result, it is possible to speed up the image recognition in the high-resolution area, and increase the possibility of avoiding accidents such as contact with a moving object. Note that the image processing units 31a to 34a may have a distortion correction function.

なお、カメラ処理部31~34の内部の機能ブロックの一部または全部を、CPUに、メモリに記憶されたコンピュータプログラムを実行させることによって実現してもよいが、その場合には、CPUの処理速度を高めることが望ましい。 Some or all of the functional blocks inside the camera processing units 31 to 34 may be realized by causing the CPU to execute a computer program stored in the memory. It is desirable to increase the speed.

40は統合処理部であり、SOC(Sytem On Chip)/FPGA(Field Programable Gate Array)41、コンピュータとしてのCPU42、記憶媒体としてのメモリ43を有する。CPU42はメモリ43に記憶されたコンピュータプログラムを実行することによって、画像処理システム100全体の各種制御を行う。なお、本実施形態では統合処理部40はカメラユニットとは別の筐体で収納されている。 An integrated processing unit 40 has an SOC (System On Chip)/FPGA (Field Programmable Gate Array) 41, a CPU 42 as a computer, and a memory 43 as a storage medium. The CPU 42 performs various controls over the entire image processing system 100 by executing computer programs stored in the memory 43 . Note that in this embodiment, the integrated processing unit 40 is housed in a housing separate from the camera unit.

SOC/FPGA41は画像処理部41a、認識部41b、統合制御部41cを有する。画像処理部41aはカメラ処理部31~34からそれぞれのRAW画像信号を取得すると共に、カメラ情報部31c~34cより各カメラユニット11~14のカメラ情報を取得する。 The SOC/FPGA 41 has an image processing section 41a, a recognition section 41b, and an integrated control section 41c. The image processing unit 41a acquires RAW image signals from the camera processing units 31 to 34, and acquires camera information of the camera units 11 to 14 from the camera information units 31c to 34c.

カメラ情報は、前述のように、異画角レンズ21c~24cの光学特性や撮像素子21d~24dの画素数、光電変換特性、ガンマ特性、感度特性、RAW画像信号のフォーマット情報、カメラユニットの車両座標における取り付け座標や姿勢情報などを含む。 As described above, the camera information includes the optical characteristics of the different angle lenses 21c to 24c, the number of pixels of the imaging devices 21d to 24d, photoelectric conversion characteristics, gamma characteristics, sensitivity characteristics, RAW image signal format information, camera unit vehicle It includes mounting coordinates and attitude information in coordinates.

画像処理部41aはそれらのカメラ情報に基づきカメラ処理部31~34からのそれぞれのRAW画像信号に対して解像度変換を行うと共に、撮像部21~24のそれぞれの低解像度領域10bから得られた画像信号に対して歪曲補正を行う。 The image processing unit 41a performs resolution conversion on the respective RAW image signals from the camera processing units 31 to 34 based on the camera information, and converts the images obtained from the low resolution regions 10b of the imaging units 21 to 24, respectively. Perform distortion correction on the signal.

本実施形態では画像処理部41aは、高解像度領域10aから得られた画像信号には歪曲が殆どないので歪曲補正は行わない。但し、画像処理部41aは、高解像度領域10aから得られた画像信号に対しても簡略的な歪曲補正を行ってもよい。また、画像処理部41aはカメラ処理部31~34からそれぞれのRAW画像信号に対して適宜非可逆圧縮処理などを行う。 In this embodiment, the image processing unit 41a does not perform distortion correction because the image signal obtained from the high-resolution area 10a has almost no distortion. However, the image processing unit 41a may also perform simple distortion correction on the image signal obtained from the high resolution area 10a. Further, the image processing unit 41a appropriately performs irreversible compression processing and the like on the respective RAW image signals from the camera processing units 31-34.

また、画像処理部41aは歪曲補正を行った撮像部21~24のそれぞれの低解像度領域10bの画像信号と、高解像度領域10aの画像信号をスムーズにつなぎ合わせるように合成して撮像部21~24毎の全体画像を形成する。 Further, the image processing unit 41a synthesizes the distortion-corrected image signals of the low-resolution regions 10b of the imaging units 21 to 24 and the image signals of the high-resolution regions 10a so as to connect them smoothly. Every 24 full images are formed.

なお、低解像度領域10bの画像信号と高解像度領域10aから得られた画像信号の両方に対して歪曲補正を行う場合には、画像処理部31a~34aでそれぞれ得られたRAW画像信号をそのまま歪曲補正してもよい。 When performing distortion correction on both the image signal of the low resolution area 10b and the image signal obtained from the high resolution area 10a, the RAW image signals obtained by the image processing units 31a to 34a are directly distorted. can be corrected.

認識部41bは少なくとも低解像度領域を歪曲補正した後の、撮像部21~24毎の全体画像に対して画像認識処理を行い、撮像部21~24毎の全体画像における所定の対象物(例えば自動車、人物、障害物など)を画像認識する。即ち、認識部41bは、少なくとも低解像度領域(高歪曲領域)に対応する画像信号を歪曲補正した後で画像認識して第2の画像認識結果を出力する。 The recognition unit 41b performs image recognition processing on the entire image of each of the imaging units 21 to 24 after distortion correction at least in the low-resolution area, and recognizes a predetermined object (for example, an automobile) in the entire image of each of the imaging units 21 to 24. , people, obstacles, etc.). That is, the recognition unit 41b corrects the distortion of the image signal corresponding to at least the low-resolution area (high-distortion area), performs image recognition, and outputs the second image recognition result.

その際に、認識部31b~34bによる認識結果(対象物の種類や座標)も参照する。なお、本実施形態では、認識部41bは撮像部21~24毎の全体画像に対して画像認識をしているが、必ずしも全体画像に対して画像認識をしなくてもよい。例えば画像の周辺部については画像認識しなくても良い。 At that time, the recognition results (object type and coordinates) by the recognition units 31b to 34b are also referred to. In this embodiment, the recognition unit 41b performs image recognition on the entire image of each of the imaging units 21 to 24, but the image recognition does not necessarily have to be performed on the entire image. For example, image recognition may not be performed for the peripheral portion of the image.

即ち、認識部41bの画像認識領域は、例えば認識部31b~34bにより認識した領域を含み、それより広い領域であればよい。すなわち、認識部41bは、画像取得部により取得された画像信号の内、第1の画像認識部で画像認識を行った一部領域を含む、該一部領域より広い領域の画像信号を画像認識して第2の画像認識結果を出力する第2の画像認識部として機能している。 That is, the image recognition area of the recognition section 41b may be an area wider than the areas recognized by the recognition sections 31b to 34b, for example. That is, the recognizing unit 41b performs image recognition on an image signal of an area wider than the partial area including the partial area subjected to image recognition by the first image recognizing unit, among the image signals acquired by the image acquiring unit. It functions as a second image recognition unit for outputting a second image recognition result.

なお、第2の画像認識部は、低歪曲領域としての高解像度領域10aと高歪曲領域としての低解像度領域10bに対応した画像信号の両方を画像認識して第2の画像認識結果を出力している。 The second image recognition unit performs image recognition on both the image signals corresponding to the high resolution area 10a as the low distortion area and the image signal corresponding to the low resolution area 10b as the high distortion area, and outputs the second image recognition result. ing.

本実施形態では、画像処理部41aは、複数の撮像部としてのカメラユニット12~14からの画像をつなぎ合わせるように合成して、パノラマ的な合成画像を形成する。その場合、つなぎ合わされる複数の撮像部の画像は、それぞれの撮影画角の少なくとも一部が互いに所定量以上のオーバーラップ領域を有するように設定されている。 In this embodiment, the image processing section 41a synthesizes images from the camera units 12 to 14 as a plurality of imaging sections so as to join them together to form a panoramic synthetic image. In this case, the images of the plurality of imaging units to be spliced are set so that at least a part of each shooting angle of view has an overlapping area of a predetermined amount or more.

すなわち、カメラユニット12と13の撮影範囲が互いに重複するようにそれぞれ配置されている。また、カメラユニット13と14の撮影範囲が互いに重複するようにそれぞれ配置されている。しかも、本実施形態では、少なくとも2つの画像取得部の低歪曲領域の撮影範囲が互いに重複するように配置されている。 That is, the camera units 12 and 13 are arranged so that the shooting ranges of the camera units 12 and 13 overlap each other. Also, the camera units 13 and 14 are arranged so that the shooting ranges of the camera units 13 and 14 overlap each other. Moreover, in the present embodiment, the imaging ranges of the low-distortion regions of at least two image acquisition units are arranged so as to overlap each other.

また、認識部41bは、そのパノラマ的な合成画像に対して画像認識を行う。それによって、例えば複数の撮像部の画角にまたがるように撮影された対象物の画像認識が可能となる。すなわち、それぞれの撮像部からの個別の全体画像では対象物の全体像が分からない場合があるが、パノラマ的な合成画像においてはその対象物のほぼ全体が映り画像処理により画像認識が可能になる場合があるからである。 The recognition unit 41b also performs image recognition on the panoramic composite image. As a result, for example, it is possible to recognize an image of an object photographed so as to extend over the angles of view of a plurality of imaging units. In other words, there are cases where the entire image of the object cannot be seen from the individual whole images from the respective imaging units, but in the panoramic composite image, almost the entire object is captured and image recognition becomes possible through image processing. This is because there are cases.

統合制御部41cは、例えば認識部31b~34bによる認識結果と認識部41bによる認識結果が異なる場合には、より信頼性が高い方の認識結果を採用することで統合された画像認識結果を出力する。 For example, when the recognition result by the recognition units 31b to 34b and the recognition result by the recognition unit 41b are different, the integrated control unit 41c outputs the integrated image recognition result by adopting the recognition result with higher reliability. do.

例えば認識部31b~34bにより認識された対象物の画面内に占める割合と認識部41bにより認識された同じ対象物の、画面内に閉める割合を比較し、その割合が大きい方の認識結果を、より信頼性が高いと判断して採用してもよい。 For example, the ratio of the objects recognized by the recognition units 31b to 34b in the screen is compared with the ratio of the same objects recognized by the recognition unit 41b that are closed in the screen. It may be adopted by judging that it is more reliable.

或いは高解像度領域内と低解像度領域の両方にまたがっている対象物の場合には、認識部31b~34bによる認識結果よりも認識部41bによる認識結果を、より信頼性が高いと判断して採用してもよい。或いは、認識部31b~34bにより認識された対象物の位置が画面の周辺部の場合には、信頼性が低いと判断して、認識部41bによる認識結果を、より信頼性が高いと判断して採用してもよい。 Alternatively, in the case of an object that straddles both the high-resolution area and the low-resolution area, the recognition result by the recognition unit 41b is judged to be more reliable than the recognition result by the recognition units 31b to 34b, and adopted. You may Alternatively, when the positions of the objects recognized by the recognition units 31b to 34b are in the periphery of the screen, it is determined that the reliability is low, and the recognition result by the recognition unit 41b is determined to be more reliable. may be adopted.

或いは、認識部41bでは、低解像度領域を歪曲補正した状態で、低解像度領域だけ画像認識をすると共に、もし低解像度領域と高解像度領域にまたがる対象物があった場合には、その対象物に対して画像認識をするようにしてもよい。 Alternatively, the recognizing unit 41b performs image recognition only in the low-resolution area while the distortion of the low-resolution area is corrected. You may make it image-recognize with respect.

即ち、高解像度領域だけに存在する対象物に対しては認識部31b~34bによる認識の信頼性の方が高いとみなして認識部41bでは画像認識処理をしないように制御してもよい。ここで、統合制御部41cは、第1の画像認識結果の信頼性と第2の画像認識結果の信頼性に基づき統合された画像認識結果を出力する統合処理部として機能している。 That is, it is possible to perform control so that the recognition unit 41b does not perform image recognition processing, considering that the reliability of the recognition by the recognition units 31b to 34b is higher for the object existing only in the high-resolution area. Here, the integration control unit 41c functions as an integration processing unit that outputs an image recognition result integrated based on the reliability of the first image recognition result and the reliability of the second image recognition result.

また、画像処理部41aは、撮像部21~24毎の全体画像や、それらをつなぎ合わせたパノラマ的な合成画像などの内、所望の画像を第1表示部50,第2表示部51、第3表示部52などに表示するための信号を形成する。また、認識された対象物を強調表示するための枠や、対象物の種類、サイズ、位置、速度などに関する情報や警告などのためのCGなどを生成する。 In addition, the image processing unit 41a selects a desired image from among the entire image of each of the imaging units 21 to 24 and a panoramic composite image obtained by joining them together. 3 Forms a signal to be displayed on the display unit 52 or the like. It also generates a frame for highlighting the recognized target object, information about the target object type, size, position, speed, etc., and CG for warning.

さらに、カメラ情報部31c~34cから取得した表示解像度境界情報などの光学系の特性情報に基づき境界を表示するための境界画像のCGを生成することができる。尚、境界を表すためには、表示画像を生成しなくても、境界を示す情報を生成できれば良い。 Further, it is possible to generate a boundary image CG for displaying the boundary based on optical system characteristic information such as display resolution boundary information acquired from the camera information units 31c to 34c. In order to represent the boundary, it is sufficient to generate information indicating the boundary without generating a display image.

また、これらのCGや文字を画像に重畳するための表示処理などを行う。ここで第1表示部50,第2表示部51、第3表示部52などは表示部として機能しており、画像信号や統合された画像認識結果などを表示する。 In addition, display processing for superimposing these CG and characters on the image is performed. Here, the first display section 50, the second display section 51, the third display section 52, and the like function as display sections, and display image signals, integrated image recognition results, and the like.

さらにまた、本実施形態においては、統合制御部41cは複数のカメラユニットの間で認識された対象物に関する情報を共有するように構成されている。即ち、例えばカメラユニット14において認識された対象物がカメラユニット11の画角の方向に移動していることが認識されたものとする。その場合には、統合制御部41cはその対象物の種類と、その対象物の移動方向に関する情報または優先認識領域情報を含む予測情報をカメラユニット11の認識部31bに送信する。 Furthermore, in this embodiment, the integrated control section 41c is configured to share information regarding recognized objects among a plurality of camera units. That is, for example, it is assumed that the object recognized by the camera unit 14 is recognized to be moving in the direction of the angle of view of the camera unit 11 . In that case, the integrated control section 41c transmits prediction information including the type of the object and the moving direction of the object or priority recognition area information to the recognition section 31b of the camera unit 11. FIG.

このような予測情報をカメラユニット11~14の認識部31b~34bで共有することによってカメラユニット11~14の認識部31b~34bにおける画像認識精度を向上させることができる。なお、このような予測情報を共有するメリットは、カメラユニット11~14の認識部31b~34bが統合処理部40の認識部41bと別体の場合に特に効果が大きい。 By sharing such prediction information among the recognition sections 31b-34b of the camera units 11-14, the accuracy of image recognition in the recognition sections 31b-34b of the camera units 11-14 can be improved. The advantage of sharing such prediction information is particularly large when the recognition units 31b to 34b of the camera units 11 to 14 are separate from the recognition unit 41b of the integrated processing unit 40. FIG.

また、統合制御部41cは走行制御部(ECU)60などとCANやFlexRay、Ethernetなどのプロトコルを用いて内部に設けられた不図示の通信部を介して通信を行う。それによって、走行制御部(ECU)60などから受信した車両制御信号に基づき表示する情報を適宜変更する表示処理を行う。即ち、例えば車両制御信号により取得された車両の移動状態に応じて表示部に表示する画像の範囲などを変化させる。 Further, the integrated control unit 41c communicates with the traveling control unit (ECU) 60 and the like via a communication unit (not shown) provided therein using protocols such as CAN, FlexRay, and Ethernet. As a result, display processing for appropriately changing the information to be displayed based on the vehicle control signal received from the travel control unit (ECU) 60 or the like is performed. That is, for example, the range of the image displayed on the display unit is changed according to the moving state of the vehicle acquired by the vehicle control signal.

なお、走行制御部(ECU)60は、車両1に搭載されており、車両1の駆動制御、方向制御などを総合的に行うためのコンピュータやメモリを内蔵したユニットである。走行制御部(ECU)60からは車両制御信号として例えば走行速度、走行方向、シフトレバー、シフトギア、ウインカーの状態、地磁気センサなどによる車両の向きなどの車両の走行(移動状態)に関する情報などが統合処理部40に対して入力される。 A travel control unit (ECU) 60 is mounted on the vehicle 1 and is a unit containing a computer and a memory for comprehensively performing drive control, direction control, etc. of the vehicle 1 . From the travel control unit (ECU) 60, vehicle control signals such as travel speed, travel direction, shift lever, shift gear, turn signal state, vehicle direction detected by a geomagnetic sensor, etc. are integrated. It is input to the processing unit 40 .

統合制御部41cは、認識部41bで認識された所定の対象物(障害物など)の種類、位置、移動方向、移動速度などの情報を走行制御部(ECU)60に送信する。それによって走行制御部(ECU)60は車両の停止、駆動、走行方向の変更などの障害物の回避などに必要な制御を行う。ここで走行制御部(ECU)60は、統合された画像認識結果に基づき移動体としての車両の移動を制御する移動制御部として機能している。 The integrated control unit 41c transmits information such as the type, position, moving direction, and moving speed of the predetermined object (obstacle, etc.) recognized by the recognition unit 41b to the running control unit (ECU) 60. FIG. Accordingly, the travel control unit (ECU) 60 performs necessary controls such as stopping the vehicle, driving the vehicle, changing the traveling direction, and avoiding obstacles. Here, the traveling control unit (ECU) 60 functions as a movement control unit that controls the movement of the vehicle as a moving object based on the integrated image recognition result.

第1表示部50は例えば車両1の運転席の前方上部の車幅方向の中央付近に、表示画面を車両後方に向けて設置され電子ルームミラーとして機能する。なお、ハーフミラーなどを用いて、ディスプレイとして使用しないときは鏡として使用できる構成としてもよい。また、タッチパネルや操作ボタンを備えユーザからの指示を取得し、統合制御部41cへ出力可能な構成としてもよい。 The first display unit 50 is installed, for example, in the vicinity of the center in the vehicle width direction above the front of the driver's seat of the vehicle 1, and functions as an electronic rearview mirror with the display screen directed toward the rear of the vehicle. A half mirror or the like may be used so that it can be used as a mirror when it is not used as a display. Further, a touch panel or an operation button may be provided to acquire an instruction from the user and output it to the integrated control section 41c.

第2表示部51は、例えば車両1の運転席の前方の車幅方向の中央付近の操作パネル周辺に設置される。なお、移動体としての車両1には、不図示のナビゲーションシステムや、オーディオシステムなどが搭載されている。 The second display unit 51 is installed, for example, around the operation panel near the center in the vehicle width direction in front of the driver's seat of the vehicle 1 . The vehicle 1 as a mobile body is equipped with a navigation system, an audio system, and the like (not shown).

そして、例えば第2表示部には、ナビゲーションシステムや、オーディオシステムや走行制御部(ECU)60からの各種制御信号なども表示することができる。また、タッチパネルや操作ボタンを備え、ユーザからの指示を取得可能な構成としている。 For example, the second display section can also display various control signals from the navigation system, the audio system, and the travel control section (ECU) 60 . It also has a touch panel and operation buttons, and is configured to be able to acquire instructions from the user.

第3表示部52は例えばタブレット端末の表示部であり、統合処理部40に対して有線で接続することにより表示することもできるし、通信部62を介して無線で画像を受信して表示することもできる。 The third display unit 52 is, for example, a display unit of a tablet terminal. can also

カメラユニット11~14の位置や姿勢を調整する際には、無線接続されたタブレット端末の表示部に調整用の画面を表示しつつ調整動作を行う。勿論、ナビゲーションシステムからの制御信号を表示する第2表示部51と第3表示部52との機能を1つの表示装置で実現することもできる。 When adjusting the positions and postures of the camera units 11 to 14, the adjustment operation is performed while displaying the adjustment screen on the display unit of the wirelessly connected tablet terminal. Of course, the functions of the second display section 51 and the third display section 52, which display control signals from the navigation system, can be realized by one display device.

なお、第1表示部50、第2表示部51、第3表示部52のディスプレイパネルとしては、液晶ディスプレイや有機ELディスプレイなどを用いることができる。なお、表示部の数は3つに限定されない。 As the display panels of the first display section 50, the second display section 51, and the third display section 52, a liquid crystal display, an organic EL display, or the like can be used. Note that the number of display units is not limited to three.

なお、統合処理部40などに含まれる機能ブロックの一部または全部をハードウェアで実現するようにしてもよいし、CPU42に、メモリ43に記憶されたコンピュータプログラムを実行させることによって実現してもよい。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。 Some or all of the functional blocks included in the integrated processing unit 40 and the like may be realized by hardware, or may be realized by causing the CPU 42 to execute a computer program stored in the memory 43. good. As hardware, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like can be used.

なお、画像処理部31a~34aで行っている画像処理の一部または全部を統合処理部40の画像処理部41aで行ってもよい。即ち、本実施形態では、例えば画像取得部と第1の画像認識部とは同じカメラユニットの筐体に収納されており、カメラユニットと第2の画像認識部とは別の筐体に収納されている。しかし、例えば第1の画像認識部を第2の画像認識部と共に統合処理部40の筐体に収納してもよい。 Note that part or all of the image processing performed by the image processing units 31 a to 34 a may be performed by the image processing unit 41 a of the integrated processing unit 40 . That is, in this embodiment, for example, the image acquisition section and the first image recognition section are housed in the same housing of the camera unit, and the camera unit and the second image recognition section are housed in separate housings. ing. However, for example, the first image recognition section may be housed in the housing of the integrated processing section 40 together with the second image recognition section.

なお、本実施形態では統合処理部40は移動体としての車両1に搭載されているが、統合処理部40の画像処理部41a、認識部41b、統合制御部41cの一部の処理を例えばネットワークを介して外部サーバなどで行ってもよい。 In this embodiment, the integrated processing unit 40 is mounted on the vehicle 1 as a moving body, but part of the processing of the image processing unit 41a, the recognition unit 41b, and the integrated control unit 41c of the integrated processing unit 40 can be performed by, for example, a network. may be performed by an external server or the like.

その場合、例えば画像取得部としての撮像部21~24は移動体としての車両1に搭載されるが、例えばカメラ処理部31~34や統合処理部40の機能の一部を外部サーバなどで処理することが可能になる。また、統合処理部40の一部または全部の機能を走行制御部(ECU)60に持たせることも可能である。 In that case, for example, the imaging units 21 to 24 as image acquisition units are mounted on the vehicle 1 as a moving body, but part of the functions of the camera processing units 31 to 34 and the integrated processing unit 40 are processed by an external server or the like. it becomes possible to Also, it is possible to provide a running control unit (ECU) 60 with some or all of the functions of the integrated processing unit 40 .

61は記憶部であり、統合処理部40で生成された撮像部21~24毎の全体画像や、パノラマ的な合成画像を記憶する。さらに、認識された対象物を示す所定の枠や文字や警告などのCGや、CGが重畳され第1表示部50,第2表示部51などに表示された画像を時刻などやGPS情報などと共に記憶する。統合処理部40は記憶部61に記憶された過去の情報を再生し、それを第1表示部50や第2表示部51に表示することも可能である。 A storage unit 61 stores the entire image of each of the imaging units 21 to 24 generated by the integration processing unit 40 and a panoramic synthesized image. Furthermore, CG such as a predetermined frame, characters, and warnings indicating the recognized object, and images superimposed on CG and displayed on the first display section 50 and the second display section 51 are displayed together with the time, GPS information, and the like. Remember. The integration processing unit 40 can also reproduce past information stored in the storage unit 61 and display it on the first display unit 50 and the second display unit 51 .

62は通信部であり、ネットワークを介して外部サーバなどと通信するためのものであり、記憶部61に記憶される前の情報や記憶部61に記憶された過去の情報を外部サーバなどに送信して外部サーバなどに保存することが可能である。 A communication unit 62 is for communicating with an external server or the like via a network, and transmits information before being stored in the storage unit 61 or past information stored in the storage unit 61 to the external server or the like. can be stored on an external server or the like.

また、前述のように画像を外部のタブレット端末などに送信して、タブレット端末の表示部である第3表示部52に画像を表示することもできる。また、外部サーバなどから渋滞情報や、各種の情報を取得して、統合処理部40を介して第1表示部50や第2表示部51などに表示することも可能である。 Further, as described above, the image can be transmitted to an external tablet terminal or the like and displayed on the third display section 52, which is the display section of the tablet terminal. It is also possible to acquire traffic information and various types of information from an external server or the like and display them on the first display section 50 and the second display section 51 through the integrated processing section 40 .

図4~図8は実施形態1の統合処理部40の一連の動作を説明するためのフローチャートである。図4~図8のフローは、統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより順次行われる。 4 to 8 are flowcharts for explaining a series of operations of the integration processing unit 40 of the first embodiment. 4 to 8 are sequentially performed by the CPU 42 of the integration processing unit 40 executing the computer program in the memory 43. FIG.

例えばタブレット端末の第3表示部52にカメラ姿勢調整モードを開始するための開始ボタンを表示し、開始ボタンがクリックされた場合に図4~図8のフローがスタートする。 For example, a start button for starting the camera attitude adjustment mode is displayed on the third display unit 52 of the tablet terminal, and when the start button is clicked, the flows of FIGS. 4 to 8 are started.

図4は実施形態1のカメラ処理部の処理フローを説明するためのフローチャートである。図4のステップS41において、後方カメラの調整モードか否かの判別をする。Yesの場合にはステップS42に進み、Noの場合には図8のステップS80に進む。 FIG. 4 is a flow chart for explaining the processing flow of the camera processing section of the first embodiment. In step S41 of FIG. 4, it is determined whether or not the rear camera adjustment mode is set. If Yes, the process proceeds to step S42, and if No, the process proceeds to step S80 in FIG.

ステップS42(特性情報取得ステップ)では、後方カメラの位置、姿勢、解像度境界情報等を後方のカメラユニット13のカメラ情報部33cから取得する。ここでステップS42は光学像の特性に関する特性情報を取得する特性情報取得部として機能している。 In step S42 (characteristic information acquisition step), the position, orientation, resolution boundary information, etc. of the rear camera are acquired from the camera information section 33c of the rear camera unit 13. FIG. Here, step S42 functions as a characteristic information acquiring section that acquires characteristic information regarding the characteristics of the optical image.

ステップS43(画像取得ステップ)で、後方のカメラユニット13からの映像を取得し、ステップS44で複数カメラユニットの解像度境界表示を行うか否かを判別し、NoであればステップS45に進む。 In step S43 (image acquisition step), an image is acquired from the rear camera unit 13. In step S44, it is determined whether or not to display the resolution boundaries of a plurality of camera units. If No, the process proceeds to step S45.

ステップS45では歪曲補正を行うか否かを判別し、NoであればステップS47に進み、フラグFを0としてからステップS48に進む。YesであればステップS46で後方のカメラユニット13の映像に対して画像処理部41aによって歪曲補正を行い、フラグFを1にしてからステップS48に進む。 At step S45, it is determined whether or not distortion correction is to be performed. If Yes, in step S46, the image processing unit 41a corrects the distortion of the image of the rear camera unit 13, sets the flag F to 1, and proceeds to step S48.

ステップS48では、フラグFに基づき歪曲補正されているか否かを考慮して後方のカメラユニット13の表示解像度境界を計算する。そして、ステップS49(表示信号生成ステップ)で後方のカメラユニット13からの映像に対して、計算された表示解像度境界を重畳し、例えば第3表示部52に表示する。 In step S48, the display resolution boundary of the rear camera unit 13 is calculated based on the flag F, taking into consideration whether or not the distortion has been corrected. Then, in step S49 (display signal generation step), the calculated display resolution boundary is superimposed on the video from the rear camera unit 13 and displayed on the third display unit 52, for example.

すなわち、例えば通信部62を介してカメラユニットの調整時に用いるタブレット端末の第3表示部52に表示する。ここでステップS48は、特性情報取得部により取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界画像を形成し、前記画像信号に重畳して表示信号を生成する表示信号生成部として機能している。 That is, for example, it is displayed on the third display unit 52 of the tablet terminal used when adjusting the camera unit via the communication unit 62 . Here, step S48 forms a boundary image between the low distortion region and the high distortion region based on the characteristic information acquired by the characteristic information acquisition unit, and generates a display signal by superimposing the boundary image on the image signal. functioning as a department.

図9は画像の表示状態と表示解像度境界の重畳例を説明するための図であり、図9(A)は、後方のカメラユニット13からの歪曲補正されていない映像130に、表示解像度境界93を重畳した例を説明する図である。即ち、フラグFが0の場合に表示される画像を示している。 9A and 9B are diagrams for explaining an example of superimposition of the display state of the image and the display resolution boundary. FIG. It is a figure explaining the example which superimposed. That is, the image displayed when the flag F is 0 is shown.

一方、図9(B)は、後方のカメラユニット13からの歪曲補正された映像131に、表示解像度境界93の境界画像を重畳した例を説明する図である。図9(A)、図9(B)のいずれも第3表示部52であるタブレット端末の表示部に表示される映像の例である。 On the other hand, FIG. 9B is a diagram for explaining an example in which the boundary image of the display resolution boundary 93 is superimposed on the distortion-corrected image 131 from the rear camera unit 13 . Both FIGS. 9A and 9B are examples of images displayed on the display section of the tablet terminal, which is the third display section 52 .

なお、フラグ図9(B)において表示される表示解像度境界93は歪曲補正に応じた座標変換をしたものであってもよい。また、画像に表示解像度境界93を重畳する際に、図10のような追加的な境界画像のCGを重畳しても良い。 It should be noted that the display resolution boundary 93 displayed in the flag FIG. 9(B) may be coordinate transformed according to the distortion correction. Also, when superimposing the display resolution boundary 93 on the image, a CG of an additional boundary image as shown in FIG. 10 may be superimposed.

図10は画像に重畳される表示解像度境界93の他の例を説明するための図である。図10(A)は高解像度領域と低解像度領域の境界を区別するために、表示解像度境界93を境に高解像度領域と低解像度領域の輝度や色を異ならせることで表示解像度境界の内側と外側が分かるようにした例を示す図である。 FIG. 10 is a diagram for explaining another example of the display resolution boundary 93 superimposed on the image. In order to distinguish the boundary between the high-resolution area and the low-resolution area, FIG. It is a figure which shows the example which enabled the outside to be known.

なお、図10(A)のように表示解像度境界93の内側と外側で輝度や色などを異ならせる場合には、表示解像度境界の線自体を表示しなくてもよい。すなわち本実施形態における表示解像度境界(境界画像)の表示は、線を用いずに境界を表示するものを含む。また、境界を表す線を例えば二重線で表し、内側(高解像度領域がある側)の線を破線にして視線を内側に誘導して、高解像度領域の内側と外側を分かりやすくすることもできる。 Note that when the luminance, color, and the like are different between the inside and outside of the display resolution boundary 93 as shown in FIG. 10A, the display resolution boundary line itself does not have to be displayed. That is, display of the display resolution boundary (boundary image) in this embodiment includes display of the boundary without using lines. In addition, the line representing the boundary can be represented by, for example, a double line, and the inner line (the side where the high-resolution area is located) can be made a dashed line to guide the line of sight inward, making it easier to distinguish between the inside and outside of the high-resolution area. can.

図10(B)はカメラユニットがロール軸などに対して傾いている場合に、そのことがわかりやすいように、表示解像度境界93に水平軸や垂直軸を追加して重畳した例を示す図である。 FIG. 10B is a diagram showing an example in which a horizontal axis and a vertical axis are added and superimposed on the display resolution boundary 93 to make it easier to understand when the camera unit is tilted with respect to the roll axis or the like. .

なお、表示解像度境界を表示する際に、便宜的に例えば長方形で表示してもよい。長方形で表示することによってロールしているか否かをよりわかりやすく表示することができる。その場合の長方形は例えば円状の表示解像度境界に対して内接あるいは外接する長方形であっても良い。 It should be noted that when displaying the display resolution boundary, for example, it may be displayed as a rectangle for convenience. By displaying in a rectangle, it is possible to more clearly indicate whether or not the roll is being performed. The rectangle in that case may be, for example, a rectangle that inscribes or circumscribes a circular display resolution boundary.

図4のステップS49で第3表示部52に画像と表示解像度境界93などを出力して表示を行った後、図5のステップS50に進む。 After the image, the display resolution boundary 93 and the like are output and displayed on the third display unit 52 in step S49 of FIG. 4, the process proceeds to step S50 of FIG.

図5は図4から続く処理を説明するためのフローチャートである。
ステップS50では、フラグFが0または1の場合には、図11(A)に示すような基準枠200および基準枠中心203を画面上に表示する。なお、フラグFが1の場合は歪曲補正されているので、第3表示部52に表示される画像および表示解像度境界93などの座標もそれに応じて変換される。
FIG. 5 is a flowchart for explaining the processing continued from FIG.
At step S50, if the flag F is 0 or 1, the reference frame 200 and the reference frame center 203 as shown in FIG. 11A are displayed on the screen. When the flag F is 1, the distortion is corrected, so the coordinates of the image displayed on the third display unit 52 and the display resolution boundary 93 are also converted accordingly.

なお基準枠200は例えば四隅だけを表示した枠や例えば4つのドットなどであってもよく、本実施形態における枠は、そのようなものも含む。尚、基準枠200は米国のNHTSA(国家道路交通安全局)によるリア・カメラ標準設定最終規則(MVSS111)を十分に満たすようなものを設定する。即ち、例えば車両後端から3m後方で、左右方向の車両中心軸から1.5m離れた幼児の頭部が十分に入る領域を基準枠として設定するとよい。 Note that the reference frame 200 may be, for example, a frame displaying only four corners or, for example, four dots. It should be noted that the frame of reference 200 is set to sufficiently satisfy the rear camera standard setting final rule (MVSS 111) by NHTSA (National Highway Traffic Safety Administration) of the United States. That is, for example, an area which is 3 m behind the rear end of the vehicle and which is 1.5 m away from the center axis of the vehicle in the left-right direction and which can sufficiently accommodate the head of an infant may be set as the reference frame.

図11は、フラグFに応じて調整用の画面に表示される基準枠などの例を示す図であり、図11(A)はフラグFが0または1の場合に調整用の画面に表示される基準枠などの例を示す図である。図12は基準枠の設置位置の例を示す図である。なお、図11(A)の画面はフラグFが0の場合は歪曲補正される前の画面であり、フラグFが1の場合は歪曲補正された後の画面である。 11A and 11B are diagrams showing examples of reference frames and the like displayed on the adjustment screen according to the flag F, and FIG. FIG. 10 is a diagram showing an example of a reference frame and the like; FIG. 12 is a diagram showing an example of the installation position of the reference frame. When the flag F is 0, the screen in FIG. 11A is the screen before distortion correction, and when the flag F is 1, the screen is after the distortion correction.

図11(A)において、表示解像度境界93に対して例えば矩形状の仮想的な基準枠200および基準枠中心203が表示される。この基準枠200は図12に示す位置205(例えば車両1の後端から2m離れた位置で、車両1の進行方向の向きに対して垂直で、地面から垂直な面に水平方向4m、地上から1mの位置)に、車両1の座標を基準として仮想的に画面上に配置されるものである。 In FIG. 11A, for example, a rectangular virtual reference frame 200 and a reference frame center 203 are displayed with respect to the display resolution boundary 93 . This reference frame 200 is located at a position 205 shown in FIG. 12 (for example, at a position 2 m away from the rear end of the vehicle 1, perpendicular to the traveling direction of the vehicle 1, and 4 m in the horizontal direction and 4 m in the horizontal direction from the ground). 1 m position) on the screen with the coordinates of the vehicle 1 as a reference.

車両1の方向は走行制御部(ECU)60を介して地磁気センサなどの出力から取得すればよい。なお、このような仮想的な画像を画面に表示する代わりに実際に上記の位置205に基準板をおいて撮像することによって基準枠200と基準枠中心203を表示してもよい。 The direction of the vehicle 1 may be obtained from the output of a geomagnetic sensor or the like via the travel control unit (ECU) 60 . Instead of displaying such a virtual image on the screen, the reference frame 200 and the reference frame center 203 may be displayed by actually placing the reference plate at the position 205 and taking an image.

なお、この基準枠200は、電子ルームミラーに表示される画像領域に対応している。例えば車両1を後退する場合には、画像処理部41aでは、カメラユニット13から得られた画像信号だけを電子ルームミラーに表示する。その際に、カメラユニット13から得られた画像信号から基準枠200に対応した画像領域だけを切り出して例えば電子ルームミラーとしての第1表示部50に表示することができる。 Note that this reference frame 200 corresponds to the image area displayed on the electronic rearview mirror. For example, when the vehicle 1 moves backward, the image processing section 41a displays only the image signal obtained from the camera unit 13 on the electronic rearview mirror. At this time, only the image area corresponding to the reference frame 200 can be extracted from the image signal obtained from the camera unit 13 and displayed on the first display section 50 as an electronic rearview mirror, for example.

ただし、カメラユニット13の調整中は図11(A)のような全体画像がタブレット端末の表示部などの第3表示部52の画面520に表示されカメラユニット13の位置姿勢調整をすることができる。 However, during the adjustment of the camera unit 13, the overall image as shown in FIG. 11A is displayed on the screen 520 of the third display unit 52 such as the display unit of the tablet terminal, and the position and orientation of the camera unit 13 can be adjusted. .

なお、前述したように、また図12に示すように、カメラユニット11~14のうちの少なくとも2つのカメラユニット12と13,またカメラユニット13と14の撮影範囲が互いに重複するようにそれぞれ配置されている。しかも、本実施形態では少なくとも2つの画像取得部の低歪曲領域の撮影範囲が互いに重複するように配置されている。 As described above and as shown in FIG. 12, at least two of the camera units 11 to 14, the camera units 12 and 13, and the camera units 13 and 14 are arranged so that their shooting ranges overlap each other. ing. Moreover, in the present embodiment, at least two image acquisition units are arranged so that the imaging ranges of the low-distortion regions overlap each other.

図5のステップS51において、基準枠中心203と表示解像度境界93の重心93cが合致しているか判別する。合致している場合はステップS53に進む。Noの場合には、ステップS52に進み、表示解像度境界93の重心93cを基準枠中心203の方向に移動させるように矢印303(ガイド情報)を表示してからステップS53に進む。 In step S51 of FIG. 5, it is determined whether or not the reference frame center 203 and the barycenter 93c of the display resolution boundary 93 match. If they match, the process proceeds to step S53. If No, the process proceeds to step S52, displays an arrow 303 (guide information) so as to move the center of gravity 93c of the display resolution boundary 93 in the direction of the reference frame center 203, and then proceeds to step S53.

尚、ステップS51では、必ずしも基準枠中心203と重心93cが合致する必要はない。基準枠領域内の大部分(理想的には全て)が高解像度領域になるように調整できれば良い。そこで、閾値を設けて、基準枠領域内の高解像度領域の面積が閾値を超えていれば、S51でYesと判断しS53に進むようにしても良い。 In step S51, the reference frame center 203 and the center of gravity 93c do not necessarily have to match. It is sufficient if most (ideally, all) of the reference frame area can be adjusted to be a high resolution area. Therefore, a threshold may be provided, and if the area of the high-resolution area within the reference frame area exceeds the threshold, it may be determined as Yes in S51 and the process proceeds to S53.

このように、ステップS52では、矢印303の向きと長さによってずれを修正するための移動方向と移動量を表示することができる。あるいは、文章や音声によって移動方向や移動用の指示をしてもよい。 Thus, in step S52, the direction and length of the arrow 303 can be used to display the direction and amount of movement for correcting the deviation. Alternatively, the direction of movement and instructions for movement may be given by text or voice.

さらに、ステップS52において、例えば基準枠中心203を画面の水平、垂直座標の中心として、表示解像度境界93の重心93cの位置が水平、垂直座標でどの位置にあるかを数値で表示してもよい。 Furthermore, in step S52, for example, with the reference frame center 203 as the center of the horizontal and vertical coordinates of the screen, the horizontal and vertical coordinates of the center of gravity 93c of the display resolution boundary 93 may be displayed numerically. .

これらの数値や矢印303や基準枠200や基準枠中心203は、境界画像に基づき、画像取得部の姿勢等を調整するためのガイド情報として機能している。なお、ガイド情報としては、これらのうちの少なくとも1つを使えばよく、例えば基準枠200だけを表示し、ユーザが境界画像と基準枠200を目視で調整するようにしてもよい。またステップS50やS52も表示信号生成ステップ(表示信号生成部)として機能している。 These numerical values, the arrow 303, the reference frame 200, and the reference frame center 203 function as guide information for adjusting the orientation of the image acquisition unit based on the boundary image. At least one of them may be used as the guide information. For example, only the reference frame 200 may be displayed, and the user may visually adjust the boundary image and the reference frame 200 . Steps S50 and S52 also function as a display signal generation step (display signal generation unit).

ステップS53においては、カメラユニット13の姿勢等の調整が終了したか否かを判別する。例えばタブレット端末の第3表示部52に調整完了ボタンを表示する。そして、例えばユーザがカメラユニット13の姿勢等をタブレットの画面を見ながら調整し、調整が終了した後で調整完了ボタンをクリックした場合に調整が完了したと判断する。 In step S53, it is determined whether or not the adjustment of the posture of the camera unit 13 has been completed. For example, an adjustment completion button is displayed on the third display unit 52 of the tablet terminal. For example, when the user adjusts the posture of the camera unit 13 while looking at the screen of the tablet and clicks the adjustment completion button after completing the adjustment, it is determined that the adjustment is completed.

尚、前述のように、必ずしも基準枠中心203と重心93cとのズレがなくなるまで調整する必要はない。基準枠領域内の大部分(理想的には全て)が高解像度領域になるように調整できれば良い。そこで、閾値を設けて、基準枠領域内の高解像度領域の面積がその閾値を超えていれば、S53でYesと判断してS54に進む。ステップS53でNoの場合にはステップS51に戻り、Yesの場合にはステップS54に進む。 As described above, it is not always necessary to adjust until the deviation between the reference frame center 203 and the center of gravity 93c is eliminated. It is sufficient if most (ideally, all) of the reference frame area can be adjusted to be a high resolution area. Therefore, a threshold value is provided, and if the area of the high-resolution region within the reference frame region exceeds the threshold value, it is determined Yes in S53 and the process proceeds to S54. If No in step S53, the process returns to step S51, and if Yes, the process proceeds to step S54.

ステップS54では、モード終了要求があるか否か判別する。例えばタブレット端末の第3表示部52にカメラ姿勢調整モードを終了するための終了ボタンを表示し、ユーザが終了ボタンをクリックした場合にモード終了要求があったと判断する。 In step S54, it is determined whether or not there is a mode termination request. For example, an end button for ending the camera attitude adjustment mode is displayed on the third display unit 52 of the tablet terminal, and when the user clicks the end button, it is determined that a mode end request has been issued.

ステップS54でYesの場合には図4~図8のフローは終了する。Noの場合にはステップS41に戻る。 If Yes in step S54, the flow of FIGS. 4 to 8 ends. If No, the process returns to step S41.

図4のステップS44で複数カメラユニットの解像度境界表示を行うか否かの判別をし、Yesの場合には図6のステップS60(特性情報取得ステップ)に進む。 At step S44 in FIG. 4, it is determined whether or not to display the resolution boundary of a plurality of camera units, and if Yes, the process proceeds to step S60 in FIG. 6 (characteristic information acquisition step).

図6は、図4からの分岐処理を説明するためのフローチャートである。ここでは、基準枠200の領域内を高解像度領域として撮影できているかどうか分かりやすく表示し、そのような撮影ができていない場合には、カメラユニット12~14を設置する位置又は姿勢の少なくとも何れかを調整することを支援しようとしている。 FIG. 6 is a flowchart for explaining branch processing from FIG. Here, whether or not the area within the reference frame 200 can be photographed as a high-resolution area is displayed in an easy-to-understand manner. I'm trying to help you adjust.

ステップS60では、右側方のカメラユニット12と左側方のカメラユニット14の位置、姿勢、解像度境界情報等をカメラ情報部32c、34cから取得する。即ち、複数の画像取得部としてのカメラユニット12,14における境界情報を取得する。 In step S60, the positions, postures, resolution boundary information, etc. of the right camera unit 12 and the left camera unit 14 are obtained from the camera information sections 32c and 34c. That is, the boundary information in the camera units 12 and 14 as a plurality of image acquisition units is acquired.

次にステップS61で複数のカメラユニットからの映像を使用するか否かを判別し、Noの場合には、ステップS62に進み、歪曲補正をするか否かを判別する。 Next, in step S61, it is determined whether or not images from a plurality of camera units are to be used. If No, the process proceeds to step S62 to determine whether or not distortion correction is to be performed.

ステップS62でYesの場合には、ステップS63で後方のカメラユニット13の映像に歪曲補正をすると共に、フラグFを3にしてステップS65に進む。一方、ステップS62でNoの場合には、ステップS64でフラグFを2にしてからステップS65に進む。 If Yes in step S62, the image of the rear camera unit 13 is corrected for distortion in step S63, the flag F is set to 3, and the process proceeds to step S65. On the other hand, if No in step S62, the flag F is set to 2 in step S64, and then the process proceeds to step S65.

ステップS65では、後方のカメラユニット13、右側方のカメラユニット12、左側方のカメラユニット14の表示解像度境界を計算する。 In step S65, the display resolution boundaries of the rear camera unit 13, the right camera unit 12, and the left camera unit 14 are calculated.

そして、ステップS66(表示信号生成ステップ)で後方のカメラユニット13の映像に複数の表示解像度境界を重畳して第3表示部52に表示する。すなわち、1つの画像に複数の境界画像を重畳した表示信号を生成する。表示信号は例えば通信部62を介してカメラユニットの調整時に用いるタブレット端末の第3表示部52に供給され表示される。 Then, in step S<b>66 (display signal generation step), a plurality of display resolution boundaries are superimposed on the image of the rear camera unit 13 and displayed on the third display unit 52 . That is, a display signal is generated by superimposing a plurality of boundary images on one image. The display signal is supplied to, for example, the third display section 52 of the tablet terminal used when adjusting the camera unit via the communication section 62 and displayed.

図9(C)は、カメラユニット13からの歪曲補正されていない映像130に、カメラユニット13の表示解像度境界93、カメラユニット12の表示解像度境界92、カメラユニット14の表示解像度境界94を重畳して表示した例を示す図である。図9(C)、図9(D)のいずれも第3表示部52であるタブレット端末の表示部に表示される映像例である。 FIG. 9C shows a display resolution boundary 93 of the camera unit 13, a display resolution boundary 92 of the camera unit 12, and a display resolution boundary 94 of the camera unit 14 superimposed on an image 130 not corrected for distortion from the camera unit 13. FIG. 10 is a diagram showing an example of displaying by pressing; Both FIGS. 9C and 9D are examples of images displayed on the display section of the tablet terminal, which is the third display section 52 .

側方に異画角レンズを含む撮像部を用いるときには解像度境界92の内部が高解像度領域となり、側方に逆異画角レンズを含む撮像部を用いるときには解像度境界92の外部かつ逆異画角レンズで撮影した領域が高解像度領域となる。 When an imaging unit including lenses with different angles of view on the sides is used, the inside of the resolution boundary 92 becomes a high-resolution area, and when an imaging unit including lenses with different angles of view on the sides is used, the outside of the resolution boundary 92 and the reverse angle of view. The area photographed by the lens becomes the high-resolution area.

即ち、フラグFが2の場合に表示される画像を示している。一方、図9(D)は、カメラユニット13からの歪曲補正された映像131に、カメラユニット13の表示解像度境界93、カメラユニット12の表示解像度境界92、カメラユニット14の表示解像度境界94を重畳した例を示す図である。 That is, the image displayed when the flag F is 2 is shown. On the other hand, in FIG. 9D, a display resolution boundary 93 of the camera unit 13, a display resolution boundary 92 of the camera unit 12, and a display resolution boundary 94 of the camera unit 14 are superimposed on the distortion-corrected image 131 from the camera unit 13. It is a figure which shows the example which carried out.

即ち、フラグFが3の場合に表示される画像を示している。なお、図9(D)において表示される表示解像度境界92、94は歪曲補正に応じた座標変換をしたものである。表示解像度境界93も歪曲補正に応じた座標変換をしたものでもよい。 That is, the image displayed when the flag F is 3 is shown. Note that display resolution boundaries 92 and 94 displayed in FIG. 9(D) are obtained by coordinate transformation according to distortion correction. The display resolution boundary 93 may also be coordinate-transformed according to the distortion correction.

ステップS66の後にステップS50に進む。ステップS50~S54の動作は既に説明したものと同様であるが、フラグFが2または3の場合には、ステップS50において、図11(B)のような調整用の画面が表示される。 After step S66, the process proceeds to step S50. The operations of steps S50 to S54 are the same as those already described, but when the flag F is 2 or 3, an adjustment screen such as that shown in FIG. 11B is displayed in step S50.

図11(B)はフラグFが2や3などの場合に調整用の画面に表示される基準枠などの例を示す図である。なお、図11(B)の画面はフラグFが2の場合は歪曲補正される前の画面であり、フラグFが3の場合は歪曲補正された後の画面である。 FIG. 11B is a diagram showing an example of a reference frame displayed on the adjustment screen when the flag F is 2, 3, or the like. When the flag F is 2, the screen in FIG. 11B is the screen before distortion correction, and when the flag F is 3, the screen is after the distortion correction.

フラグFが2または3の場合には、基準枠200、基準枠中心203、右側方のカメラユニット12の表示解像度境界92の重心93cを合わせるための基準点202が表示される。さらに、左側方のカメラユニット14の表示解像度境界94の重心94cを合わせるための基準点204が表示される。 When the flag F is 2 or 3, a reference point 202 for aligning the reference frame 200, the reference frame center 203, and the center of gravity 93c of the display resolution boundary 92 of the camera unit 12 on the right side is displayed. Furthermore, a reference point 204 for aligning the center of gravity 94c of the display resolution boundary 94 of the camera unit 14 on the left side is displayed.

そして、ステップS51では基準枠中心203と表示解像度境界93の重心93cが合致し、基準点202と表示解像度境界92の重心93cが合致し、基準点204と表示解像度境界94の重心94cが合致している場合に合致していると判断する。 Then, in step S51, the reference frame center 203 and the center of gravity 93c of the display resolution boundary 93 match, the reference point 202 and the center of gravity 93c of the display resolution boundary 92 match, and the reference point 204 and the center of gravity 94c of the display resolution boundary 94 match. If the

なお、ここで基準点202,204は基準枠中心203に対して所定の距離に設定されており、表示解像度境界92と93が所定量重なりあうように設定されている。また、表示解像度境界94と93が所定量重なりあうように設定されている。すなわち、前述のように、本実施形態では、少なくとも2つの画像取得部の撮影範囲(特に高解像度領域(低歪曲領域))が互いに重複するように調整され配置されている。 Here, the reference points 202 and 204 are set at a predetermined distance from the reference frame center 203, and the display resolution boundaries 92 and 93 are set so as to overlap each other by a predetermined amount. Also, the display resolution boundaries 94 and 93 are set so as to overlap each other by a predetermined amount. That is, as described above, in the present embodiment, the photographing ranges (in particular, the high resolution region (low distortion region)) of at least two image acquisition units are adjusted and arranged so as to overlap each other.

尚、前述のように、ステップS51では、必ずしも基準点202、204と重心92c、93cが合致する必要はない。基準枠領域内の大部分(理想的には全て)が高解像度領域になるように調整できれば良い。そこで、閾値を設けて、基準枠領域内の高解像度領域の面積が閾値を超えていれば、S51でYesと判断することができる。閾値以下であればS51でNoと判断し、S52に進む。 As described above, in step S51, the reference points 202, 204 and the centers of gravity 92c, 93c do not necessarily have to match. It is sufficient if most (ideally, all) of the reference frame area can be adjusted to be a high resolution area. Therefore, if a threshold value is provided and the area of the high-resolution region within the reference frame region exceeds the threshold value, it can be determined as Yes in S51. If it is equal to or less than the threshold value, No is determined in S51, and the process proceeds to S52.

なお、図11(B)の基準枠200は、前述のように、電子ルームミラーに表示される画像領域に対応している。したがって、画像処理部41aでは、車両1の例えば通常の走行の際には、カメラユニット12~14から得られた画像信号を合成して表示する。 Note that the reference frame 200 in FIG. 11B corresponds to the image area displayed on the electronic rearview mirror, as described above. Therefore, the image processing unit 41a synthesizes and displays the image signals obtained from the camera units 12 to 14 when the vehicle 1 is running normally.

そして、その合成画像のうち、この基準枠200に対応した画像領域を切り出して例えば電子ルームミラーとしての第1表示部50に表示することができる。ただし、カメラユニット12~14の調整中は図11(B)のような全体画像がタブレット端末の表示部などの第3表示部52に表示されカメラユニット12~14の姿勢等の調整をすることができる。 Then, an image area corresponding to the reference frame 200 can be extracted from the composite image and displayed on the first display unit 50 as an electronic rearview mirror, for example. However, during the adjustment of the camera units 12-14, the overall image as shown in FIG. 11B is displayed on the third display unit 52 such as the display unit of the tablet terminal, and the posture of the camera units 12-14 can be adjusted. can be done.

ステップS52では、基準枠中心203と表示解像度境界93の重心93cのずれがあればそれを矢印303で示す。また、図11(B)に示すように、基準点202と表示解像度境界92の重心93cのズレを矢印302で示し、基準点204と表示解像度境界94の重心94cのずれを矢印304で示す。矢印302とともに、「右側方のカメラを車両側に向けてください」などと、文字で表示したり音声で通知したりすることもできる。 In step S52, if there is a deviation between the reference frame center 203 and the center of gravity 93c of the display resolution boundary 93, the deviation is indicated by an arrow 303. FIG. Further, as shown in FIG. 11B, an arrow 302 indicates the deviation between the reference point 202 and the center of gravity 93c of the display resolution boundary 92, and an arrow 304 indicates the deviation between the reference point 204 and the center of gravity 94c of the display resolution boundary 94. FIG. Along with the arrow 302, it is also possible to display characters such as "Please turn the camera on the right side toward the vehicle side" or notify by voice.

尚、前述のように必ずしも基準点202、204と重心92c、93cが合致するまでズレを調整する必要はない。基準枠領域内の大部分(理想的には全て)が高解像度領域になるように調整できれば良い。そこで、閾値を設けて、基準枠領域内の高解像度領域の面積が閾値を超えていれば、S53でYesと判断しS54に進む。ステップS53では、ユーザがカメラユニット12~14の位置姿勢をそれぞれ調整し、調整が完了した後で調整完了ボタンをクリックした場合に調整が完了したと判断する。 As described above, it is not necessary to adjust the deviation until the reference points 202, 204 and the centers of gravity 92c, 93c match. It is sufficient if most (ideally, all) of the reference frame area can be adjusted to be a high resolution area. Therefore, a threshold is provided, and if the area of the high-resolution area within the reference frame area exceeds the threshold, it is determined Yes in S53 and the process proceeds to S54. In step S53, when the user adjusts the positions and orientations of the camera units 12 to 14 and clicks the adjustment completion button after the adjustment is completed, it is determined that the adjustment has been completed.

次に図6のステップS61で複数カメラの映像を使用するか判断した際に、Yesの場合には図7のステップS70に進む。 Next, in step S61 of FIG. 6, when it is determined whether or not to use images from a plurality of cameras, if Yes, the process proceeds to step S70 of FIG.

図7は、図6からの分岐処理を説明するためのフローチャートである。ステップS703(画像取得ステップ)では、右側方のカメラユニット12と左側方のカメラユニット14の映像を取得し、ステップS71で歪曲補正をするか否かを判断する。 FIG. 7 is a flowchart for explaining branch processing from FIG. In step S703 (image acquisition step), images of the camera unit 12 on the right side and the camera unit 14 on the left side are acquired, and in step S71, it is determined whether or not to perform distortion correction.

ステップS71でYesの場合には、ステップS72で後方のカメラユニット13、右側方のカメラユニット12、左側方のカメラユニット14の映像に歪曲補正をすると共に、フラグFを5にしてステップS74に進む。一方、ステップS71でNoの場合には、ステップS73でフラグFを4にしてからステップS74に進む。 In the case of Yes in step S71, the images of the rear camera unit 13, the right camera unit 12, and the left camera unit 14 are corrected for distortion in step S72, the flag F is set to 5, and the process proceeds to step S74. . On the other hand, if No in step S71, the flag F is set to 4 in step S73, and then the process proceeds to step S74.

ステップS74では、後方のカメラユニット13、右側方のカメラユニット12、左側方のカメラユニット14の映像を合成する。即ち、複数の画像取得部から取得した画像信号を合成して合成画像を生成する。次に、ステップS75で、後方のカメラユニット13、右側方のカメラユニット12、左側方のカメラユニット14の表示解像度境界を計算する。 In step S74, the images of the rear camera unit 13, the right camera unit 12, and the left camera unit 14 are synthesized. That is, the image signals obtained from the plurality of image obtaining units are synthesized to generate a synthesized image. Next, in step S75, display resolution boundaries of the rear camera unit 13, the right side camera unit 12, and the left side camera unit 14 are calculated.

そして、ステップS76(表示信号生成ステップ)で、合成された映像に表示解像度境界を重畳して第3表示部52に表示する。すなわち、合成画像に複数の境界画像を重畳した表示信号を生成する。表示信号は例えば通信部62を介してカメラユニットの調整時に用いるタブレット端末の第3表示部52に供給され表示される。 Then, in step S76 (display signal generation step), the display resolution boundary is superimposed on the combined video and displayed on the third display unit 52 . That is, a display signal is generated in which a plurality of boundary images are superimposed on the synthesized image. The display signal is supplied to, for example, the third display section 52 of the tablet terminal used when adjusting the camera unit via the communication section 62 and displayed.

図9(E)は歪曲補正せずに合成した映像に表示解像度境界を重畳した例を示す図であり、フラグFが4の場合に表示される画像を示している。図9(F)は歪曲補正後に合成された映像に表示解像度境界を重畳した例を示す図であり、フラグFが5の場合に表示される画像を示している。520は第3表示部52の画面枠である。 FIG. 9(E) is a diagram showing an example in which a display resolution boundary is superimposed on an image synthesized without distortion correction, and shows an image displayed when the flag F is 4. FIG. FIG. 9F is a diagram showing an example in which the display resolution boundary is superimposed on the image synthesized after the distortion correction, and shows an image displayed when the flag F is 5. In FIG. 520 is a screen frame of the third display unit 52 .

120は右側方のカメラユニット12から得られた歪曲補正されていない画像信号、130は後方のカメラユニット13から得られた歪曲補正されていない画像信号、140は左側方のカメラユニット14から得られた歪曲補正されていない画像信号を示す。900はそれらを並べて表示した画像である。 120 is a non-distortion-corrected image signal obtained from the right camera unit 12, 130 is a non-distortion-corrected image signal obtained from the rear camera unit 13, and 140 is obtained from the left camera unit 14. image signal without distortion correction. 900 is an image displaying them side by side.

各カメラの表示解像度境界の距離の分だけ解像度境界が離れるようにカメラ映像を並べる。例えば、図11(B)、(C)で示されるガイドに従ってカメラユニットの設置位置又は姿勢が変更され、表示解像度境界が近づくと、境界を示す情報(円の線)も近づく。 The camera images are arranged so that the resolution boundaries are separated by the distance of the display resolution boundaries of each camera. For example, when the installation position or posture of the camera unit is changed according to the guides shown in FIGS. 11B and 11C and the display resolution boundary approaches, the information indicating the boundary (circular line) also approaches.

また、121は右側方のカメラユニット12から得られた歪曲補正された画像信号、131は後方のカメラユニット13から得られた歪曲補正された画像信号、141は左側方のカメラユニット14から得られた歪曲補正された画像信号を示す。901はそれらを並べて表示した画像である。各カメラの表示解像度境界の距離の分だけ解像度境界が離れるようにカメラ映像を並べる。 Also, 121 is a distortion-corrected image signal obtained from the right camera unit 12, 131 is a distortion-corrected image signal obtained from the rear camera unit 13, and 141 is obtained from the left camera unit 14. 2 shows a distortion-corrected image signal. 901 is an image in which they are displayed side by side. The camera images are arranged so that the resolution boundaries are separated by the distance of the display resolution boundaries of each camera.

例えば、図11(B)、(C)で示されるガイドに従ってカメラユニットの設置位置又は姿勢が変更され、表示解像度境界が近づくと、境界を示す情報(円の線)も近づく。なお、図9(F)において表示される表示解像度境界92、94は歪曲補正に応じた座標変換をしたものである。表示解像度境界93も歪曲補正に応じた座標変換をしたものでもよい。 For example, when the installation position or posture of the camera unit is changed according to the guides shown in FIGS. 11B and 11C and the display resolution boundary approaches, the information indicating the boundary (circular line) also approaches. Note that the display resolution boundaries 92 and 94 displayed in FIG. 9F are obtained by coordinate transformation according to the distortion correction. The display resolution boundary 93 may also be coordinate-transformed according to the distortion correction.

なお、本実施形態では、図9(E)、図9(F)では第3表示部52の画面520には、表示解像度境界92、94が表示解像度境界93と重ならないように表示している。しかし、通常走行時などに電子ルームモニターに表示される画像は、表示解像度境界92の一部と表示解像度境界93とが重なった状態で合成される。また、表示解像度境界94の一部と表示解像度境界93とが重なった状態で合成される。 In this embodiment, the display resolution boundaries 92 and 94 are displayed on the screen 520 of the third display unit 52 so as not to overlap the display resolution boundary 93 in FIGS. 9E and 9F. . However, the image displayed on the electronic room monitor during normal driving is synthesized with a portion of the display resolution boundary 92 overlapping the display resolution boundary 93 . In addition, a part of the display resolution boundary 94 and the display resolution boundary 93 are synthesized while overlapping each other.

ステップS76の後にステップS50に進む。ステップS50~S54の動作は既に説明したものと同様であるが、フラグFが4または5の場合には、ステップS50において、例えば図11(C)のような調整用の画面が表示される。 After step S76, the process proceeds to step S50. The operations of steps S50 to S54 are the same as those already described, but when the flag F is 4 or 5, an adjustment screen such as that shown in FIG. 11C is displayed in step S50.

図11(C)はフラグFが4または5の場合の調整用の画面の例を示す図であり、フラグFが4の場合は歪曲補正される前の画面であり、フラグFが5の場合は歪曲補正された後の画面である。 FIG. 11C is a diagram showing an example of a screen for adjustment when the flag F is 4 or 5. When the flag F is 4, the screen is before distortion correction. is the image after distortion correction.

図11(C)において、基準枠210には基準枠中心213の他に右側方のカメラユニット12の表示解像度境界92の重心93cを合わせるための基準点212が表示される。さらに、左側方のカメラユニット14の表示解像度境界94の重心94cを合わせるための基準点214が表示される。 In FIG. 11C, the reference frame 210 displays a reference frame center 213 and a reference point 212 for aligning the center of gravity 93c of the display resolution boundary 92 of the camera unit 12 on the right side. Furthermore, a reference point 214 for aligning the center of gravity 94c of the display resolution boundary 94 of the camera unit 14 on the left side is displayed.

そして、ステップS51では基準枠中心213と表示解像度境界93の重心93cが合致し、基準点212と表示解像度境界92の重心93cが合致し、基準点214と表示解像度境界94の重心94cが合致している場合に合致していると判断する。 Then, in step S51, the reference frame center 213 and the center of gravity 93c of the display resolution boundary 93 match, the reference point 212 and the center of gravity 93c of the display resolution boundary 92 match, and the reference point 214 and the center of gravity 94c of the display resolution boundary 94 match. If the

なお、図11(C)の基準枠210は、電子ルームミラーに表示される画像領域に対応している。ただし、図11(C)においては、カメラユニット11~13の画像を合成せずに並べて表示しているが、実際に電子ルームミラーに表示されるのはカメラユニット11~13の画像を互いに一部重ね合わせて合成した合成画像である。したがって、基準枠210は調整時に表示されるものであり、図11(A)、(B)に示される実際に電子ルームミラーに対応した基準枠200よりも細長い形状となっている。 Note that the reference frame 210 in FIG. 11C corresponds to the image area displayed on the electronic rearview mirror. However, in FIG. 11C, the images of the camera units 11 to 13 are displayed side by side without being synthesized, but the images of the camera units 11 to 13 are actually displayed on the electronic rearview mirror. It is a composite image obtained by superimposing and synthesizing. Therefore, the reference frame 210 is displayed at the time of adjustment, and has a longer and narrower shape than the reference frame 200 actually corresponding to the electronic rearview mirror shown in FIGS.

すなわち、画像処理部41aでは、カメラユニット12~14から得られた画像信号を合成して表示する場合には、合成画像のうち、図11(A)の基準枠200に対応した画像領域を切り出して例えば電子ルームミラーとしての第1表示部50に表示する。 That is, when the image signals obtained from the camera units 12 to 14 are combined and displayed, the image processing unit 41a cuts out an image region corresponding to the reference frame 200 in FIG. 11A from the combined image. is displayed on the first display unit 50 as an electronic rearview mirror, for example.

なお、本実施形態では、電子ルームミラーに表示される合成画像の切り出し領域は、カメラユニット12~14のそれぞれの高解像度領域(低解像度領域)に対応しており、合成画像のうち高解像度領域(低解像度領域)だけが切り出されて表示される。 Note that, in the present embodiment, the cropped region of the composite image displayed on the electronic rearview mirror corresponds to the high resolution region (low resolution region) of each of the camera units 12 to 14, and the high resolution region of the composite image. Only the (low-resolution area) is cut out and displayed.

ただし、前述のように、カメラユニット12~14の調整中は図11(C)のような全体画像や基準枠210がタブレット端末の表示部などの第3表示部52に表示され、カメラユニット12~14の位置姿勢調整をすることができる。 However, as described above, during the adjustment of the camera units 12 to 14, the overall image and the reference frame 210 as shown in FIG. ~14 position and attitude adjustments can be made.

ステップS52では、基準枠中心213と表示解像度境界93の重心93cのずれがあればそれを矢印で示す。また、基準点212と表示解像度境界92の重心93cのずれを矢印で示し、基準点214と表示解像度境界94の重心94cのずれを矢印で示す。またステップS50~S54のそれ以外の動作については既に説明したものと同じなので説明は省略する。すなわち、合成画像に複数の境界画像を表示した状態で、撮像部の姿勢等を調整するための矢印などのガイド情報を生成する。 In step S52, if there is a deviation between the reference frame center 213 and the center of gravity 93c of the display resolution boundary 93, it is indicated by an arrow. The arrow indicates the deviation between the reference point 212 and the center of gravity 93c of the display resolution boundary 92, and the arrow indicates the deviation between the reference point 214 and the center of gravity 94c of the display resolution boundary 94. FIG. Further, the other operations in steps S50 to S54 are the same as those already explained, so the explanation will be omitted. That is, in a state in which a plurality of boundary images are displayed in the synthesized image, guide information such as arrows for adjusting the posture of the imaging unit is generated.

次に図4のステップS41で後方のカメラユニットの調整か判別し、Noの場合には図8のステップS80(特性情報取得ステップ)に進む。 Next, in step S41 in FIG. 4, it is determined whether or not the rear camera unit is adjusted, and if No, the process proceeds to step S80 in FIG. 8 (characteristic information acquisition step).

図8は、図4からの他の分岐処理を説明するためのフローチャートである。ステップS80では、正面のカメラユニット11の位置、姿勢、解像度境界情報等を正面のカメラユニット11のカメラ情報部31cから取得し、ステップS813(画像取得ステップ)で正面のカメラユニット11の映像を取得する。 FIG. 8 is a flow chart for explaining another branch process from FIG. In step S80, the position, orientation, resolution boundary information, etc. of the front camera unit 11 are acquired from the camera information section 31c of the front camera unit 11, and in step S813 (image acquisition step), the image of the front camera unit 11 is acquired. do.

そしてステップS82で歪曲補正をするか否かを判断し、Yesの場合には、ステップS83で正面のカメラユニット11の映像に歪曲補正をすると共に、フラグFを7にしてステップS85に進む。一方、ステップS82でNoの場合には、ステップS84でフラグFを6にしてからステップS85に進む。 Then, in step S82, it is determined whether or not distortion correction is to be performed. If Yes, distortion correction is performed on the image of the front camera unit 11 in step S83, the flag F is set to 7, and the process proceeds to step S85. On the other hand, if No in step S82, the flag F is set to 6 in step S84, and then the process proceeds to step S85.

ステップS85では、正面のカメラユニット11の表示解像度境界を計算し、ステップS86(表示信号生成ステップ)で、正面のカメラユニット11の映像に表示解像度境界を重畳して第3表示部52に表示する。すなわち、例えば通信部62を介してカメラユニットの調整時に用いるタブレット端末の第3表示部52に表示する。 In step S85, the display resolution boundary of the front camera unit 11 is calculated, and in step S86 (display signal generation step), the image of the front camera unit 11 is superimposed on the display resolution boundary and displayed on the third display unit 52. . That is, for example, it is displayed on the third display unit 52 of the tablet terminal used when adjusting the camera unit via the communication unit 62 .

図9(G)は歪曲補正していない正面のカメラユニット11の映像110に正面のカメラユニット11の表示解像度境界91を重畳した例を示す図であり、フラグFが6の場合に表示される画像の例を示している。図9(H)は歪曲補正後の正面のカメラユニット11の映像111に正面のカメラユニット11の表示解像度境界91を重畳した例を示す図であり、フラグFが7の場合に表示される画像の例を示している。なお、図9(H)に表示される表示解像度境界91は歪曲補正に応じた座標変換をしたものでもよい。 FIG. 9G is a diagram showing an example in which the display resolution boundary 91 of the front camera unit 11 is superimposed on the image 110 of the front camera unit 11 without distortion correction, and is displayed when the flag F is 6. An example image is shown. FIG. 9H is a diagram showing an example in which the display resolution boundary 91 of the front camera unit 11 is superimposed on the image 111 of the front camera unit 11 after distortion correction. shows an example of It should be noted that the display resolution boundary 91 displayed in FIG. 9(H) may be coordinate-transformed according to the distortion correction.

ステップS86の後にステップS50に進む。ステップS50~S54の動作は既に説明したものと同様であるが、フラグFが6または7の場合には、ステップS50において、図11(A)のような調整用の画面が表示される。 After step S86, the process proceeds to step S50. The operations of steps S50 to S54 are the same as those already described, but when the flag F is 6 or 7, an adjustment screen such as that shown in FIG. 11A is displayed in step S50.

なお、図11(A)の画面は、フラグFが6の場合は歪曲補正される前の画面であり、フラグFが7の場合は歪曲補正された後の画面である。なお、図11(A)における表示解像度境界93およびその重心93cは、それぞれ表示解像度境界91とその中心91cに読み替える。 When the flag F is 6, the screen in FIG. 11A is the screen before distortion correction, and when the flag F is 7, it is the screen after distortion correction. Note that the display resolution boundary 93 and its center of gravity 93c in FIG. 11A are read as the display resolution boundary 91 and its center 91c, respectively.

また、正面のカメラユニット11のための仮想の基準枠は基準枠200と同様の大きさでよく、図12の車両1の後方の位置205と反対側の、前方の206で示すような位置に仮想的に配置したものとして画面に表示すれば良い。 Also, the virtual frame of reference for the front camera unit 11 may be of the same size as the frame of reference 200, and is positioned in front of the vehicle 1 in FIG. It can be displayed on the screen as a virtual arrangement.

なお、図11(A)の基準枠200は、前述のように、電子ルームミラーに表示される画像領域に対応している。したがって、画像処理部41aでは、カメラユニット11から得られた画像信号を表示する場合に、この基準枠200に対応した画像領域を切り出して例えば電子ルームミラーとしての第1表示部50に表示することができる。 Note that the reference frame 200 in FIG. 11A corresponds to the image area displayed on the electronic rearview mirror, as described above. Therefore, when displaying the image signal obtained from the camera unit 11, the image processing unit 41a cuts out the image area corresponding to the reference frame 200 and displays it on the first display unit 50 as an electronic rearview mirror, for example. can be done.

ただし、カメラユニット11の調整中は図11(A)のような全体画像がタブレット端末の表示部などの第3表示部52の画面520に表示されカメラユニット11の位置姿勢調整をすることができる。 However, during the adjustment of the camera unit 11, the overall image as shown in FIG. 11A is displayed on the screen 520 of the third display unit 52 such as the display unit of the tablet terminal, and the position and orientation of the camera unit 11 can be adjusted. .

このように、本実施形態では、高解像度領域(低歪曲領域)10aは、上述のように通常の撮像用の光学系の中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されている。したがって、第1表示部50に表示される例えば電子ルームミラー用の画像は、解像度が低解像度領域(高歪曲領域)10bと比較して高く、車両1の正面、側方、後方の遠方を、より精細に表示することができる。 Thus, in the present embodiment, the high-resolution area (low-distortion area) 10a is formed by the central projection method (y=f×tan θ) or the equidistant projection method (y= It is configured to have a projection characteristic approximated to f×θ). Therefore, for example, an image for an electronic rearview mirror displayed on the first display unit 50 has a higher resolution than the low resolution area (high distortion area) 10b, and the front, sides, and rear of the vehicle 1 are far away. It can be displayed more precisely.

また、高解像度領域10aは光学歪曲が小さいため、第1表示部50に表示される電子ルームミラー用の画像も歪みが小さい状態で表示することができ、車両の周囲を運転者がより自然な遠近感で視認できる。 In addition, since the optical distortion of the high-resolution area 10a is small, the image for the electronic rearview mirror displayed on the first display unit 50 can be displayed with little distortion, and the driver can see the surroundings of the vehicle more naturally. It can be seen with a sense of distance.

尚、図11の調整例では、側方に異画角レンズを含む撮像部を用いている場合を説明した。側方に逆異画角レンズを含む撮像部を用いている場合には、解像度境界92、94の外部の高解像度領域が基準枠200に収まるように調整を行う。 In addition, in the adjustment example of FIG. 11, the case where the imaging unit including the lens with the different angle of view on the side is used has been described. In the case of using an image pickup unit including a reverse different angle of view lens on the side, adjustment is performed so that the high resolution area outside the resolution boundaries 92 and 94 fits within the reference frame 200 .

また、本実施形態における高解像度領域10aは、光学歪みが小さくなるように構成されており、歪曲補正をしないRAW画像信号の状態で画像認識ができるので、画像認識のための処理負荷を低減し高速で画像認識をすることができる。したがって画像認識結果に基づき障害物を早期に発見でき、障害物を回避するための動作をタイムリーに行える。このように、本実施形態の構成を用いた場合には、特に高速道路などでの高速走行時において大きな効果を得ることができる。 Further, the high-resolution area 10a in the present embodiment is configured so as to reduce optical distortion, and image recognition can be performed in the state of a RAW image signal without distortion correction, thereby reducing the processing load for image recognition. Image recognition can be performed at high speed. Therefore, the obstacle can be detected early based on the image recognition result, and the action for avoiding the obstacle can be performed in a timely manner. As described above, when the configuration of the present embodiment is used, a great effect can be obtained especially during high-speed driving on an expressway or the like.

なお、以上の実施形態では複数のカメラユニットを用いる例を説明したが、カメラユニットが1つだけのシステムにおいても有効である。また、本実施形態によれば上記のような異画角レンズを用いたシステムにおいて、カメラユニットを設置する位置や姿勢等を容易に調整できるので、調整のための作業効率を大幅に向上でき、異画角レンズを用いたシステムの性能を十分に引き出すことができる。
なお、以上の実施形態では、カメラユニットの調整時に低歪曲領域と高歪曲領域の境界画像を表示することによって調整工程を短縮化できるようにしているが、調整時以外であっても、例えば通常走行中などに境界画像を表示するようにしても良い。
In the above embodiment, an example using a plurality of camera units has been described, but a system with only one camera unit is also effective. In addition, according to this embodiment, in a system using a lens with a different angle of view as described above, the position and posture of installing the camera unit can be easily adjusted, so that the work efficiency for adjustment can be greatly improved. The performance of a system using lenses with different angles of view can be fully exploited.
In the above embodiment, the adjustment process can be shortened by displaying the boundary image between the low distortion area and the high distortion area when adjusting the camera unit. The boundary image may be displayed while the vehicle is running.

なお、上述の実施形態においては車両などの移動体に画像処理システムを搭載した例について説明した。しかし、本実施形態の移動体は、自動車などの車両に限らず、列車、船舶、飛行機、ロボット、ドローンなどの移動をする移動装置であればどのようなものであってもよい。また、本実施形態の画像処理システムはそれらの移動体に搭載されるものを含む。また、移動体をリモートでコントロールする場合にも本実施形態を適用することができる。 In the above-described embodiment, an example in which the image processing system is installed in a moving object such as a vehicle has been described. However, the mobile body of the present embodiment is not limited to vehicles such as automobiles, and may be any mobile device such as trains, ships, airplanes, robots, and drones. Further, the image processing system of this embodiment includes those mounted on such moving bodies. Also, this embodiment can be applied to remote control of a moving object.

[実施形態2]
上述した実施形態1において説明された様々な機能、処理および方法の少なくとも一つは、プログラムを用いて実現することができる。以下、実施形態2では、上述した実施形態1おいて説明された様々な機能、処理および方法の少なくとも一つを実現するためのプログラムを「プログラムX」と呼ぶ。さらに、実施形態2では、プログラムXを実行するためのコンピュータを「コンピュータY」と呼ぶ。パーソナルコンピュータ、マイクロコンピュータ、CPU(Central Processing Unit)などは、コンピュータYの一例である。上述した実施形態における画像処理システムなどのコンピュータも、コンピュータYの一例である。
[Embodiment 2]
At least one of the various functions, processes and methods described in Embodiment 1 above can be implemented using a program. Hereinafter, in the second embodiment, a program for realizing at least one of the various functions, processes, and methods described in the first embodiment will be referred to as "program X". Furthermore, in the second embodiment, a computer for executing program X is called "computer Y". Examples of the computer Y are a personal computer, a microcomputer, a CPU (Central Processing Unit), and the like. A computer such as the image processing system in the above-described embodiments is also an example of the computer Y.

上述した実施形態1において説明された様々な機能、処理および方法の少なくとも一つは、コンピュータYがプログラムXを実行することによって実現することができる。この場合において、プログラムXは、コンピュータ読み取り可能な記憶媒体を介してコンピュータYに供給される。実施形態2におけるコンピュータ読み取り可能な記憶媒体は、ハードディスク装置、磁気記憶装置、光記憶装置、光磁気記憶装置、メモリカード、ROM、RAMなどの少なくとも一つを含む。さらに、実施形態2におけるコンピュータ読み取り可能な記憶媒体は、non-transitory(非一時的)な記憶媒体である。 At least one of the various functions, processes and methods described in Embodiment 1 above can be realized by the computer Y executing the program X. In this case, program X is supplied to computer Y via a computer-readable storage medium. A computer-readable storage medium in the second embodiment includes at least one of a hard disk device, a magnetic storage device, an optical storage device, a magneto-optical storage device, a memory card, a ROM, and a RAM. Furthermore, the computer-readable storage medium in Embodiment 2 is a non-transitory storage medium.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明は上記実施形態に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。尚、本発明は以下の組み合わせを含む。 The present invention has been described in detail above based on its preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention. In addition, the present invention includes the following combinations.

(構成1)低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得手段と、前記光学像の特性に関する特性情報を取得する特性情報取得手段と、前記特性情報取得手段により取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を形成し、前記境界を示す情報を前記画像信号に重畳するための表示信号を生成する表示信号生成手段と、を有することを特徴とする画像処理システム。 (Configuration 1) Image acquiring means for acquiring an image signal formed by an imaging means for taking an optical image having a low distortion region and a high distortion region; and characteristic information acquiring means for acquiring characteristic information about characteristics of the optical image. forming information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information obtained by the characteristic information obtaining means, and generating a display signal for superimposing the information indicating the boundary on the image signal; and display signal generation means for generating an image processing system.

(構成2)前記画像取得手段は、前記光学像を形成する光学系と、前記光学系により形成された前記光学像を撮像する撮像素子と、を含むことを特徴とする構成1に記載の画像処理システム。 (Arrangement 2) The image according to Arrangement 1, wherein the image acquisition means includes an optical system that forms the optical image, and an imaging device that picks up the optical image formed by the optical system. processing system.

(構成3)異なる位置に配置された複数の前記画像取得手段を有し、前記表示信号生成手段は、複数の前記画像取得手段から取得した前記画像信号を合成して合成画像を生成することを特徴とする構成1又は2に記載の画像処理システム。 (Arrangement 3) A plurality of the image acquisition means are arranged at different positions, and the display signal generation means combines the image signals acquired from the plurality of image acquisition means to generate a composite image. 3. The image processing system according to the characterizing configuration 1 or 2.

(構成4)前記特性情報取得手段は複数の前記画像取得手段における前記特性情報を取得することを特徴とする構成3に記載の画像処理システム。 (Arrangement 4) The image processing system according to Arrangement 3, wherein the characteristic information acquiring means acquires the characteristic information of a plurality of the image acquiring means.

(構成5)前記表示信号生成手段は、複数の前記画像取得手段における前記特性情報に基づき1つの画像に複数の前記境界を示す情報を重畳した表示信号を生成することを特徴とする構成4に記載の画像処理システム。 (Configuration 5) In configuration 4, the display signal generation means generates a display signal in which information indicating a plurality of the boundaries is superimposed on one image based on the characteristic information in the plurality of image acquisition means. The described image processing system.

(構成6)前記表示信号生成手段は、前記合成画像に前記複数の前記境界を示す情報を重畳するための表示信号を生成することを特徴とする構成5に記載の画像処理システム。 (Structure 6) The image processing system according to structure 5, wherein the display signal generating means generates a display signal for superimposing information indicating the plurality of boundaries on the synthesized image.

(構成7)前記表示信号生成手段は、前記画像取得手段の姿勢を調整するためのガイド情報を含む表示信号を生成することを特徴とする構成1~6のいずれか1つに記載の画像処理システム。 (Structure 7) The image processing according to any one of structures 1 to 6, wherein the display signal generation means generates a display signal including guide information for adjusting the posture of the image acquisition means. system.

(構成8)前記ガイド情報は基準枠を含み、前記基準枠は電子ルームミラーに表示される画像領域に対応していることを特徴とする構成7に記載の画像処理システム。 (Structure 8) The image processing system according to structure 7, wherein the guide information includes a reference frame, and the reference frame corresponds to an image area displayed on an electronic rearview mirror.

(構成9)前記低歪曲領域と前記高歪曲領域はそれぞれ前記光学像の高解像度領域、低解像度領域に対応していることを特徴とする構成1~8のいずれか1つに記載の画像処理システム。 (Arrangement 9) The image processing according to any one of Arrangements 1 to 8, wherein the low distortion area and the high distortion area respectively correspond to the high resolution area and the low resolution area of the optical image. system.

(構成10)前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、
前記低歪曲領域におけるy(θ)はf×θより大きく、前記高歪曲領域における前記射影特性とは異なることを特徴とする構成2に記載の画像処理システム。
(Structure 10) Let f be the focal length of the optical system, θ be the half angle of view, y be the image height on the image plane, and y(θ) be the projection characteristic representing the relationship between the image height y and the half angle of view θ. when
3. The image processing system according to configuration 2, wherein y([theta]) in the low distortion region is larger than f*[theta] and is different from the projection characteristic in the high distortion region.

(構成11)前記低歪曲領域は、中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されていることを特徴とする構成10に記載の画像処理システム。 (Arrangement 11) The low-distortion region is characterized in that it is constructed so as to have a projection characteristic approximating a central projection method (y=f×tan θ) or an equidistant projection method (y=f×θ). An image processing system according to configuration 10.

(構成12)θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、

Figure 2023047328000003
を満足するように構成されていることを特徴とする構成10又は11に記載の画像処理システム。 (Structure 12) When θmax is the maximum half angle of view of the optical system and A is a predetermined constant,
Figure 2023047328000003
12. The image processing system according to configuration 10 or 11, characterized in that it is configured to satisfy:

(構成13)前記画像取得手段の少なくとも1つは、前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、
0.2<2×f×tan(θmax/2)/y(θmax) <0.92
を満足することを特徴とする構成3~12のいずれか1つに記載の画像処理システム。
(Arrangement 13) At least one of the image acquisition means has f as the focal length of the optical system, θ as the half angle of view, y as the image height on the image plane, and the relationship between the image height y and the half angle of view θ as Letting y(θ) be the projection characteristic to be expressed and θmax be the maximum half angle of view of the optical system,
0.2<2×f×tan(θmax/2)/y(θmax)<0.92
13. The image processing system according to any one of configurations 3 to 12, wherein:

(構成14)低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する複数の画像取得手段を有し、それぞれの前記画像取得手段の前記光学像の特性に関する特性情報を取得する特性情報取得手段と、前記特性情報取得手段により取得された前記特性情報に基づき、それぞれの前記画像取得手段からの前記画像信号を画像処理して所定の表示信号を生成する表示信号生成手段と、を有すると共に、複数の前記画像取得手段の少なくとも2つの前記画像取得手段の撮影範囲が互いに重複するように配置されていることを特徴とする画像処理システム。 (Arrangement 14) A plurality of image acquiring means for acquiring image signals formed by image capturing means for capturing an optical image having a low distortion area and a high distortion area, and characteristics of the optical image of each of the image acquiring means and a characteristic information obtaining means for obtaining characteristic information about the display, and based on the characteristic information obtained by the characteristic information obtaining means, the image signals from the respective image obtaining means are subjected to image processing to generate a predetermined display signal. and display signal generation means, wherein at least two of the plurality of image acquisition means are arranged such that photographing ranges of at least two of the image acquisition means overlap each other.

(構成15)前記画像取得手段は、前記光学像を形成する光学系と、前記光学系により形成された前記光学像を撮像する撮像素子と、を含むことを特徴とする構成14に記載の画像処理システム。 (Arrangement 15) The image according to Arrangement 14, wherein the image acquisition means includes an optical system that forms the optical image, and an imaging device that captures the optical image formed by the optical system. processing system.

(構成16)前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、前記低歪曲領域におけるy(θ)はf×θより大きく、前記高歪曲領域における前記射影特性とは異なることを特徴とする構成15に記載の画像処理システム。 (Structure 16) Let f be the focal length of the optical system, θ be the half angle of view, y be the image height on the image plane, and y(θ) be the projection characteristic representing the relationship between the image height y and the half angle of view θ. 16, wherein y(θ) in the low distortion region is greater than f×θ and is different from the projection characteristic in the high distortion region.

(構成17)前記低歪曲領域は、中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されていることを特徴とする構成16に記載の画像処理システム。 (Structure 17) The low-distortion region is characterized in that it is constructed so as to have a projection characteristic approximating a central projection method (y=f×tan θ) or an equidistant projection method (y=f×θ). 17. An image processing system according to configuration 16.

(構成18)θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、

Figure 2023047328000004
を満足するように構成されていることを特徴とする構成16又は17に記載の画像処理システム。 (Structure 18) When θmax is the maximum half angle of view of the optical system and A is a predetermined constant,
Figure 2023047328000004
18. The image processing system according to configuration 16 or 17, characterized in that it is configured to satisfy:

(構成19)前記画像取得手段の少なくとも1つは、前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、0.2<2×f×tan(θmax/2)/y(θmax) <0.92を満足することを特徴とする構成15~18のいずれか1つに記載の画像処理システム。 (Arrangement 19) At least one of the image acquisition means has f as the focal length of the optical system, θ as the half angle of view, y as the image height on the image plane, and the relationship between the image height y and the half angle of view θ as 0.2<2×f×tan(θmax/2)/y(θmax)<0.92 where y(θ) is the projection characteristic and θmax is the maximum half angle of view of the optical system. The image processing system according to any one of configurations 15 to 18, characterized in that:

(構成20)少なくとも2つの前記画像取得手段の前記低歪曲領域の撮影範囲が互いに重複するように配置されていることを特徴とする構成14~19のいずれか1つに記載の画像処理システム。 (Arrangement 20) The image processing system according to any one of Arrangements 14 to 19, wherein at least two image acquisition means are arranged so that the imaging ranges of the low-distortion regions overlap each other.

(構成21)前記表示信号生成手段は、少なくとも2つの前記画像取得手段からの前記画像信号を合成して合成画像を生成することを特徴とする構成14~20のいずれか1つに記載の画像処理システム。 (Structure 21) The image according to any one of structures 14 to 20, wherein the display signal generation means generates a composite image by combining the image signals from at least two image acquisition means. processing system.

(構成22)前記表示信号生成手段は、前記特性情報取得手段により取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を生成することを特徴とする構成14~21のいずれか1つに記載の画像処理システム。 (Configuration 22) Configurations 14 to 14, wherein the display signal generation means generates information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information acquired by the characteristic information acquisition means. 22. The image processing system according to any one of 21.

(構成23)前記表示信号生成手段は、前記画像取得手段から取得した画像に前記境界を示す情報を重畳するための表示信号を生成することを特徴とする構成22に記載の画像処理システム。 (Arrangement 23) The image processing system according to Arrangement 22, wherein the display signal generation means generates a display signal for superimposing the information indicating the boundary on the image acquired from the image acquisition means.

(構成24)前記表示信号生成手段は、前記画像取得手段の姿勢を調整するためのガイド情報を含む表示信号を生成することを特徴とする構成22又は23に記載の画像処理システム。 (Arrangement 24) The image processing system according to Arrangement 22 or 23, wherein the display signal generation means generates a display signal including guide information for adjusting the attitude of the image acquisition means.

(構成25)前記ガイド情報は基準枠を含み、前記基準枠は電子ルームミラーに表示される画像領域に対応していることを特徴とする構成24に記載の画像処理システム。 (Arrangement 25) The image processing system according to Arrangement 24, wherein the guide information includes a reference frame, and the reference frame corresponds to an image area displayed on an electronic rearview mirror.

(構成26)前記低歪曲領域と前記高歪曲領域はそれぞれ前記光学像の高解像度領域、低解像度領域に対応していることを特徴とする構成14~25のいずれか1つに記載の画像処理システム。 (Arrangement 26) The image processing according to any one of Arrangements 14 to 25, wherein the low distortion area and the high distortion area respectively correspond to the high resolution area and the low resolution area of the optical image. system.

(構成27)低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する複数の画像取得手段を有し、それぞれの前記画像取得手段の前記光学像の特性に関する特性情報を取得する特性情報取得手段と、前記特性情報取得手段により取得された前記特性情報に基づき、それぞれの前記画像取得手段からの前記画像信号を画像処理して所定の表示信号を生成する表示信号生成手段と、を有し、複数の前記画像取得手段の光学系は、前記光学系の中心寄りの領域が前記低歪曲領域であり、外寄りの領域が前記高歪曲領域の画像取得手段と、前記光学系の中心寄りの領域が前記高歪曲領域であり、外寄りの領域が前記低歪曲領域の画像取得手段と、を含むことを特徴とする画像処理システム。 (Arrangement 27) A plurality of image acquiring means for acquiring image signals formed by image capturing means for capturing an optical image having a low distortion area and a high distortion area, and characteristics of the optical image of each of the image acquiring means and a characteristic information obtaining means for obtaining characteristic information about the display, and based on the characteristic information obtained by the characteristic information obtaining means, the image signals from the respective image obtaining means are subjected to image processing to generate a predetermined display signal. and a display signal generating means, wherein the optical system of the plurality of image acquisition means has the low distortion area in an area near the center of the optical system and the high distortion area in an outer area. and image acquisition means for obtaining an image in which an area near the center of the optical system is the high distortion area and an area near the outside of the optical system is the low distortion area.

(構成28)前記光学系の中心寄りの領域が前記低歪曲領域であり、外寄りの領域が前記高歪曲領域の前記画像取得手段は移動体の後方に配置されることを特徴とする構成27に記載の画像処理システム。 (Arrangement 28) An area near the center of the optical system is the low distortion area, and an outer area is the high distortion area. The image processing system described in .

(構成29)前記光学系の中心寄りの領域が前記高歪曲領域であり、外寄りの領域が前記低歪曲領域の前記画像取得手段は移動体の正面又は側面に配置されることを特徴とする構成27又は28に記載の画像処理システム。 (Arrangement 29) The image acquiring means having the high distortion area in an area near the center of the optical system and the low distortion area in an outer area is arranged on the front or side of a moving object. 29. An image processing system according to configuration 27 or 28.

(構成30)複数の前記画像取得手段の少なくとも2つの前記画像取得手段の撮影範囲が互いに重複するように配置されていることを特徴とする構成27~29のいずれか1つに記載の画像処理システム。 (Structure 30) The image processing according to any one of structures 27 to 29, characterized in that photographing ranges of at least two of the plurality of image acquisition means are arranged so as to overlap each other. system.

(構成31)低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得手段を有し、前記画像取得手段の前記光学像の特性に関する特性情報を取得する特性情報取得手段と、前記特性情報取得手段により取得された前記特性情報に基づき、前記画像取得手段からの前記画像信号を画像処理して所定の表示信号を生成する表示信号生成手段と、を有し、前記画像取得手段は光学系を有し、前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、0.2<2×f×tan(θmax/2)/y(θmax) <0.92を満足することを特徴とする画像処理システム。 (Arrangement 31) An image obtaining means for obtaining an image signal formed by an imaging means for imaging an optical image having a low distortion area and a high distortion area, and characteristic information about characteristics of the optical image of the image obtaining means is obtained. a characteristic information acquiring means for acquiring; a display signal generating means for generating a predetermined display signal by image processing the image signal from the image acquiring means based on the characteristic information acquired by the characteristic information acquiring means; The image acquisition means has an optical system, the focal length of the optical system is f, the half angle of view is θ, the image height on the image plane is y, and the relationship between the image height y and the half angle of view θ 0.2<2×f×tan(θmax/2)/y(θmax)<0.92, where y(θ) is the projection characteristic representing An image processing system characterized by:

(構成32)低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得手段を有し、前記画像取得手段は、光学系を有し、前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、0.2<2×f×tan(θmax/2)/y(θmax) <0.92を満足することを特徴とする撮像装置。 (Arrangement 32) An image acquiring means for acquiring an image signal formed by an imaging means for taking an optical image having a low distortion area and a high distortion area, the image acquiring means having an optical system, The optical system has f as the focal length of the system, θ as the half angle of view, y as the image height on the image plane, y(θ) as the projection characteristic representing the relationship between the image height y and the half angle of view θ, and θmax as An image pickup apparatus that satisfies 0.2<2×f×tan(θmax/2)/y(θmax)<0.92 when the maximum half angle of view is assumed.

(構成33)低歪曲領域と高歪曲領域とを有する光学像を受光面に形成する光学系であって、焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを最大の半画角とするとき、0.2<2×f×tan(θmax/2)/y(θmax) <0.92を満足することを特徴とする光学系。 (Structure 33) An optical system that forms an optical image having a low distortion region and a high distortion region on a light receiving surface, wherein f is the focal length, θ is the half angle of view, y is the image height on the image plane, and y is the image height. When y(θ) is the projection characteristic representing the relationship between y and the half angle of view θ, and θmax is the maximum half angle of view, 0.2<2×f×tan(θmax/2)/y(θmax)< An optical system characterized by satisfying 0.92.

(方法1)低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得ステップと、前記光学像の特性に関する特性情報を取得する特性情報取得ステップと、前記特性情報取得ステップにより取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を形成し、前記境界を示す情報を前記画像信号に重畳するための表示信号を生成する表示信号生成ステップと、を有することを特徴とする画像処理方法。 (Method 1) An image acquisition step of acquiring an image signal formed by imaging means for capturing an optical image having a low distortion region and a high distortion region; and a characteristic information acquisition step of acquiring characteristic information regarding the characteristics of the optical image. forming information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information obtained in the characteristic information obtaining step, and generating a display signal for superimposing the information indicating the boundary on the image signal; and a display signal generation step.

(プログラム)画像処理システムのコンピュータに、
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得ステップと、
前記光学像の特性に関する特性情報を取得する特性情報取得ステップと、
前記特性情報取得ステップにより取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を形成し、前記境界を示す情報を前記画像信号に重畳するための表示信号を生成する表示信号生成ステップと、
を行わせるためのコンピュータプログラム。
(program) in the computer of the image processing system,
an image acquisition step of acquiring an image signal formed by imaging means for imaging an optical image having a low distortion area and a high distortion area;
a characteristic information acquiring step of acquiring characteristic information relating to the characteristics of the optical image;
forming information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information obtained in the characteristic information obtaining step, and generating a display signal for superimposing the information indicating the boundary on the image signal; a display signal generating step for
A computer program that causes

1:車両
10a:高解像度領域
10b:低解像度領域
11~14:カメラユニット
21~24:撮像部
31~34:カメラ処理部
31b~34b:認識部
40:統合処理部
41b:認識部
50:第1表示部
51:第2表示部
60:走行制御部ECU




1: Vehicle 10a: High resolution area 10b: Low resolution area 11-14: Camera unit 21-24: Imaging unit 31-34: Camera processing unit 31b-34b: Recognition unit 40: Integration processing unit 41b: Recognition unit 50: Third 1 display unit 51: second display unit 60: traveling control unit ECU




Claims (35)

低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得手段と、
前記光学像の特性に関する特性情報を取得する特性情報取得手段と、
前記特性情報取得手段により取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を形成し、前記境界を示す情報を前記画像信号に重畳するための表示信号を生成する表示信号生成手段と、
を有することを特徴とする画像処理システム。
an image acquisition means for acquiring an image signal formed by an imaging means for imaging an optical image having a low distortion area and a high distortion area;
a characteristic information obtaining means for obtaining characteristic information relating to the characteristics of the optical image;
forming information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information obtained by the characteristic information obtaining means, and generating a display signal for superimposing the information indicating the boundary on the image signal; a display signal generating means for
An image processing system comprising:
前記画像取得手段は、前記光学像を形成する光学系と、
前記光学系により形成された前記光学像を撮像する撮像素子と、を含むことを特徴とする請求項1に記載の画像処理システム。
The image acquisition means includes an optical system that forms the optical image,
2. The image processing system according to claim 1, further comprising an imaging device for imaging the optical image formed by the optical system.
異なる位置に配置された複数の前記画像取得手段を有し、
前記表示信号生成手段は、複数の前記画像取得手段から取得した前記画像信号を合成して合成画像を生成することを特徴とする請求項1に記載の画像処理システム。
Having a plurality of the image acquisition means arranged at different positions,
2. The image processing system according to claim 1, wherein said display signal generating means generates a composite image by synthesizing said image signals obtained from said plurality of said image obtaining means.
前記特性情報取得手段は複数の前記画像取得手段における前記特性情報を取得することを特徴とする請求項3に記載の画像処理システム。 4. The image processing system according to claim 3, wherein said property information acquisition means acquires said property information in a plurality of said image acquisition means. 前記表示信号生成手段は、複数の前記画像取得手段における前記特性情報に基づき1つの画像に複数の前記境界を示す情報を重畳した表示信号を生成することを特徴とする請求項4に記載の画像処理システム。 5. The image according to claim 4, wherein said display signal generation means generates a display signal in which a plurality of pieces of information indicating said boundaries are superimposed on one image based on said characteristic information in said plurality of said image acquisition means. processing system. 前記表示信号生成手段は、前記合成画像に前記複数の前記境界を示す情報を重畳するための表示信号を生成することを特徴とする請求項5に記載の画像処理システム。 6. The image processing system according to claim 5, wherein said display signal generating means generates a display signal for superimposing information indicating said plurality of boundaries on said synthesized image. 前記表示信号生成手段は、前記画像取得手段の姿勢を調整するためのガイド情報を含む表示信号を生成することを特徴とする請求項1に記載の画像処理システム。 2. The image processing system according to claim 1, wherein said display signal generation means generates a display signal including guide information for adjusting the posture of said image acquisition means. 前記ガイド情報は基準枠を含み、前記基準枠は電子ルームミラーに表示される画像領域に対応していることを特徴とする請求項7に記載の画像処理システム。 8. The image processing system according to claim 7, wherein said guide information includes a reference frame, and said reference frame corresponds to an image area displayed on an electronic rearview mirror. 前記低歪曲領域と前記高歪曲領域はそれぞれ前記光学像の高解像度領域、低解像度領域に対応していることを特徴とする請求項1に記載の画像処理システム。 2. The image processing system according to claim 1, wherein said low distortion area and said high distortion area respectively correspond to a high resolution area and a low resolution area of said optical image. 前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、
前記低歪曲領域におけるy(θ)はf×θより大きく、前記高歪曲領域における前記射影特性とは異なることを特徴とする請求項2に記載の画像処理システム。
When the focal length of the optical system is f, the half angle of view is θ, the image height on the image plane is y, and the projection characteristic representing the relationship between the image height y and the half angle of view θ is y(θ),
3. An image processing system according to claim 2, wherein y([theta]) in said low distortion region is greater than f*[theta] and is different from said projection characteristic in said high distortion region.
前記低歪曲領域は、中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されていることを特徴とする請求項10に記載の画像処理システム。 11. The method according to claim 10, wherein the low distortion region is configured to have a projection characteristic approximated to a central projection method (y=f×tan θ) or an equidistant projection method (y=f×θ). The described image processing system. θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、
Figure 2023047328000005
を満足するように構成されていることを特徴とする請求項10に記載の画像処理システム。
When θmax is the maximum half angle of view of the optical system and A is a predetermined constant,
Figure 2023047328000005
11. The image processing system according to claim 10, wherein the image processing system is configured to satisfy:
前記画像取得手段の少なくとも1つは、光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、
0.2<2×f×tan(θmax/2)/y(θmax) <0.92
を満足することを特徴とする請求項3に記載の画像処理システム。
At least one of the image acquisition means has f as the focal length of the optical system, θ as the half angle of view, y as the image height on the image plane, and y as the projection characteristic representing the relationship between the image height y and the half angle of view θ. When (θ) and θmax are the maximum half angle of view of the optical system,
0.2<2×f×tan(θmax/2)/y(θmax)<0.92
4. The image processing system according to claim 3, wherein:
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する複数の画像取得手段を有し、
それぞれの前記画像取得手段の前記光学像の特性に関する特性情報を取得する特性情報取得手段と、
前記特性情報取得手段により取得された前記特性情報に基づき、それぞれの前記画像取得手段からの前記画像信号を画像処理して所定の表示信号を生成する表示信号生成手段と、
を有すると共に、
複数の前記画像取得手段の少なくとも2つの前記画像取得手段の撮影範囲が互いに重複するように配置されていることを特徴とする画像処理システム。
having a plurality of image acquisition means for acquiring image signals formed by imaging means for imaging an optical image having a low distortion region and a high distortion region;
a characteristic information acquiring means for acquiring characteristic information relating to the characteristics of the optical image of each of the image acquiring means;
display signal generating means for generating a predetermined display signal by performing image processing on the image signal from each of the image obtaining means based on the characteristic information obtained by the characteristic information obtaining means;
and
An image processing system, wherein at least two of said plurality of image acquisition means are arranged such that photographing ranges of said image acquisition means overlap each other.
前記画像取得手段は、前記光学像を形成する光学系と、
前記光学系により形成された前記光学像を撮像する撮像素子と、を含むことを特徴とする請求項14に記載の画像処理システム。
The image acquisition means includes an optical system that forms the optical image,
15. The image processing system according to claim 14, further comprising an imaging device for imaging the optical image formed by the optical system.
前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、
前記低歪曲領域におけるy(θ)はf×θより大きく、前記高歪曲領域における前記射影特性とは異なることを特徴とする請求項15に記載の画像処理システム。
When the focal length of the optical system is f, the half angle of view is θ, the image height on the image plane is y, and the projection characteristic representing the relationship between the image height y and the half angle of view θ is y(θ),
16. The image processing system of claim 15, wherein y([theta]) in the low distortion region is greater than f*[theta] and is different from the projection characteristic in the high distortion region.
前記低歪曲領域は、中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されていることを特徴とする請求項16に記載の画像処理システム。 17. The method according to claim 16, wherein the low-distortion region is configured to have projection characteristics approximate to a central projection method (y=f×tan θ) or an equidistant projection method (y=f×θ). The described image processing system. θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、
Figure 2023047328000006
を満足するように構成されていることを特徴とする請求項16に記載の画像処理システム。
When θmax is the maximum half angle of view of the optical system and A is a predetermined constant,
Figure 2023047328000006
17. The image processing system according to claim 16, wherein the image processing system is configured to satisfy:
前記画像取得手段の少なくとも1つは、前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、
0.2<2×f×tan(θmax/2)/y(θmax) <0.92
を満足することを特徴とする請求項15に記載の画像処理システム。
At least one of the image acquisition means has f as the focal length of the optical system, θ as the half angle of view, y as the image height on the image plane, and projection characteristics representing the relationship between the image height y and the half angle of view θ. When y(θ) and θmax are the maximum half angle of view of the optical system,
0.2<2×f×tan(θmax/2)/y(θmax)<0.92
16. The image processing system according to claim 15, wherein:
少なくとも2つの前記画像取得手段の前記低歪曲領域の撮影範囲が互いに重複するように配置されていることを特徴とする請求項14に記載の画像処理システム。 15. The image processing system according to claim 14, wherein at least two of said image acquisition means are arranged so that the photographing ranges of said low distortion areas overlap each other. 前記表示信号生成手段は、少なくとも2つの前記画像取得手段からの前記画像信号を合成して合成画像を生成することを特徴とする請求項14に記載の画像処理システム。 15. The image processing system according to claim 14, wherein said display signal generation means combines said image signals from at least two said image acquisition means to generate a composite image. 前記表示信号生成手段は、前記特性情報取得手段により取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を生成することを特徴とする請求項14に記載の画像処理システム。 15. The image according to claim 14, wherein said display signal generating means generates information indicating a boundary between said low distortion area and said high distortion area based on said characteristic information acquired by said characteristic information acquiring means. processing system. 前記表示信号生成手段は、前記画像取得手段から取得した画像に前記境界を示す情報を重畳するための表示信号を生成することを特徴とする請求項22に記載の画像処理システム。 23. The image processing system according to claim 22, wherein said display signal generation means generates a display signal for superimposing information indicating said boundary on the image acquired from said image acquisition means. 前記表示信号生成手段は、前記画像取得手段の姿勢を調整するためのガイド情報を含む表示信号を生成することを特徴とする請求項22に記載の画像処理システム。 23. The image processing system according to claim 22, wherein said display signal generation means generates a display signal including guide information for adjusting the attitude of said image acquisition means. 前記ガイド情報は基準枠を含み、前記基準枠は電子ルームミラーに表示される画像領域に対応していることを特徴とする請求項24に記載の画像処理システム。 25. The image processing system according to claim 24, wherein said guide information includes a reference frame, said reference frame corresponding to an image area displayed on an electronic rearview mirror. 前記低歪曲領域と前記高歪曲領域はそれぞれ前記光学像の高解像度領域、低解像度領域に対応していることを特徴とする請求項14に記載の画像処理システム。 15. The image processing system according to claim 14, wherein said low distortion area and said high distortion area correspond to a high resolution area and a low resolution area of said optical image, respectively. 低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する複数の画像取得手段を有し、
それぞれの前記画像取得手段の前記光学像の特性に関する特性情報を取得する特性情報取得手段と、
前記特性情報取得手段により取得された前記特性情報に基づき、それぞれの前記画像取得手段からの前記画像信号を画像処理して所定の表示信号を生成する表示信号生成手段と、
を有し、
複数の前記画像取得手段の光学系は、前記光学系の中心寄りの領域が前記低歪曲領域であり、外寄りの領域が前記高歪曲領域の画像取得手段と、前記光学系の中心寄りの領域が前記高歪曲領域であり、外寄りの領域が前記低歪曲領域の画像取得手段と、を含むことを特徴とする画像処理システム。
having a plurality of image acquisition means for acquiring image signals formed by imaging means for imaging an optical image having a low distortion region and a high distortion region;
a characteristic information acquiring means for acquiring characteristic information relating to the characteristics of the optical image of each of the image acquiring means;
display signal generating means for generating a predetermined display signal by performing image processing on the image signal from each of the image obtaining means based on the characteristic information obtained by the characteristic information obtaining means;
has
The optical system of the plurality of image acquisition means has the low distortion area in the area near the center of the optical system and the high distortion area in the outer area, and the image acquisition means and the area near the center of the optical system. is the high distortion area, and an image acquisition means for the low distortion area is an outer area.
前記光学系の中心寄りの領域が前記低歪曲領域であり、外寄りの領域が前記高歪曲領域の前記画像取得手段は移動体の後方に配置されることを特徴とする請求項27に記載の画像処理システム。 28. The image acquisition means according to claim 27, wherein the area near the center of the optical system is the low distortion area and the area near the outside is the high distortion area, and the image acquisition means is arranged behind the moving object. image processing system. 前記光学系の中心寄りの領域が前記高歪曲領域であり、外寄りの領域が前記低歪曲領域の前記画像取得手段は移動体の正面又は側方に配置されることを特徴とする請求項27に記載の画像処理システム。 27. An area near the center of said optical system is said high distortion area, and an area near the outside of said optical system is said low distortion area. The image processing system described in . 複数の前記画像取得手段の少なくとも2つの前記画像取得手段の撮影範囲が互いに重複するように配置されていることを特徴とする請求項27に記載の画像処理システム。 28. The image processing system according to claim 27, wherein at least two of said plurality of image acquisition means are arranged such that photographing ranges of said image acquisition means overlap each other. 低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得手段を有し、
前記画像取得手段の前記光学像の特性に関する特性情報を取得する特性情報取得手段と、
前記特性情報取得手段により取得された前記特性情報に基づき、前記画像取得手段からの前記画像信号を画像処理して所定の表示信号を生成する表示信号生成手段と、
を有し、
前記画像取得手段は光学系を有し、前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、
0.2<2×f×tan(θmax/2)/y(θmax) <0.92
を満足することを特徴とする画像処理システム。
An image acquiring means for acquiring an image signal formed by an imaging means for taking an optical image having a low distortion area and a high distortion area,
a characteristic information obtaining means for obtaining characteristic information relating to the characteristics of the optical image of the image obtaining means;
display signal generation means for generating a predetermined display signal by image processing the image signal from the image acquisition means based on the characteristic information acquired by the characteristic information acquisition means;
has
The image acquisition means has an optical system, and the focal length of the optical system is f, the half angle of view is θ, the image height on the image plane is y, and the projection characteristic represents the relationship between the image height y and the half angle of view θ. is y(θ) and θmax is the maximum half angle of view of the optical system,
0.2<2×f×tan(θmax/2)/y(θmax)<0.92
An image processing system characterized by satisfying
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得手段を有し、
前記画像取得手段は、光学系を有し、前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、
0.2<2×f×tan(θmax/2)/y(θmax) <0.92
を満足することを特徴とする撮像装置。
An image acquiring means for acquiring an image signal formed by an imaging means for taking an optical image having a low distortion area and a high distortion area,
The image acquisition means has an optical system, the focal length of the optical system is f, the half angle of view is θ, the image height on the image plane is y, and the projection represents the relationship between the image height y and the half angle of view θ When the characteristic is y(θ) and θmax is the maximum half angle of view of the optical system,
0.2<2×f×tan(θmax/2)/y(θmax)<0.92
An imaging device characterized by satisfying:
低歪曲領域と高歪曲領域とを有する光学像を受光面に形成する光学系であって、
焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを最大の半画角とするとき、
0.2<2×f×tan(θmax/2)/y(θmax) <0.92
を満足することを特徴とする光学系。
An optical system that forms an optical image having a low distortion area and a high distortion area on a light receiving surface,
Let f be the focal length, θ be the half angle of view, y be the image height on the image plane, y(θ) be the projection characteristic representing the relationship between the image height y and the half angle of view θ, and θmax be the maximum half angle of view. when
0.2<2×f×tan(θmax/2)/y(θmax)<0.92
An optical system characterized by satisfying
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得ステップと、
前記光学像の特性に関する特性情報を取得する特性情報取得ステップと、
前記特性情報取得ステップにより取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を形成し、前記境界を示す情報を前記画像信号に重畳するための表示信号を生成する表示信号生成ステップと、
を有することを特徴とする画像処理方法。
an image acquisition step of acquiring an image signal formed by imaging means for imaging an optical image having a low distortion area and a high distortion area;
a characteristic information acquiring step of acquiring characteristic information relating to the characteristics of the optical image;
forming information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information obtained in the characteristic information obtaining step, and generating a display signal for superimposing the information indicating the boundary on the image signal; a display signal generating step for
An image processing method characterized by comprising:
画像処理システムのコンピュータに、
低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像手段により形成した画像信号を取得する画像取得ステップと、
前記光学像の特性に関する特性情報を取得する特性情報取得ステップと、
前記特性情報取得ステップにより取得された前記特性情報に基づき前記低歪曲領域と前記高歪曲領域の境界を示す情報を形成し、前記境界を示す情報を前記画像信号に重畳するための表示信号を生成する表示信号生成ステップと、
を行わせるためのコンピュータプログラム。



In the computer of the image processing system,
an image acquisition step of acquiring an image signal formed by imaging means for imaging an optical image having a low distortion area and a high distortion area;
a characteristic information acquiring step of acquiring characteristic information relating to the characteristics of the optical image;
forming information indicating a boundary between the low distortion region and the high distortion region based on the characteristic information obtained in the characteristic information obtaining step, and generating a display signal for superimposing the information indicating the boundary on the image signal; a display signal generating step for
A computer program that causes



JP2022148737A 2021-09-24 2022-09-20 Image processing system, image processing method, imaging device, optical system, and computer program Active JP7434476B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211166440.5A CN115883984A (en) 2021-09-24 2022-09-23 Image processing system and method, storage medium, image pickup apparatus, and optical unit
US17/951,487 US12028603B2 (en) 2021-09-24 2022-09-23 Image processing system, image processing method, storage medium, image pickup apparatus, and optical unit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021155589 2021-09-24
JP2021155589 2021-09-24

Publications (2)

Publication Number Publication Date
JP2023047328A true JP2023047328A (en) 2023-04-05
JP7434476B2 JP7434476B2 (en) 2024-02-20

Family

ID=85778178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022148737A Active JP7434476B2 (en) 2021-09-24 2022-09-20 Image processing system, image processing method, imaging device, optical system, and computer program

Country Status (1)

Country Link
JP (1) JP7434476B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020057279A1 (en) * 1999-05-20 2002-05-16 Compaq Computer Corporation System and method for displaying images using foveal video
JP2004272706A (en) * 2003-03-10 2004-09-30 Minolta Co Ltd Camera
WO2013008623A1 (en) * 2011-07-12 2013-01-17 日産自動車株式会社 Vehicle monitoring device, vehicle monitoring system, terminal device, and vehicle monitoring method
WO2019123840A1 (en) * 2017-12-19 2019-06-27 パナソニックIpマネジメント株式会社 Imaging device, imaging system, and display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020057279A1 (en) * 1999-05-20 2002-05-16 Compaq Computer Corporation System and method for displaying images using foveal video
JP2004272706A (en) * 2003-03-10 2004-09-30 Minolta Co Ltd Camera
WO2013008623A1 (en) * 2011-07-12 2013-01-17 日産自動車株式会社 Vehicle monitoring device, vehicle monitoring system, terminal device, and vehicle monitoring method
WO2019123840A1 (en) * 2017-12-19 2019-06-27 パナソニックIpマネジメント株式会社 Imaging device, imaging system, and display system

Also Published As

Publication number Publication date
JP7434476B2 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
JP7467402B2 (en) IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
JP2024063155A (en) Moving vehicle, image processing method, and computer program
US20230100099A1 (en) Image processing system, image processing method, and storage medium
EP4155817A1 (en) Camera unit installing method, mobile object, image processing system, image processing method, and storage medium
EP4156127A1 (en) Image processing system, mobile object, image processing method, and storage medium
JP7434476B2 (en) Image processing system, image processing method, imaging device, optical system, and computer program
JP2024050331A (en) Movable body and method for installing imaging device
US12028603B2 (en) Image processing system, image processing method, storage medium, image pickup apparatus, and optical unit
EP4286223A1 (en) Movable apparatus, control method for movable apparatus, and storage medium
US20240177492A1 (en) Image processing system, image processing method, and storage medium
US20240357247A1 (en) Image processing system, moving object, imaging system, image processing method, and storage medium
EP4408006A1 (en) Image processing system, movable apparatus, image processing method, and storage medium
US20240314455A1 (en) Movable apparatus, image processing apparatus, storage medium, and installation method for imaging apparatus
WO2023145690A1 (en) Image processing system, moving body, image capture system, image processing method, and storage medium
US20240346626A1 (en) Image processing system, movable apparatus, image processing method, and storage medium
CN117774832A (en) Method for installing movable equipment and camera device
JP2024094584A (en) Imaging setting device, imaging apparatus, and imaging setting method
JP2023077492A (en) Camera system, movable body, control method and computer program
JP2023109163A (en) Image processing system, mobile body, image processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R151 Written notification of patent or utility model registration

Ref document number: 7434476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151