JP5464741B2 - Image composition apparatus and image composition method - Google Patents
Image composition apparatus and image composition method Download PDFInfo
- Publication number
- JP5464741B2 JP5464741B2 JP2010017615A JP2010017615A JP5464741B2 JP 5464741 B2 JP5464741 B2 JP 5464741B2 JP 2010017615 A JP2010017615 A JP 2010017615A JP 2010017615 A JP2010017615 A JP 2010017615A JP 5464741 B2 JP5464741 B2 JP 5464741B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- images
- luminance
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 55
- 239000000203 mixture Substances 0.000 title claims description 22
- 235000019557 luminance Nutrition 0.000 claims description 134
- 238000003384 imaging method Methods 0.000 claims description 79
- 230000002093 peripheral effect Effects 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000001308 synthesis method Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 54
- 230000006870 function Effects 0.000 description 44
- 238000012937 correction Methods 0.000 description 29
- 239000002131 composite material Substances 0.000 description 18
- 238000003860 storage Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 101150073246 AGL1 gene Proteins 0.000 description 1
- 101100096931 Arabidopsis thaliana SEP1 gene Proteins 0.000 description 1
- 101100378577 Hypocrea jecorina agl2 gene Proteins 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
本発明は、合成される複数のカメラ画像の輝度を調整する技術に関する。 The present invention relates to a technique for adjusting the luminance of a plurality of camera images to be combined.
カメラから入力された画像を処理して表示画面へ表示させる技術が知られている。例えば、AGC(オートマチックゲインコントロール)と呼ばれるカメラ画像処理がある。
A technique for processing an image input from a camera and displaying it on a display screen is known. For example, there is camera image processing called AGC (Automatic Gain Control).
AGCとは、通常、電気回路等から構成され、カメラから入力された画像信号の平均の明るさが、弱い場合には全体的に明るさを上げる処理を行い、強い場合には全体的に明るさを下げる処理を行って、表示画面へ表示される画像を、暗すぎないように、かつ、明るすぎないようにする制御をいう。このようにカメラ画像を処理する技術は、例えば、特許文献1に開示されている。 The AGC is usually composed of an electric circuit or the like. When the average brightness of the image signal input from the camera is weak, the overall brightness is increased. When the average brightness is strong, the brightness is totally bright. This is control that performs processing to reduce the image so that the image displayed on the display screen is not too dark and not too bright. A technique for processing a camera image in this way is disclosed in Patent Document 1, for example.
また、近年、車両搭載の複数のカメラから入力された画像を合成して1枚の車両の周辺の様子を示す車両周辺画像を生成し、生成した車両周辺画像を表示画面へ表示させる車両周辺画像表示システムが開発されている。 Further, in recent years, a vehicle peripheral image is generated by combining images input from a plurality of cameras mounted on the vehicle to generate a vehicle peripheral image showing a state of the periphery of one vehicle and displaying the generated vehicle peripheral image on a display screen. A display system has been developed.
しかし、車両周辺画像表示システムにおいて、複数のカメラ画像において一のカメラ画像ごとにAGCを施した後に1枚の合成画像を生成すると、合成画像において明るさのムラが発生してしまう虞がある。また、複数のカメラ画像を1枚の車両周辺画像に合成してから、AGCを施すと、輝度が最も暗い画像の影響により、輝度が最も明るい画像がいっそう明るくなって看にくくなってしまう虞がある。 However, in the vehicle peripheral image display system, if one composite image is generated after AGC is performed for each camera image in a plurality of camera images, there is a possibility that brightness unevenness occurs in the composite image. Also, if AGC is applied after combining a plurality of camera images into a single vehicle periphery image, the brightest image may become brighter and difficult to see due to the effect of the darkest image. is there.
本発明は、上記課題に鑑みてなされたものであり、車両搭載の複数のカメラが撮像した、複数のカメラ画像の合成画像を看やすくできる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that makes it easy to view a composite image of a plurality of camera images captured by a plurality of cameras mounted on a vehicle.
上記課題を解決するため、請求項1の発明は、車両に搭載され、複数の画像を合成する画像合成装置であって、夫々異なる方角へ向けて車両外側に搭載された複数の撮像手段から複数の画像を入力する入力手段と、入力した前記複数の画像の輝度に基づいて前記複数の画像のうちの一画像を代表の画像として決定する決定手段と、前記代表の画像を基準にして、他の画像の輝度を調整する第1調整手段と、前記代表の画像と輝度が調整された前記他の画像とを、前記車両の周辺の様子を示す一の車両周辺画像に合成する合成手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the invention of claim 1 is an image composition device that is mounted on a vehicle and synthesizes a plurality of images, and includes a plurality of image pickup means mounted on the outside of the vehicle in different directions. Input means for inputting a plurality of images, determination means for determining one of the plurality of images as a representative image based on the luminance of the plurality of input images, and other information based on the representative image. First adjusting means for adjusting the brightness of the image of the image, and combining means for combining the representative image and the other image whose brightness has been adjusted into one vehicle peripheral image showing a state of the periphery of the vehicle,
It is characterized by providing.
また、請求項2の発明は、請求項1に記載の画像合成装置において、前記複数の画像は所定数の画素から構成され、前記決定手段は、前記複数の画像ごとに前記画像における全画素の平均輝度を算出して最も高い平均輝度の画像を代表の画像と決定することを特徴とする。 According to a second aspect of the present invention, in the image synthesizing apparatus according to the first aspect, the plurality of images are configured by a predetermined number of pixels, and the determining unit is configured to calculate all pixels in the image for each of the plurality of images. An average luminance is calculated, and an image having the highest average luminance is determined as a representative image.
また、請求項3の発明は、請求項2に記載の画像合成装置において、前記決定手段は前記画像における画素が一定値以上の輝度を有する場合は、当該画素を前記平均輝度の算出に含まないことを特徴とする。 The invention according to claim 3 is the image synthesizing apparatus according to claim 2, wherein the determining means does not include the pixel in the calculation of the average luminance when the pixel in the image has a luminance of a certain value or more. It is characterized by that.
また、請求項4の発明は、請求項3に記載の画像合成装置において、更に、前記複数の画像ごとに算出された前記平均輝度のうち、最も高い平均輝度と最も低い平均輝度との差が所定値以上の場合に、前記第1調整手段を有効にする制御手段を備えることを特徴とする。 According to a fourth aspect of the present invention, in the image synthesizing device according to the third aspect, the difference between the highest average luminance and the lowest average luminance among the average luminances calculated for each of the plurality of images is further determined. Control means for enabling the first adjusting means when it is equal to or greater than a predetermined value is provided.
また、請求項5の発明は、請求項4に記載の画像合成装置において、更に、前記複数の画像ごとに算出された前記平均輝度を基準にして、当該平均輝度を算出した画像における画素の輝度を調整する第2調整手段を備え、前記制御手段は、前記複数の画像ごとに算出された前記平均輝度のうち、最も高い平均輝度と最も低い平均輝度との差が所定未満の場合に、前記第2調整手段を有効にすることを特徴とする。 According to a fifth aspect of the present invention, in the image composition device according to the fourth aspect, the luminance of the pixel in the image in which the average luminance is calculated based on the average luminance calculated for each of the plurality of images. A second adjusting unit that adjusts the difference between the highest average luminance and the lowest average luminance among the average luminances calculated for each of the plurality of images. The second adjusting means is enabled.
また、請求項6の発明は、車両に搭載され、複数の画像を合成する画像合成方法であって、夫々異なる方角へ向けて車両外側に搭載された複数の撮像手段から複数の画像を入力する入力工程と、入力した前記複数の画像の輝度に基づいて前記複数の画像のうちの一画像を代表の画像として決定する決定工程と、前記代表の画像を基準にして、他の画像の輝度を調整する調整工程と、前記代表の画像と輝度が調整された前記他の画像とを、前記車両の周辺の様子を示す一の車両周辺画像に合成する合成工程と、を備えることを特徴とする。 According to a sixth aspect of the present invention, there is provided an image composition method for combining a plurality of images mounted on a vehicle, wherein a plurality of images are input from a plurality of imaging means mounted on the outside of the vehicle in different directions. An input step, a determination step of determining one of the plurality of images as a representative image based on the input luminance of the plurality of images, and a luminance of another image based on the representative image An adjusting step for adjusting, and a combining step for combining the representative image and the other image whose luminance has been adjusted into one vehicle peripheral image showing a state of the periphery of the vehicle. .
請求項1から6の発明によれば、車両周辺を撮像するために、夫々異なる方角へ向けて取り付けられた複数の撮像手段から複数の画像を入力し、入力した複数の画像の輝度に基づいて決定した代表の画像を基準にして、他の画像の輝度を調整し、それら画像を一の車両周辺画像に合成するので、輝度のムラが少なく、一枚の車両周辺画像として看者に違和感を持たせることを防ぐことができる。 According to the first to sixth aspects of the present invention, in order to image the periphery of the vehicle, a plurality of images are input from a plurality of imaging units attached to different directions, and based on the luminance of the input plurality of images. The brightness of other images is adjusted based on the determined representative image, and these images are combined into one vehicle surrounding image, so there is little unevenness in brightness and the viewer feels uncomfortable as a single vehicle surrounding image. Can be prevented.
また、請求項2の発明によれば、請求項1の発明において、複数の画像ごとに前記画像における全画素の平均輝度を算出して最も高い平均輝度の画像を代表の画像と決定し代表の画像の平均輝度を基準にして、他の画像の輝度を調整するので、平均輝度が最も高い理想の画像に基づいて他の画像を調整するので、看者に対する視認性を向上させることができる。 According to the invention of claim 2, in the invention of claim 1, the average brightness of all pixels in the image is calculated for each of a plurality of images, and the image with the highest average brightness is determined as the representative image. Since the brightness of the other image is adjusted based on the average brightness of the image, the other image is adjusted based on the ideal image having the highest average brightness, so that the visibility for the viewer can be improved.
また、請求項3の発明によれば、請求項2の発明において、画像における画素が一定値以上の輝度を有する場合は、当該画素を平均輝度の算出に含まないので、代表として決定した最も高い平均輝度が極端に高くならないようにでき、看者に対する視認性を向上させることができる。
また、請求項4の発明によれば、請求項3の発明において、更に、複数の画像ごとに算出された平均輝度のうち、最も高い平均輝度と最も低い平均輝度との差が所定値以上の場合に、前記画像調整を有効にするので、明るい画像と暗い画像が混在する際に明るい画像を基準に調整されることになり、暗い画像を明るくできる。
According to the invention of claim 3, in the invention of claim 2, when a pixel in the image has a luminance equal to or higher than a certain value, the pixel is not included in the calculation of the average luminance. The average luminance can be prevented from becoming extremely high, and the visibility for the viewer can be improved.
According to the invention of claim 4, in the invention of claim 3, the difference between the highest average luminance and the lowest average luminance among the average luminances calculated for each of the plurality of images is equal to or greater than a predetermined value. In this case, since the image adjustment is enabled, when a bright image and a dark image are mixed, the adjustment is performed based on the bright image, and the dark image can be brightened.
また、請求項5の発明によれば、更に、前記複数の画像ごとに算出された前記平均輝度を基準にして、当該平均輝度を算出した画像における画素の輝度を調整する第2調整をおこない、第2調整は、複数の画像ごとに算出された平均輝度のうち、最も高い平均輝度と最も低い平均輝度との差が所定未満の場合に有効にするので、明るい画像と暗い画像が混在しない際に画像ごとに各画像の平均輝度に基づいて輝度を調整することができ画像劣化を防ぐことができる。 According to the invention of claim 5, further, the second adjustment is performed to adjust the luminance of the pixel in the image for which the average luminance is calculated with reference to the average luminance calculated for each of the plurality of images. Since the second adjustment is effective when the difference between the highest average luminance and the lowest average luminance among the average luminances calculated for each of the plurality of images is less than a predetermined value, the bright image and the dark image are not mixed. Further, the luminance can be adjusted for each image based on the average luminance of each image, and image deterioration can be prevented.
本発明の代表の実施例である車両搭載の車両周辺画像表示システムを、以下、添付図面を参照しながら説明する。
<代表の実施例>
[車両]
まず、駆動源であるエンジン又は走行電動モータを搭載した車両に搭載される車両周辺画像表示システムを図1に基づいて説明する。
A vehicle-mounted vehicle peripheral image display system that is a representative embodiment of the present invention will be described below with reference to the accompanying drawings.
<Representative examples>
[vehicle]
First, a vehicle periphery image display system mounted on a vehicle equipped with an engine or a traveling electric motor as a drive source will be described with reference to FIG.
車両周辺画像表示システムS1は、画像処理システム、車載機100、及び、種々のスイッチ、並びに、センサが車載ネットワークNへ電気的に接続して構成されている。 The vehicle periphery image display system S1 is configured by electrically connecting an image processing system, the in-vehicle device 100, various switches, and sensors to the in-vehicle network N.
画像処理システムは、制御装置10、撮像システムである第1撮像部200、第2撮像部201、第3撮像部202、及び、第4撮像部203から構成されている。 The image processing system includes a control device 10, a first imaging unit 200 that is an imaging system, a second imaging unit 201, a third imaging unit 202, and a fourth imaging unit 203.
制御装置10は、車両1の助手席下に設置される。車載機100は、車両1のダッシュボードにおける運転席と助手席との間に設置される。第1撮像部200は車両1のフロントに設置され、第2撮像部201は車両1のレフトサイドミラー2に設置され、第3撮像部202は車両1のライトサイドミラー3に設置され、第4撮像部203は車両1のバックに設置される。種々のスイッチ並びにセンサはそれぞれ適宜目的を達成するための位置に配置される。車載ネットワークNは車両1のエンジンルームやピラーなど車両1のボディ内部に配設されている。
(車両周辺画像表示システム)
車両周辺画像表示システムS1は、図2に示すように、画像処理システムS2、及び、車載機100により構成されている。
(画像処理システム)
画像処理システムS2は、図2に示すように、制御装置10、及び、撮像システムS3により構成されている。
(撮像システム)
撮像システムS3は、図2に示すように、第1撮像部200、第2撮像部201、第3撮像部202、及び、第4撮像部203により構成されている。
The control device 10 is installed under the passenger seat of the vehicle 1. The in-vehicle device 100 is installed between a driver seat and a passenger seat on the dashboard of the vehicle 1. The first imaging unit 200 is installed on the front of the vehicle 1, the second imaging unit 201 is installed on the left side mirror 2 of the vehicle 1, the third imaging unit 202 is installed on the right side mirror 3 of the vehicle 1, and the fourth The imaging unit 203 is installed on the back of the vehicle 1. Various switches and sensors are appropriately arranged at positions for achieving the purpose. The in-vehicle network N is disposed inside the body of the vehicle 1 such as the engine room or pillar of the vehicle 1.
(Vehicle surrounding image display system)
As shown in FIG. 2, the vehicle periphery image display system S <b> 1 includes an image processing system S <b> 2 and an in-vehicle device 100.
(Image processing system)
As illustrated in FIG. 2, the image processing system S2 includes a control device 10 and an imaging system S3.
(Imaging system)
As shown in FIG. 2, the imaging system S3 includes a first imaging unit 200, a second imaging unit 201, a third imaging unit 202, and a fourth imaging unit 203.
第1撮影部200は、車載カメラであるフロントカメラであり、第2撮像部201は、車載カメラであるレフトサイドカメラであり、第3撮像部202は、車載カメラであるライトサイドカメラであり、第4撮像部203は、車載カメラであるバックカメラである。これらの撮像部はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。 The first imaging unit 200 is a front camera that is a vehicle-mounted camera, the second imaging unit 201 is a left-side camera that is a vehicle-mounted camera, and the third imaging unit 202 is a right-side camera that is a vehicle-mounted camera, The 4th imaging part 203 is a back camera which is a vehicle-mounted camera. Each of these imaging units includes an imaging element such as a CCD or a CMOS, and acquires an image electronically.
第1撮像部200は、車両1の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の直進方向へ向けられている。第2撮像部201は、レフトサイドミラー2に設けられており、その光軸は車両1の直進方向を基準にした左方向に沿って外部へ向けられている。第3撮像部202は、ライトサイドミラー3に設けられており、その光軸は車両1の直進方向を基準にした右方向に沿って外部へ向けられている。第4撮像部203は、車両1の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の直進方向の逆方向へ向けられている。なお、第1撮像部200や第4撮像部203の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。 The first imaging unit 200 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 1, and the optical axis thereof is directed in the straight traveling direction of the vehicle 1. The second imaging unit 201 is provided in the left side mirror 2, and its optical axis is directed to the outside along the left direction with reference to the straight traveling direction of the vehicle 1. The third imaging unit 202 is provided in the light side mirror 3, and its optical axis is directed to the outside along the right direction with reference to the straight traveling direction of the vehicle 1. The fourth imaging unit 203 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 1, and the optical axis thereof is directed in the direction opposite to the straight traveling direction of the vehicle 1. Note that the attachment position of the first imaging unit 200 and the fourth imaging unit 203 is desirably the substantially horizontal center, but may be a position slightly shifted in the horizontal direction from the horizontal center.
これらの第1撮像部200〜第4撮像部203のレンズとしては魚眼レンズなどが採用されており、第1撮像部200〜第4撮像部203は180度以上の画角を有している。このため、これら4つの撮像部を利用することで、車両1の全周囲の撮影が可能となっている。
(制御装置)
制御装置10は、図2に示すように、制御部11、AGC部12、不揮発性記憶部13、揮発性記憶部14、及び、画像調整部15により構成される。
A fish-eye lens or the like is employed as the lens of the first imaging unit 200 to the fourth imaging unit 203, and the first imaging unit 200 to the fourth imaging unit 203 have an angle of view of 180 degrees or more. For this reason, it is possible to capture the entire periphery of the vehicle 1 by using these four imaging units.
(Control device)
As illustrated in FIG. 2, the control device 10 includes a control unit 11, an AGC unit 12, a nonvolatile storage unit 13, a volatile storage unit 14, and an image adjustment unit 15.
制御部11は、有効無効制御部16、第1画像輝度調整部17、第2画像輝度調整部18、画像合成部19、及び、画像表示部20を備える。つまり、制御部11は、後述する、有効無効制御機能、第1画像輝度調整機能、第2画像輝度調整機能、画像合成機能、及び、画像表示機能を発揮する。 The control unit 11 includes a valid / invalid control unit 16, a first image luminance adjustment unit 17, a second image luminance adjustment unit 18, an image composition unit 19, and an image display unit 20. That is, the control unit 11 exhibits an effective / ineffective control function, a first image brightness adjustment function, a second image brightness adjustment function, an image composition function, and an image display function, which will be described later.
具体的に、制御部11は、CPU、ROM、RAMなどより構成されるマイクロコンピュータである。CPUが、ROMに記憶されているその機能を発揮するためのプログラムを、ワーキングエリアとなるRAMを利用しながら実行する。 Specifically, the control unit 11 is a microcomputer including a CPU, a ROM, a RAM, and the like. The CPU executes a program for demonstrating the function stored in the ROM while using the RAM serving as a working area.
AGC部12は、画像輝度算出部22を備える。つまり、AGC部12は、後述する、画像輝度算出機能を発揮する。 The AGC unit 12 includes an image luminance calculation unit 22. That is, the AGC unit 12 exhibits an image luminance calculation function, which will be described later.
具体的には、AGC部12は、電子回路等より構成される。撮像システムS3によって撮像された画像が電子回路等へ入力され、電子回路等は入力された画像に基づいてその機能を発揮させる。 Specifically, the AGC unit 12 is configured by an electronic circuit or the like. An image captured by the imaging system S3 is input to an electronic circuit or the like, and the electronic circuit or the like performs its function based on the input image.
不揮発性記憶部13は、EEPROMより構成される。制御部11が種々の機能を発揮する際のパラメータを記憶させる、バックアップメモリの役割を果たす。 The nonvolatile storage unit 13 is composed of an EEPROM. The controller 11 serves as a backup memory that stores parameters when the controller 11 performs various functions.
揮発性記憶部14は、RAMより構成される。制御部11が、合成処理した画像を一定量記憶させるとともに、画像表示機能により記憶させた画像を表示させると、表示させた画像を消去して最新の画像を記憶させる。つまり、ビデオメモリの役割を果たす。 The volatile storage unit 14 includes a RAM. When the control unit 11 stores a fixed amount of the synthesized image and displays the image stored by the image display function, the controller 11 deletes the displayed image and stores the latest image. That is, it plays the role of a video memory.
画像調整部15は、制御部11の画像合成機能により複数の画像から合成された1枚の車両周辺画像の輪郭を補正する輪郭補正機能、1枚の車両周辺画像のコントラストを補正するコントラスト補正機能、1枚の車両周辺画像の彩度を補正する彩度補正機能などを発揮する。 The image adjustment unit 15 is a contour correction function that corrects the contour of one vehicle peripheral image combined from a plurality of images by the image combining function of the control unit 11, and a contrast correction function that corrects the contrast of one vehicle peripheral image. It exhibits a saturation correction function that corrects the saturation of a single vehicle periphery image.
具体的に、画像調整部15は、電子回路等により構成される。制御部11により合成された1枚の車両周辺画像が電子回路等に入力され、電子回路等は入力された画像に基づいてその機能を発揮させる。 Specifically, the image adjustment unit 15 is configured by an electronic circuit or the like. One vehicle periphery image synthesized by the control unit 11 is input to an electronic circuit or the like, and the electronic circuit or the like performs its function based on the input image.
以上、説明したように、制御装置10、及び、撮像システムS3により構成される画像処理システムS2は、画像合成装置と考えることができる。。
(車載機)
車載機100は、図2に示すように、表示・操作部101、及び、制御部112より構成される。
As described above, the image processing system S2 including the control device 10 and the imaging system S3 can be considered as an image composition device. .
(In-vehicle device)
As shown in FIG. 2, the in-vehicle device 100 includes a display / operation unit 101 and a control unit 112.
表示・操作部101は表示機能、及び、操作機能を発揮する。 The display / operation unit 101 exhibits a display function and an operation function.
具体的に、表示・操作部101はタッチパネルディスプレイにより構成される。表示・操作部101は、制御部11により画像などの表示データを表示制御されることによってデータ表示を行う。また、表示するアイコンがユーザによりタッチされると、表示・操作部101はアイコンが目的とする機能を制御部11に発揮させる。 Specifically, the display / operation unit 101 includes a touch panel display. The display / operation unit 101 performs data display when display data such as an image is controlled by the control unit 11. When the icon to be displayed is touched by the user, the display / operation unit 101 causes the control unit 11 to perform the function intended by the icon.
制御部102は、前述した表示制御機能、ナビゲーション機能、オーディオ機能、及び、放送データ通信機能などを発揮する。 The control unit 102 exhibits the above-described display control function, navigation function, audio function, broadcast data communication function, and the like.
具体的に、制御部102は、CPU、ROM、RAMなどより構成される。CPUが、ROMに記憶されているその機能を発揮するためのプログラムを、ワーキングエリアとなるRAMを利用しながら実行する。 Specifically, the control unit 102 includes a CPU, a ROM, a RAM, and the like. The CPU executes a program for demonstrating the function stored in the ROM while using the RAM serving as a working area.
車載機100は、この他にもナビゲーション機能を発揮する際に必要となる地図データを記憶する大容量記憶装置、オーディオ機能を発揮する際に必要となるオーディオ再生装置、放送データ通信機能を発揮する際に必要となる通信部などが備わっている。
(スイッチ・センサ)
車載ネットワークNには、制御装置10や車載機100と共に、種々のスイッチ、並びに、センサが接続されている。そのスイッチ並びにセンサには、例えば、照明スイッチ300、ワイパースイッチ301、照度センサ302、及び、設定スイッチ303がある。
The in-vehicle device 100 also exhibits a large-capacity storage device that stores map data necessary for performing a navigation function, an audio playback device necessary for performing an audio function, and a broadcast data communication function. It has a communication unit that is necessary for this.
(Switch / sensor)
Various switches and sensors are connected to the in-vehicle network N together with the control device 10 and the in-vehicle device 100. The switches and sensors include, for example, a lighting switch 300, a wiper switch 301, an illuminance sensor 302, and a setting switch 303.
照明スイッチ300は、夜間やトンネル通過の際に、ユーザが車両1の前方を明るくするために操作するスイッチであって運転席付近に備わる。ユーザによって照明スイッチ300が操作されると、図示しない照明が点灯し車両1の前方を明るくする。つまり、制御装置10の制御部11は、ユーザにより照明スイッチ300が操作される場合は、車両1周辺が暗い状況であると推測する。 The lighting switch 300 is a switch operated by the user to brighten the front of the vehicle 1 at night or when passing through a tunnel, and is provided near the driver's seat. When the illumination switch 300 is operated by the user, illumination (not shown) is turned on and the front of the vehicle 1 is brightened. That is, the control part 11 of the control apparatus 10 estimates that the surroundings of the vehicle 1 are dark when the lighting switch 300 is operated by the user.
ワイパースイッチ301は、雨天時や濃霧時に、ユーザが走行する車両1のフロントガラスや後部ガラスの水滴を除去するために操作するスイッチであって、運転席付近に備わる。ユーザによってワイパースイッチ301が操作されると、図示しないワイパーが作動し車両1のフロントガラスや後部ガラスの水滴が除去される。つまり、制御装置10の制御部11は、ユーザによりワイパースイッチ300が操作される場合は、車両1外部が雨天又は濃霧であると推測する。 The wiper switch 301 is a switch that is operated to remove water droplets on the windshield and rear glass of the vehicle 1 on which the user travels in rainy weather or dense fog, and is provided near the driver's seat. When the user operates the wiper switch 301, a wiper (not shown) is activated, and water droplets on the windshield and rear glass of the vehicle 1 are removed. That is, when the wiper switch 300 is operated by the user, the control unit 11 of the control device 10 estimates that the outside of the vehicle 1 is rainy or dense fog.
照度センサ302は、車両1の外部又は車両1内部に差し込む光の度合いを検知するためのものであって、その目的を達成可能な位置に適宜備えられる。つまり、制御装置10の制御部11は、所定の周期で又は所定のタイミングで受信した照度センサ302が検知する光の度合いを示す信号に基づいて車両1周辺の明るさを推測する。 The illuminance sensor 302 is for detecting the degree of light that enters the outside of the vehicle 1 or the inside of the vehicle 1, and is appropriately provided at a position where the purpose can be achieved. That is, the control unit 11 of the control device 10 estimates the brightness around the vehicle 1 based on a signal indicating the degree of light detected by the illuminance sensor 302 received at a predetermined period or at a predetermined timing.
設定スイッチ303は、制御装置10の制御部11に後述する第1画像輝度調整処理又は第2画像輝度調整処理の何れを実施させるかをユーザが設定する操作手段である。 The setting switch 303 is an operation means for the user to set which of the first image luminance adjustment processing or the second image luminance adjustment processing described later is to be performed by the control unit 11 of the control device 10.
[画像処理]
次に、制御装置10が実行する画像処理を図3に基づいて説明する。制御装置10が発揮する機能には、AGC部12が発揮する画像輝度算出機能があり、また、制御部11が発揮する有効無効制御機能、第1画像輝度調整機能、第2画像輝度調整機能、画像合成機能、及び、画像表示機能があり、更に、画像調整部15が発揮する画像調整機能がある。また、画像調整機能には、輪郭補正機能、コントラスト補正機能、及び、彩度補正機能がある。
[Image processing]
Next, image processing executed by the control device 10 will be described with reference to FIG. The functions exhibited by the control device 10 include an image luminance calculation function exhibited by the AGC unit 12, and an effective / ineffective control function, a first image luminance adjustment function, a second image luminance adjustment function exhibited by the control unit 11, There are an image composition function and an image display function, and further there is an image adjustment function exhibited by the image adjustment unit 15. The image adjustment function includes a contour correction function, a contrast correction function, and a saturation correction function.
制御装置10はこれら機能を発揮するために、図3に示す、画像輝度算出処理S1000、有効無効処理S2000、第1画像輝度調整処理S3000、第2画像輝度調整処理S4000、画像合成処理S5000、画像調整処理S6000、及び、画像表示処理S7000を実行する。 In order to perform these functions, the control device 10 performs image luminance calculation processing S1000, valid / invalid processing S2000, first image luminance adjustment processing S3000, second image luminance adjustment processing S4000, image composition processing S5000, image shown in FIG. An adjustment process S6000 and an image display process S7000 are executed.
制御装置10の制御部11、AGC部12、及び、画像調整部15は、制御装置10がユーザにより起動されたことにより所定の周期で画像処理の実行を開始する。つまり、図3におけるステップS1000へ移行する。 The control unit 11, the AGC unit 12, and the image adjustment unit 15 of the control device 10 start executing image processing at a predetermined cycle when the control device 10 is activated by the user. That is, the process proceeds to step S1000 in FIG.
画像の明るさについては輝度で表現することができるため、以下「輝度」として説明する。
(画像輝度算出処理)
ステップS1000において、制御装置10のAGC部12は、画像輝度算出処理を実行する。画像輝度算出処理の詳細を図4に基づいて説明する。
Since the brightness of an image can be expressed by luminance, it will be described below as “luminance”.
(Image brightness calculation processing)
In step S1000, the AGC unit 12 of the control device 10 executes an image luminance calculation process. Details of the image luminance calculation processing will be described with reference to FIG.
AGC部12は、画像輝度算出処理の実行を開始し、ステップS1001へ移行する。 The AGC unit 12 starts executing the image luminance calculation process, and proceeds to step S1001.
ステップS1001において、AGC部12は、第1撮像部200〜第4撮像部203が撮像して、制御部11へ送信した画像を捕捉(受信)する。 In step S <b> 1001, the AGC unit 12 captures (receives) an image captured by the first imaging unit 200 to the fourth imaging unit 203 and transmitted to the control unit 11.
ここで、第1撮像部200〜第4撮像部203が撮像する画像について説明する。図5に示すように、第1撮像部200は、撮像範囲H1の画像を制御部11へ送信する。第2撮像部201は、撮像範囲H2の画像を制御部11へ送信する。第3撮像部202は、撮像範囲H3の画像を制御部11へ送信する。第3撮像部202は、撮像範囲H3の画像を制御部11へ送信する。第4撮像部203は、撮像範囲H4の画像を制御部11へ送信する。第1撮像部200〜第4撮像部203が備えるレンズは、前述した通り、魚眼レンズなどが採用されており、図5に示す第1撮像部200〜第4撮像部203の撮像範囲H1からH4が示すように180度以上の画角を有している。 Here, an image captured by the first imaging unit 200 to the fourth imaging unit 203 will be described. As illustrated in FIG. 5, the first imaging unit 200 transmits an image in the imaging range H <b> 1 to the control unit 11. The second imaging unit 201 transmits an image in the imaging range H2 to the control unit 11. The third imaging unit 202 transmits an image in the imaging range H3 to the control unit 11. The third imaging unit 202 transmits an image in the imaging range H3 to the control unit 11. The fourth imaging unit 203 transmits an image in the imaging range H4 to the control unit 11. As described above, a fish-eye lens or the like is employed as the lens included in the first imaging unit 200 to the fourth imaging unit 203, and the imaging ranges H1 to H4 of the first imaging unit 200 to the fourth imaging unit 203 illustrated in FIG. As shown, it has an angle of view of 180 degrees or more.
従って、第1撮像部200が映し出す画像は、図6の画像Z1に示すように車両1の直進方向における180度以上の車両周辺画像となる。第2撮像部201が映し出す画像は図6の画像Z2に示すように車両1の直進方向を基準にした左方向における180度以上の車両画像となる。第3撮像部202が映し出す画像は図6の画像Z3に示すように車両1の直進方向を基準にした右方向における180度以上の車両画像となる。第4撮像部203が映し出す画像は図6の画像Z4に示すように車両1の直進方向とは逆方向における180度以上の車両画像となる。次に、ステップS1002へ移行する。 Therefore, the image displayed by the first imaging unit 200 is a vehicle peripheral image of 180 degrees or more in the straight traveling direction of the vehicle 1 as shown in an image Z1 of FIG. The image displayed by the second imaging unit 201 is a vehicle image of 180 degrees or more in the left direction with reference to the straight traveling direction of the vehicle 1 as shown in an image Z2 in FIG. The image displayed by the third imaging unit 202 is a vehicle image of 180 degrees or more in the right direction with reference to the straight traveling direction of the vehicle 1 as shown in an image Z3 in FIG. The image projected by the fourth imaging unit 203 is a vehicle image of 180 degrees or more in the direction opposite to the straight traveling direction of the vehicle 1 as shown by an image Z4 in FIG. Next, the process proceeds to step S1002.
ステップS1002において、AGC部12は、第1撮像部200〜第4撮像部203より受信した画像Z1〜画像Z4における、画像ごとの平均輝度を算出する。画像の平均輝度の算出とは、画像における画素ごとに充てられている輝度の総和を、全画素数で除算することをいう。その際に、AGC部12は、画素に充てられた輝度が一定値であるスレッシュ値を超えているか否かを判定し、超えている場合はその輝度は平均輝度の算出における輝度の総和には含めず、更に、全画素数にも含めない。スレッシュ値は高い輝度を画像の平均輝度の算出から除外するための値としている。 In step S1002, the AGC unit 12 calculates an average luminance for each image in the images Z1 to Z4 received from the first imaging unit 200 to the fourth imaging unit 203. The calculation of the average luminance of the image means that the total luminance assigned to each pixel in the image is divided by the total number of pixels. At that time, the AGC unit 12 determines whether or not the luminance assigned to the pixel exceeds a threshold value that is a constant value, and if it exceeds, the luminance is the sum of the luminance in the calculation of the average luminance. Not included, and not included in the total number of pixels. The threshold value is a value for excluding the high luminance from the calculation of the average luminance of the image.
つまり、画像において極端に明るい部分がある場合には、白とび(飽和)などが生じている可能性がある。この場合に、明るい部分の画素に充てられた高い輝度によって平均輝度が高くなってしまい、後の処理において、平均輝度により求めた補正係数に基づいて補正した画像が、その明るい部分の高い輝度の影響を受けて全体的に明るくなってしまうことを防いでいる。次に、ステップS1003へ移行する。 That is, when there is an extremely bright portion in the image, there is a possibility that overexposure (saturation) or the like has occurred. In this case, the average luminance is increased due to the high luminance applied to the pixels in the bright portion, and the image corrected based on the correction coefficient obtained by the average luminance in the subsequent processing is the high luminance in the bright portion. It prevents the overall brightness from being affected. Next, the process proceeds to step S1003.
ステップS1003において、制御部11は、AGC部から受信した画像Z1から画像Z4までの画像ごとに算出した平均輝度のうち、最大の平均輝度に基づいて補正係数(ゲイン調整値)を算出する。補正係数は、最大平均輝度を夫々の平均輝度で除算した値である。例えば、図8に示すように、画像Z1の平均輝度が最大であるとすると、画像Z1の補正係数は、画像Z1の平均輝度/画像Z1の平均輝度であり、画像Z2の補正係数は、画像Z1の平均輝度/画像Z2の平均輝度であり、画像Z3の補正係数は、画像Z1の平均輝度/画像Z3の平均輝度であり、画像Z4の補正係数は、画像Z1の平均輝度/画像Z4の平均輝度である。次に、図3におけるステップS2000へ移行する。
(有効無効処理)
ステップS2000において、制御部11の有効無効制御部16は、有効無効処理を実行する。画像輝度算出処理の詳細を図7に基づいて説明する。
In step S1003, the control unit 11 calculates a correction coefficient (gain adjustment value) based on the maximum average luminance among the average luminances calculated for each of the images Z1 to Z4 received from the AGC unit. The correction coefficient is a value obtained by dividing the maximum average luminance by the respective average luminance. For example, as shown in FIG. 8, if the average luminance of the image Z1 is the maximum, the correction coefficient of the image Z1 is the average luminance of the image Z1 / the average luminance of the image Z1, and the correction coefficient of the image Z2 is The average brightness of Z1 / the average brightness of image Z2, the correction coefficient of image Z3 is the average brightness of image Z1 / the average brightness of image Z3, and the correction coefficient of image Z4 is the average brightness of image Z1 / the average brightness of image Z4. Average brightness. Next, the process proceeds to step S2000 in FIG.
(Valid / invalid processing)
In step S2000, the valid / invalid control unit 16 of the control unit 11 executes a valid / invalid process. Details of the image luminance calculation processing will be described with reference to FIG.
ステップS2001において、制御部11は、車載ネットワークNを介して設定スイッチ303からの信号を受信する。制御部11は受信した信号が設定1を示すか設定2を示すかを判断する。制御部11は、その受信信号が設定1を示すと判断する場合は、ステップS2002へ移行する(ステップS2001において設定1)。制御部11は、その受信信号が設定2を示すと判断する場合は、ステップS2003へ移行する(ステップS2001において設定2)。 In step S2001, the control unit 11 receives a signal from the setting switch 303 via the in-vehicle network N. The control unit 11 determines whether the received signal indicates setting 1 or setting 2. If the control unit 11 determines that the received signal indicates setting 1, the control unit 11 proceeds to step S2002 (setting 1 in step S2001). If the control unit 11 determines that the received signal indicates setting 2, the control unit 11 proceeds to step S2003 (setting 2 in step S2001).
ステップS2002において、制御部11が備えるRAMに設定される第1フラグをオンにする。次に、リターンへ移行する。 In step S2002, the first flag set in the RAM included in the control unit 11 is turned on. Next, the process proceeds to return.
ステップS2003において、制御部11が備えるRAMに設定される第2フラグをオンにする。次に、リターンへ移行する。 In step S2003, the second flag set in the RAM included in the control unit 11 is turned on. Next, the process proceeds to return.
なお、そのRAMに設定される第1フラグと第2フラグは、製造の際において設定1にされており、また、制御部11が初期処理において、終了処理において設定されている値に設定する。次に図3におけるステップS3000へ移行する。 Note that the first flag and the second flag set in the RAM are set to 1 at the time of manufacture, and the control unit 11 sets the values set in the end process in the initial process. Next, the process proceeds to step S3000 in FIG.
さて、図8に示すように、全体的な輝度が画像Z1〜画像Z4において相互に異なる場合であって、全体的な輝度が最も高い画像Z1と全体的な輝度が最も低い画像Z2との輝度差が大きい場合、つまり、画像Z1の平均輝度と画像Z2の平均輝度との差が所定値以上ある場合に、これら画像を後に1枚の画像に合成することから1枚の画像と捉えて輝度調整(輝度補正)を行うと画質において不具合が発生してしまう。 Now, as shown in FIG. 8, when the overall brightness is different between the images Z1 to Z4, the brightness of the image Z1 having the highest overall brightness and the image Z2 having the lowest overall brightness. When the difference is large, that is, when the difference between the average luminance of the image Z1 and the average luminance of the image Z2 is greater than or equal to a predetermined value, these images are combined into one image later, so that the luminance is regarded as one image. When adjustment (luminance correction) is performed, a problem occurs in image quality.
その不具合を具体的に説明する。制御部11が、その1枚画像と捉えた画像Z1〜画像Z4の平均輝度を算出した後に、全ての画像の全ての画素に充てられる輝度を、その平均輝度を基準に暗い画素の輝度を所定%明るくし、明るい画素の輝度を所定%暗くする調整(補正)をすると、図9に示すように、暗すぎて看づらかった画像Z2が、より明るくなって看やすくなる一方で、十分に明るくて看やすかった画像Z1がよりいっそう明るくなって看づらくなってしまうという不具合が発生する。つまり、極端に暗い画像と最も明るい画像とを同じ平均輝度に基づく補正を実行すると、極端に暗い画像に引きずられて明るい画像における物体の輪郭が薄くなったり、消滅したりして看づらくなってしまう。 The problem will be specifically described. After the control unit 11 calculates the average luminance of the images Z1 to Z4 captured as one image, the luminance assigned to all the pixels of all the images is set to the luminance of the dark pixel based on the average luminance. If the adjustment (correction) is performed so that the brightness of a bright pixel is darkened by a predetermined percentage, the image Z2 that is too dark and difficult to see as shown in FIG. Therefore, there is a problem that the image Z1 that is easy to view becomes brighter and difficult to view. In other words, if correction based on the same average brightness is performed on an extremely dark image and the brightest image, the outline of the object in the bright image becomes thin or disappears due to being dragged by the extremely dark image, making it difficult to see. End up.
このように、車両周辺画像の場合、合成する前の一部の画像が他の画像と比べて極端に暗くなる場合があり、そのような不具合の発生は十分に考えられる。例えば、車両1の後部のみが暗い屋根付き駐車場に存する場合や、車両1の側面が建物などの陰に覆われる場合などである。 As described above, in the case of the vehicle periphery image, a part of the image before the composition may be extremely darker than the other images, and the occurrence of such a problem is sufficiently considered. For example, when only the rear part of the vehicle 1 is in a dark covered parking lot, or when the side surface of the vehicle 1 is covered by a shade such as a building.
従って、そのような不具合が発生しないよう、画像Z1〜画像Z4における輝度が均一になるようにして1枚の合成画像を生成した際に違和感が無いように以降の処理を実行する。
(第1画像輝度調整処理)
ステップS3000において、制御部11の第1画像輝度調整部は、第1画像輝度調整処理を実行する。第1画像輝度算出処理の詳細を図10に基づいて説明する。
Therefore, in order to prevent such a problem from occurring, the subsequent processing is executed so that there is no sense of incongruity when one composite image is generated so that the luminance in the images Z1 to Z4 is uniform.
(First image brightness adjustment processing)
In step S3000, the first image luminance adjustment unit of the control unit 11 executes a first image luminance adjustment process. Details of the first image luminance calculation processing will be described with reference to FIG.
ステップS3001において、制御部11は、備えるRAMに設定された第1フラグがオンか否かを判断する。制御部11は、第1フラグがオンであると判断する場合は、ステップS3002へ移行する(ステップS3001においてYES)。制御部11は、第1フラグがオフであると判断しない場合は、リターンへ移行する(ステップS3001においてNO)。 In step S3001, the control unit 11 determines whether or not the first flag set in the provided RAM is on. When it is determined that the first flag is on, the control unit 11 proceeds to step S3002 (YES in step S3001). If control unit 11 does not determine that the first flag is off, the control unit 11 proceeds to return (NO in step S3001).
ステップS3002において、算出した補正係数を画像Z1〜画像Z4における輝度へ乗算する。画像に対する補正係数の乗算とは、画像における画素ごとに充てられた輝度1つ1つに対し補正係数を乗算することを言う。 In step S3002, the calculated correction coefficient is multiplied by the luminance in the images Z1 to Z4. Multiplying a correction coefficient for an image means multiplying each luminance assigned to each pixel in the image by a correction coefficient.
つまり、制御部11は、図4のステップS1003及び図10のステップS3002において、最大の平均輝度の画像を代表の画像に決定して、決定した代表画像を基準にして他の画像の輝度を調整することによって、図11に示す画像Z1〜画像Z4のように相互の画像の輝度に統一感ができ、かつ、極端に暗い画像の視認性を向上でき、後に1枚の車両周辺画像にした場合に看者に対し違和感がない画像を提供することができる。 That is, in step S1003 in FIG. 4 and step S3002 in FIG. 10, the control unit 11 determines the image having the maximum average luminance as a representative image and adjusts the luminance of other images based on the determined representative image. By doing so, it is possible to unify the brightness of the images as in the images Z1 to Z4 shown in FIG. 11 and to improve the visibility of extremely dark images. It is possible to provide an image that does not give the viewer a sense of incongruity.
なお、最大の平均輝度の画像、つまり、画像Z1については、補正係数は1であるので、その乗算する処理を省略しても良い。また、最大の平均輝度の画像、つまり、画像Z1以外の画像である画像Z2〜画像Z4におけるその乗算は、前述したスレッシュ値を超える画素(飽和に近い画素)に充てられた輝度に対してはその乗算する処理を省略しても良い。次に、ステップS3004へ移行する。 Since the correction coefficient is 1 for the image with the maximum average luminance, that is, the image Z1, the multiplication process may be omitted. Further, the multiplication of the image with the maximum average luminance, that is, the image Z2 to the image Z4 which are images other than the image Z1, is applied to the luminance assigned to the pixels exceeding the threshold value (pixels close to saturation). The multiplication process may be omitted. Next, the process proceeds to step S3004.
ステップS3004において、制御部11は、その乗算(補正)をした画像Z1〜画像Z4を備える揮発性記憶部へ送信する。 In step S3004, the control unit 11 transmits the multiplied (corrected) image Z1 to the volatile storage unit including the image Z4.
ここで、最大の平均輝度の画像に基づいて算出した補正係数に基づいて、画像Z1〜画像Z4を補正する理由を説明する。 Here, the reason for correcting the image Z1 to the image Z4 based on the correction coefficient calculated based on the image having the maximum average luminance will be described.
まず、画像Z1〜画像Z4のうち、ヒストグラムにおいて表現した場合に最も適した輝度分布となる理想的な画像を代表の画像とし、この代表の画像を基準にして他の画像の輝度を調整(補正)してもよい。ただし、その場合その処理を実現するロジックを備えた回路やソフトウェアを設ける必要がありコストが増加する可能性があり、そのようなデメリットがないようにするには、簡易に理想的な画像を推測する必要がある。 First, among images Z1 to Z4, an ideal image having the most suitable luminance distribution when expressed in a histogram is used as a representative image, and the luminance of other images is adjusted (corrected) based on this representative image. ) However, in that case, it is necessary to provide a circuit or software with logic to realize the processing, which may increase the cost, and in order to avoid such disadvantages, it is easy to guess an ideal image. There is a need to.
そこで、各撮像部の絞りは予め、撮り込む画像において、物体の輪郭が日中における車両周辺の明るさを基準に、看者をしてその画像が最も看やすいと感じるレベル(輝度)に調整されているので、制御部11はその絞りによって撮り込まれたそれら画像のうち平均輝度が最も高い画像は、看者をして最も看やすい理想的な画像であると推測している。 Therefore, the aperture of each imaging unit is pre-adjusted to the level (luminance) that the viewer feels the image is most comfortable to see, based on the brightness of the surroundings of the vehicle in the daytime, in the captured image. Therefore, the control unit 11 estimates that the image having the highest average brightness among the images captured by the aperture is the ideal image that is most easily viewed by the viewer.
従って、その理由は、簡易に推測した理想的な画像、つまり、最大の平均輝度となる画像を基準にして他の画像を補正することによって、適切な輝度補正をしつつコストの増加を抑制することができるという点に基づいている。次に、図3におけるステップS4000へ移行する。
(第2画像輝度調整処理)
ステップS4000において、制御部11の第2画像輝度調整部18は、第2画像輝度調整処理を実行する。第2画像輝度算出処理の詳細を図12に基づいて説明する。
Therefore, the reason is that by correcting other images based on an ideal image that is easily estimated, that is, an image having the maximum average luminance, an increase in cost is suppressed while performing appropriate luminance correction. Is based on being able to. Next, the process proceeds to step S4000 in FIG.
(Second image brightness adjustment processing)
In step S4000, the second image luminance adjustment unit 18 of the control unit 11 executes a second image luminance adjustment process. Details of the second image luminance calculation processing will be described with reference to FIG.
ステップS4001において、制御部11は、制御部11が備えるRAMに設定された第2フラグがオンか否かを判断する。制御部11は、第2フラグがオンであると判断する場合は、ステップS4002へ移行する(ステップS4001においてYES)。制御部11は、第2フラグがオフであると判断する場合は、リターンへ移行する(ステップS4001においてNO)。 In step S4001, the control unit 11 determines whether or not the second flag set in the RAM included in the control unit 11 is on. When it is determined that the second flag is on, control unit 11 proceeds to step S4002 (YES in step S4001). When determining that the second flag is off, the control unit 11 proceeds to return (NO in step S4001).
ステップS4002において、制御部11は、AGC部12から受信した画像Z1〜画像Z4の夫々の平均輝度に基づいて、当該平均輝度を算出した画像を調整(補正)する。具体的には、制御部11は、既定値を、平均輝度から上げ率を差し引いた値で除算して補正係数(ゲイン調整値)を求め、当該平均輝度を算出した画像における画素に充てられた輝度へその補正係数を乗算(補正)する。上げ率は、制御部11が備えるレジスタのテーブルに平均輝度と対応付けられて既定されているため、当該平均輝度に基づいてそのレジスタのテーブルから上げ率を参照する。これによって、看者をして全体的に暗い画像が全体的に明るくなって、見やすい画像に調整することができる。次に、ステップS4003へ移行する。 In step S4002, the control unit 11 adjusts (corrects) the image for which the average luminance is calculated based on the average luminance of each of the images Z1 to Z4 received from the AGC unit 12. Specifically, the control unit 11 obtains a correction coefficient (gain adjustment value) by dividing the predetermined value by the value obtained by subtracting the increase rate from the average luminance, and is applied to the pixel in the image for which the average luminance is calculated. Multiply (correct) the luminance by the correction coefficient. Since the increase rate is set in association with the average luminance in the register table provided in the control unit 11, the increase rate is referred to from the register table based on the average luminance. As a result, the dark image as a whole becomes brighter as a viewer and can be adjusted to an easy-to-see image. Next, the process proceeds to step S4003.
ステップS4003において、制御部11は、その乗算(補正)をした画像Z1〜画像Z4を備える揮発性記憶部へ送信する。図3におけるステップS5000へ移行する。
(画像合成処理)
ステップS5000において、制御部11の画像合成部19は、画像合成処理を実行する。画像合成処理の詳細を図13に基づいて説明する。
In step S4003, the control unit 11 transmits the image to the volatile storage unit including the image Z1 to the image Z4 subjected to the multiplication (correction). The process proceeds to step S5000 in FIG.
(Image composition processing)
In step S5000, the image composition unit 19 of the control unit 11 performs image composition processing. Details of the image composition processing will be described with reference to FIG.
ステップS5001において、制御部11は、備える揮発性記憶部に記憶された補正後の画像Z1〜画像Z4を、図14に示す仮想的な三次元空間における立体曲面Pに投影する。立体曲面Pは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両1が存在する位置として定められている。画像Z1〜画像Z4に含まれる各画素の位置と、この立体曲面Pの各画素の位置とは予め対応関係が定められている。このため、立体曲面Pの各画素の値は、この対応関係と画像Z1〜画像Z4に含まれる各画素の値とに基づいて決定する。 In step S5001, the control unit 11 projects the corrected images Z1 to Z4 stored in the volatile storage unit provided on the three-dimensional curved surface P in the virtual three-dimensional space shown in FIG. The three-dimensional curved surface P has, for example, a substantially hemispherical shape (a bowl shape), and a central portion (a bottom portion of the bowl) is determined as a position where the vehicle 1 exists. The correspondence between the positions of the pixels included in the images Z1 to Z4 and the positions of the pixels on the solid curved surface P is determined in advance. For this reason, the value of each pixel of the three-dimensional curved surface P is determined based on this correspondence and the value of each pixel included in the images Z1 to Z4.
画像Z1〜画像Z4の各画素の位置と立体曲面Pの各画素の位置との対応関係は、車両1における4つの車載カメラである第1撮像部200〜第4撮像部203の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性記憶部13に記憶された車種別データに含まれている。 The correspondence between the positions of the pixels of the image Z1 to the image Z4 and the positions of the pixels of the three-dimensional curved surface P is determined by the arrangement of the first imaging unit 200 to the fourth imaging unit 203 that are four on-vehicle cameras in the vehicle 1 (between each other). Distance, ground height, optical axis angle, etc.). Therefore, the table data indicating this correspondence is included in the vehicle type data stored in the nonvolatile storage unit 13.
また、車種別データに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両1の三次元形状を示すポリゴンモデルである車両像が仮想的に構成される。構成された車両像は、立体曲面Pが設定される三次元空間において、車両1の位置と定められた略半球状の中心部分に配置される。 Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data is used, and a vehicle image which is a polygon model indicating the three-dimensional shape of the vehicle 1 is virtually configured. The configured vehicle image is arranged in a substantially hemispherical central portion defined as the position of the vehicle 1 in the three-dimensional space in which the three-dimensional curved surface P is set.
さらに、立体曲面Pが存在する三次元空間に対して、制御部11により仮想視点AGLが設定される。仮想視点AGLは、視点位置と視野方向とで規定され、この三次元空間における車両1の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。次に、ステップS5002へ移行する。 Further, the virtual viewpoint AGL is set by the control unit 11 for the three-dimensional space where the solid curved surface P exists. The virtual viewpoint AGL is defined by the viewpoint position and the viewing direction, and is set at an arbitrary viewpoint position corresponding to the periphery of the vehicle 1 in this three-dimensional space toward an arbitrary viewing direction. Next, the process proceeds to step S5002.
ステップS5002において、制御部11は、設定された仮想視点AGLに応じて、立体曲面Pにおける必要な領域を画像として切り出す。仮想視点AGLと、立体曲面Pにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性記憶部13等に予め記憶されている。一方で、設定された仮想視点AGLに応じてポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両1及びその車両1の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。 In step S5002, the control unit 11 cuts out a necessary area on the three-dimensional curved surface P as an image according to the set virtual viewpoint AGL. The relationship between the virtual viewpoint AGL and the necessary area on the three-dimensional curved surface P is determined in advance, and is stored in advance in the nonvolatile storage unit 13 or the like as table data. On the other hand, rendering is performed on a vehicle image composed of polygons according to the set virtual viewpoint AGL, and the resulting two-dimensional vehicle image is superimposed on the cut out image. Thereby, the composite image which shows a mode that the vehicle 1 and the periphery of the vehicle 1 were seen from arbitrary virtual viewpoints is produced | generated.
例えば、視点位置が車両1の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点AGL1を設定した場合は、車両1の略直上から車両1を見下ろすように、車両1(実際には車両像)及び車両1の周辺の様子を示す合成画像G1が生成される。また、図中に示すように、視点位置が車両1の位置の左後方で、視野方向が車両1における略前方とした仮想視点AGL2を設定した場合は、車両1の左後方からその周辺全体を見渡すように、車両1(実際には車両像)及び車両1の周辺の様子を示す合成画像G2が生成される。 For example, when the virtual viewpoint AGL1 in which the viewpoint position is a position just above the center of the position of the vehicle 1 and the visual field direction is a direction immediately below the vehicle 1 is set, the vehicle 1 ( In practice, a composite image G1 showing the vehicle image) and the surroundings of the vehicle 1 is generated. Further, as shown in the figure, when the virtual viewpoint AGL2 in which the viewpoint position is the left rear of the position of the vehicle 1 and the visual field direction is substantially in front of the vehicle 1 is set, the entire periphery from the left rear of the vehicle 1 is set. As seen, a composite image G2 showing the vehicle 1 (actually a vehicle image) and the surroundings of the vehicle 1 is generated.
なお、実際に合成画像を生成する場合においては、立体曲面Pの全ての画素の値を決定する必要はなく、設定された仮想視点AGLに対応して必要となる領域の画素の値のみを画像Z1〜画像Z4に基づいて決定することで、処理速度を向上できる。次に、ステップS5003へ移行する。 Note that in the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface P, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint AGL are imaged. By determining based on Z1 to image Z4, the processing speed can be improved. Next, the process proceeds to step S5003.
ステップS5003において、制御部11は、生成した合成画像G1又はG2を画像調整部15へ送信する。図3におけるステップS6000へ移行する。
(画像調整処理)
ステップS6000において、画像調整部15は、画像調整処理を実行する。画像調整処理の詳細を図15に基づいて説明する。
In step S5003, the control unit 11 transmits the generated composite image G1 or G2 to the image adjustment unit 15. The process proceeds to step S6000 in FIG.
(Image adjustment processing)
In step S6000, the image adjustment unit 15 performs image adjustment processing. Details of the image adjustment processing will be described with reference to FIG.
ステップS6001において、画像調整部15は、制御部11から受信した合成画像G1又はG2における物体の輪郭を補正する。輪郭補正とは、例えば、遠近に応じて物体の輪郭の強弱調整を行う、或いは、曲線の滑らか補正を行うなどである。次に、ステップS6002へ移行する。 In step S6001, the image adjustment unit 15 corrects the contour of the object in the composite image G1 or G2 received from the control unit 11. The contour correction is, for example, adjusting the strength of the contour of an object according to the distance or performing smooth correction of a curve. Next, the process proceeds to step S6002.
ステップS6002において、画像調整部15は、制御部11から受信した合成画像G1又はG2における物体間や物体の部分間のコントラストを補正する。コントラスト補正とは、例えば、遠近に応じて物体間や物体の部分間のコントラストの強弱調整を行うなどである。次に、ステップS6003へ移行する。 In step S <b> 6002, the image adjustment unit 15 corrects the contrast between objects or object portions in the composite image G <b> 1 or G <b> 2 received from the control unit 11. The contrast correction is, for example, performing contrast strength adjustment between objects or between object parts according to the distance. Next, the process proceeds to step S6003.
ステップS6003において、画像調整部15は、制御部11から受信した合成画像G1又はG2における物体間の彩度を補正する。彩度補正とは、例えば、遠近に応じて物体の色の強弱調整を行うなどである。次に、図3におけるステップS7000へ移行する。
(画像表示処理)
ステップS7000において、制御部11の画像表示部20は、画像表示処理を実行する。画像表示処理の詳細を図16に基づいて説明する。
In step S6003, the image adjustment unit 15 corrects the saturation between objects in the composite image G1 or G2 received from the control unit 11. Saturation correction is, for example, adjusting the strength of the color of an object according to the distance. Next, the process proceeds to step S7000 in FIG.
(Image display processing)
In step S7000, the image display unit 20 of the control unit 11 executes image display processing. Details of the image display processing will be described with reference to FIG.
ステップS7001において、画像表示部20は、揮発性記憶部14に記憶されている合成画像を読み出す。その際に、画像表示部20は、揮発性記憶部14へ記憶している合成画像G1又はG2が一定量を超えると、最古の合成画像を消去して最新の合成画像を記憶する、又は、最古の合成画像を最新の合成画像によって上書きする記憶制御を実行する。次に、ステップS7002へ移行する。 In step S <b> 7001, the image display unit 20 reads the composite image stored in the volatile storage unit 14. At that time, when the composite image G1 or G2 stored in the volatile storage unit 14 exceeds a certain amount, the image display unit 20 deletes the oldest composite image and stores the latest composite image, or Then, storage control for overwriting the oldest synthesized image with the latest synthesized image is executed. Next, the process proceeds to step S7002.
ステップS7002において、画像表示部20は、揮発性記憶部14から読み出した合成画像G1又はG2を車載機100が備える表示操作部101に表示制御する。具体的には、画像表示部20は、動画に看えるように、揮発性記憶部14に記憶されている合成画像G1又はG2を所定の周期で古い画像から新しい画像へと更新表示させる。図16におけるリターンへ移行する。 In step S <b> 7002, the image display unit 20 controls the display operation unit 101 provided in the in-vehicle device 100 to display the composite image G <b> 1 or G <b> 2 read from the volatile storage unit 14. Specifically, the image display unit 20 updates and displays the composite image G1 or G2 stored in the volatile storage unit 14 from an old image to a new image at a predetermined cycle so that it can be seen as a moving image. The process proceeds to the return in FIG.
<変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では他の実施の形態について説明する。もちろん、以下で説明する形態を適宜組み合わせても良い。
<Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Other embodiments will be described below. Of course, you may combine the form demonstrated below suitably.
<変形例1>
上記代表の実施の形態を説明する図4のステップS1002において、AGC部12は、第1撮像部200〜第4撮像部203から受信した画像Z1〜画像Z4ごとの平均輝度を算出する際に、AGC部12は、画素に充てられた輝度が一定値であるスレッシュ値を超えているか否かを判定し、超えている場合はその輝度は平均輝度の算出における輝度の総和には含めず、更に、全画素数にも含めないと説明したが、制御装置10の制御部11が、車両外部の明るさを判断し、その車両外部の明るさに応じたスレッシュ値に基づいて前述した平均輝度を算出するものであっても良い。
<Modification 1>
In step S1002 in FIG. 4 for explaining the representative embodiment, the AGC unit 12 calculates the average luminance for each of the images Z1 to Z4 received from the first imaging unit 200 to the fourth imaging unit 203. The AGC unit 12 determines whether or not the luminance allocated to the pixel exceeds a threshold value that is a constant value, and if it exceeds, the luminance is not included in the total luminance in the calculation of the average luminance. Although not described in the total number of pixels, the control unit 11 of the control device 10 determines the brightness outside the vehicle and uses the average brightness described above based on the threshold value according to the brightness outside the vehicle. It may be calculated.
例えば、制御部11は、車両外部が暗いと判断した場合は、スレッシュ値を前述のスレッシュ値よりも高い側のスレッシュ値に設定し、車両外部が明るいと判断した場合は、スレッシュ値を前述のスレッシュ値よりも低い側のスレッシュ値に設定する。 For example, when the control unit 11 determines that the vehicle exterior is dark, the control unit 11 sets the threshold value to a threshold value higher than the above threshold value, and when it is determined that the vehicle exterior is bright, the threshold value is set to the above-described threshold value. Set the threshold value lower than the threshold value.
具体的には、制御部11は、その判断を、車載ネットワークNに接続されている照明スイッチ300のオン信号を受信する場合に車両外部が暗いと判断し、そのオフ信号を受信する場合に車両外部が明るいと判断する。また、制御部11は、その判断を、車載ネットワークNに接続されているワイパースイッチ301のオン信号を受信する場合に車両外部が暗いと判断し、そのオフ信号を受信する場合に車両外部が明るいと判断する。更に、制御部11は、車載ネットワークNに接続されている照度センサ302の信号を受信する場合にその信号レベルに応じ車両外部の明るさを判断して、スレッシュ値をその明るさに応じて可変にする。 Specifically, the control unit 11 determines that the vehicle exterior is dark when receiving an on signal of the lighting switch 300 connected to the in-vehicle network N, and the vehicle when receiving the off signal. Judge that the outside is bright. Further, the control unit 11 determines that the vehicle exterior is dark when receiving the ON signal of the wiper switch 301 connected to the in-vehicle network N, and the vehicle exterior is bright when receiving the OFF signal. Judge. Further, when the control unit 11 receives a signal from the illuminance sensor 302 connected to the in-vehicle network N, the control unit 11 determines the brightness outside the vehicle according to the signal level, and the threshold value is variable according to the brightness. To.
なお、このスレッシュ値はユーザが任意に設定可能に構成しても良い。 Note that the threshold value may be arbitrarily set by the user.
このように車両外部の明るさに応じスレッシュ値を変更することによって、画像輝度を補正する係数の基礎となる平均輝度が、車両外部が明るい場合には暗い側へ、車両外部が暗い場合には明るい側へ設定されるので、この平均輝度に基づいて補正した画像の視認性の向上が図れる。 In this way, by changing the threshold value according to the brightness outside the vehicle, the average brightness, which is the basis of the coefficient for correcting the image brightness, is darker when the vehicle exterior is brighter, and when the vehicle exterior is darker Since it is set to the bright side, the visibility of the image corrected based on this average luminance can be improved.
<変形例2>
上記代表の実施の形態を説明する図7のステップS2001において、ステップS2001において、制御部11は、車載ネットワークNを介して設定スイッチ303からの信号を受信し、受信した信号が設定1を示すか設定2を示すかを判断する。制御部11は、その受信信号が設定1を示すと判断する場合は、図10において第1画像輝度調整処理を実行し、その受信信号が設定2を示すと判断する場合は、図12において第2画像輝度調整処理を実行すると説明したが、制御部11は、AGC部12から受信した画像Z1〜画像Z4の平均輝度のうち、最も高い平均輝度と最も低い平均輝度との差が所定値以上か否かを判断し、その差が所定値以上であると判断する場合は、第1フラグをオンにして、図10において第1画像輝度調整処理を実行し、その差が第1所定値以上であると判断しない場合は、第2フラグをオンにして、図12において第2画像輝度調整処理を実行するようにしても良い。
<Modification 2>
In step S2001 in FIG. 7 for explaining the representative embodiment, in step S2001, the control unit 11 receives a signal from the setting switch 303 via the in-vehicle network N, and whether the received signal indicates setting 1 or not. It is determined whether setting 2 is indicated. When the control unit 11 determines that the received signal indicates setting 1, the control unit 11 performs the first image luminance adjustment processing in FIG. 10, and when it determines that the received signal indicates setting 2, the control unit 11 performs the first image luminance adjustment process in FIG. Although it has been described that the two-image luminance adjustment process is executed, the control unit 11 determines that the difference between the highest average luminance and the lowest average luminance among the average luminances of the images Z1 to Z4 received from the AGC unit 12 is a predetermined value or more. If the difference is greater than or equal to a predetermined value, the first flag is turned on, the first image brightness adjustment process is executed in FIG. 10, and the difference is greater than or equal to the first predetermined value. If it is not determined that, the second flag may be turned on, and the second image brightness adjustment process in FIG. 12 may be executed.
なお、第1所定値は前述するような不具合が発生するような画像の組み合わせになる場合を判定する値を予め設定している。また、第1フラグと第2フラグは初期処理と終了処理の際にオフにされるとともに、その機能の目的が終了する際にオフにされる。 It should be noted that the first predetermined value is set in advance as a value for determining a combination of images that cause the above-described problems. The first flag and the second flag are turned off during the initial process and the end process, and are turned off when the purpose of the function is finished.
つまり、第1撮像部200〜第4撮像部203が夫々撮像した画像の組み合わせが、前述するような不具合が発生するパターンである場合には、第1画像輝度調整処理を実行させる。一方で、前述するような不具合が発生するパターンでない場合には、第1画像輝度調整処理を実行させず、第2画像輝度調整処理を実行することで、画像の劣化を防止することができる。 That is, when the combination of images captured by the first imaging unit 200 to the fourth imaging unit 203 is a pattern in which the above-described problem occurs, the first image brightness adjustment process is executed. On the other hand, when the pattern does not cause the above-described problem, it is possible to prevent image degradation by executing the second image brightness adjustment process without executing the first image brightness adjustment process.
<変形例3>
上記代表の実施の形態を説明する図7のステップS2001において、ステップS2001において、制御部11は、車載ネットワークNを介して設定スイッチ303からの信号を受信し、受信した信号が設定1を示すか設定2を示すかを判断する。制御部11は、その受信信号が設定1を示すと判断する場合は、図10において第1画像輝度調整処理を実行し、その受信信号が設定2を示すと判断する場合は、図12において第2画像輝度調整処理を実行すると説明したが、制御部11は、AGC部12から受信した画像Z1〜画像Z4の平均輝度のうち、上限値を超える平均輝度があり、かつ、下限値を超える平均輝度があるという条件を満たす場合は、第1フラグをオンにして、図10における第1画像輝度調整処理を実行し、その条件を満たさない場合は、第2フラグをオンにして図12における第2画像輝度調整処理を実行するようにしても良い。
<Modification 3>
In step S2001 in FIG. 7 for explaining the representative embodiment, in step S2001, the control unit 11 receives a signal from the setting switch 303 via the in-vehicle network N, and whether the received signal indicates setting 1 or not. It is determined whether setting 2 is indicated. When the control unit 11 determines that the received signal indicates setting 1, the control unit 11 performs the first image luminance adjustment processing in FIG. 10, and when it determines that the received signal indicates setting 2, the control unit 11 performs the first image luminance adjustment process in FIG. Although it has been described that the two-image luminance adjustment process is executed, the control unit 11 has an average luminance exceeding the upper limit value among the average luminances of the images Z1 to Z4 received from the AGC unit 12, and an average exceeding the lower limit value. If the condition that there is brightness is satisfied, the first flag is turned on and the first image brightness adjustment process in FIG. 10 is executed. If the condition is not satisfied, the second flag is turned on and the first flag in FIG. A two-image brightness adjustment process may be executed.
なお、上限値及び下限値は前述するような不具合が発生するような画像の組み合わせになる場合を判定する値を予め設定している。 Note that the upper limit value and the lower limit value are set in advance as values for determining a combination of images that cause the above-described problems.
つまり、第1撮像部200〜第4撮像部203が夫々撮像した画像の組み合わせが、前述するような不具合が発生するパターンである場合には、第1画像輝度調整処理を実行させる。一方で、前述するような不具合が発生するパターンでない場合には、第1画像輝度調整処理を実行させず、第2画像輝度調整処理を実行することで、画像の劣化を防止することができる。 That is, when the combination of images captured by the first imaging unit 200 to the fourth imaging unit 203 is a pattern in which the above-described problem occurs, the first image brightness adjustment process is executed. On the other hand, when the pattern does not cause the above-described problem, it is possible to prevent image degradation by executing the second image brightness adjustment process without executing the first image brightness adjustment process.
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されても良い。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されても良い。 Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.
更に、各実施例の制御を説明するフローチャート図における各処理は、便宜上一の系列で示しているが、細分化された各処理を各制御部がマルチタスク制御機能により並列に処理するものであっても良い。 Furthermore, each process in the flowchart for explaining the control of each embodiment is shown as one series for convenience. However, each control unit processes each subdivided process in parallel by the multitask control function. May be.
S1 車両周辺画像表示システム
S2 画像処理システム
10 制御装置
11 制御部
12 AGC部
15 画像調整部
16 有効無効制御部
17 画像輝度調整部
18 画像輝度調整部
19 画像合成部
100 車載機
101 表示操作部
102 制御部
S3 撮像システム
200 撮影部
200 撮像部
201 撮像部
202 撮像部
203 撮像部
DESCRIPTION OF SYMBOLS S1 Vehicle periphery image display system S2 Image processing system 10 Control apparatus 11 Control part 12 AGC part 15 Image adjustment part 16 Effective / ineffective control part 17 Image brightness adjustment part 18 Image brightness adjustment part 19 Image composition part 100 Car-mounted machine 101 Display operation part 102 Control unit S3 Imaging system 200 Imaging unit 200 Imaging unit 201 Imaging unit 202 Imaging unit 203 Imaging unit
Claims (5)
夫々異なる方角へ向けて車両外側に搭載された複数の撮像手段から複数の画像を入力する入力手段と、
入力した前記複数の画像の輝度に基づいて前記複数の画像のうちの一画像を代表の画像として決定する決定手段と、
前記代表の画像を基準にして、他の画像の輝度を調整する第1調整手段と、
前記代表の画像と輝度が調整された前記他の画像とを、前記車両の周辺の様子を示す一の車両周辺画像に合成する合成手段と、
を備え、
前記複数の画像は所定数の画素から構成され、
前記決定手段は、前記複数の画像ごとに前記画像における全画素の平均輝度を算出して最も高い平均輝度の画像を代表の画像と決定することを特徴とする画像合成装置。 An image composition device that is mounted on a vehicle and synthesizes a plurality of images,
Input means for inputting a plurality of images from a plurality of imaging means mounted on the outside of the vehicle toward different directions,
Determining means for determining one of the plurality of images as a representative image based on the luminance of the plurality of input images;
First adjusting means for adjusting the brightness of another image with reference to the representative image;
A synthesizing unit that synthesizes the representative image and the other image of which brightness has been adjusted, into one vehicle peripheral image showing a state of the periphery of the vehicle;
Equipped with a,
The plurality of images are composed of a predetermined number of pixels,
It said determining means, the image synthesizing apparatus characterized that you determine the representative image an image of the calculation to the highest average luminance average luminance of all pixels in the image for each of the plurality of images.
前記決定手段は前記画像における画素が一定値以上の輝度を有する場合は、当該画素を前記平均輝度の算出に含まないことを特徴とする画像合成装置。 The image composition apparatus according to claim 1,
The determining means does not include the pixel in the calculation of the average luminance when the pixel in the image has a luminance of a certain value or more .
更に、前記複数の画像ごとに算出された前記平均輝度のうち、最も高い平均輝度と最も低い平均輝度との差が所定値以上の場合に、前記第1調整手段を有効にする制御手段を備えることを特徴とする画像合成装置。 The image composition device according to claim 2,
And a control unit that enables the first adjustment unit when a difference between the highest average luminance and the lowest average luminance among the average luminances calculated for each of the plurality of images is equal to or greater than a predetermined value. An image composition device characterized by the above.
更に、前記複数の画像ごとに算出された前記平均輝度を基準にして、当該平均輝度を算出した画像における画素の輝度を調整する第2調整手段を備え、
前記制御手段は、前記複数の画像ごとに算出された前記平均輝度のうち、最も高い平均輝度と最も低い平均輝度との差が所定未満の場合に、前記第2調整手段を有効にすることを特徴とする画像合成装置。 The image composition device according to claim 3.
Furthermore, with the average brightness calculated for each of the plurality of images as a reference, second adjustment means for adjusting the brightness of the pixels in the image for which the average brightness is calculated,
The control means enables the second adjusting means when the difference between the highest average brightness and the lowest average brightness among the average brightness calculated for each of the plurality of images is less than a predetermined value. A featured image synthesizer.
夫々異なる方角へ向けて車両外側に搭載された複数の撮像手段から複数の画像を入力する入力工程と、
入力した前記複数の画像の輝度に基づいて前記複数の画像のうちの一画像を代表の画像として決定する決定工程と、
前記代表の画像を基準にして、他の画像の輝度を調整する調整工程と、
前記代表の画像と輝度が調整された前記他の画像とを、前記車両の周辺の様子を示す一の車両周辺画像に合成する合成工程と、
を備え、
前記複数の画像は所定数の画素から構成され、
前記決定手段は、前記複数の画像ごとに前記画像における全画素の平均輝度を算出して最も高い平均輝度の画像を代表の画像と決定することを特徴とする画像合成方法。 An image composition method that is mounted on a vehicle and combines a plurality of images,
An input step of inputting a plurality of images from a plurality of imaging means mounted on the outside of the vehicle toward different directions,
A determination step of determining one of the plurality of images as a representative image based on the luminance of the plurality of input images;
An adjustment step of adjusting the brightness of other images based on the representative image;
Synthesizing the representative image and the other image whose brightness has been adjusted to a single vehicle periphery image showing a state of the periphery of the vehicle;
With
The plurality of images are composed of a predetermined number of pixels,
It said determining means, an image synthesis method and determining an image of the calculated and the highest average luminance average luminance of all pixels in the image for each of the plurality of images representative of the image.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010017615A JP5464741B2 (en) | 2010-01-29 | 2010-01-29 | Image composition apparatus and image composition method |
US13/575,408 US9041807B2 (en) | 2010-01-29 | 2011-01-27 | Image processing device and image processing method |
PCT/JP2011/051546 WO2011093354A1 (en) | 2010-01-29 | 2011-01-27 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010017615A JP5464741B2 (en) | 2010-01-29 | 2010-01-29 | Image composition apparatus and image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011160019A JP2011160019A (en) | 2011-08-18 |
JP5464741B2 true JP5464741B2 (en) | 2014-04-09 |
Family
ID=44591644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010017615A Active JP5464741B2 (en) | 2010-01-29 | 2010-01-29 | Image composition apparatus and image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5464741B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11082631B2 (en) | 2018-04-03 | 2021-08-03 | Aisin Seiki Kabushiki Kaisha | Image processing device |
US11523053B2 (en) | 2018-04-03 | 2022-12-06 | Aisin Corporation | Image processing apparatus |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5865726B2 (en) * | 2012-02-20 | 2016-02-17 | 日立マクセル株式会社 | Video display device |
KR101497933B1 (en) * | 2013-08-19 | 2015-03-03 | 현대모비스(주) | System and Method for compositing various images using clustering technique |
JP6600936B2 (en) * | 2014-11-06 | 2019-11-06 | 株式会社リコー | Image processing apparatus, image processing method, image processing system, program, and recording medium |
KR101816449B1 (en) * | 2016-10-20 | 2018-01-08 | 현대자동차주식회사 | Apparatus for integrated adjusting multi view camera exposure, system having the same and method thereof |
DE102018204209B4 (en) * | 2017-04-03 | 2022-09-29 | Denso Corporation | camera module |
JP7502902B2 (en) | 2020-05-29 | 2024-06-19 | キヤノン株式会社 | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD, AND PROGRAM |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4702917B2 (en) * | 2001-03-30 | 2011-06-15 | キヤノン株式会社 | camera |
JP3297040B1 (en) * | 2001-04-24 | 2002-07-02 | 松下電器産業株式会社 | Image composing and displaying method of vehicle-mounted camera and apparatus therefor |
JP4855662B2 (en) * | 2003-09-16 | 2012-01-18 | 富士フイルム株式会社 | Camera system, camera control method, and program |
-
2010
- 2010-01-29 JP JP2010017615A patent/JP5464741B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11082631B2 (en) | 2018-04-03 | 2021-08-03 | Aisin Seiki Kabushiki Kaisha | Image processing device |
US11523053B2 (en) | 2018-04-03 | 2022-12-06 | Aisin Corporation | Image processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2011160019A (en) | 2011-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011093354A1 (en) | Image processing device and image processing method | |
JP5464741B2 (en) | Image composition apparatus and image composition method | |
JP5604146B2 (en) | On-vehicle illumination device, image processing device, image display system, and illumination method | |
US8780202B2 (en) | Image generation apparatus | |
JP6077210B2 (en) | Vehicle rearward monitoring device | |
US20200023772A1 (en) | Apparatus and method for displaying information | |
JP5087051B2 (en) | Image generating apparatus and image display system | |
US8009977B2 (en) | On-vehicle lighting apparatus | |
JP6811106B2 (en) | Head-up display device and display control method | |
US9969330B2 (en) | Mirror substitute device and vehicle | |
US20120002052A1 (en) | Obstacle detection apparatus, obstacle detection system having same, and obstacle detection method | |
JP5592138B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP5051263B2 (en) | Vehicle rear view system | |
JP6750519B2 (en) | Imaging device, imaging display method, and imaging display program | |
EP2476588A1 (en) | Vehicle surrounding monitor apparatus | |
JP6969488B2 (en) | Image display device | |
EP3076655B1 (en) | Imaging settings changing device, imaging system, and imaging settings changing method | |
CN111095921A (en) | Display control device | |
JP2017220876A (en) | Periphery monitoring device | |
US20200304752A1 (en) | Method and apparatus for enhanced video display | |
JP5413843B2 (en) | Image processing apparatus and image processing method | |
JP7073237B2 (en) | Image display device, image display method | |
WO2017203794A1 (en) | Imaging device, imaging/display method and imaging/display program | |
JP2014021543A (en) | Visual field support device and program for vehicle | |
JP2020083071A (en) | On-vehicle device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20110901 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121122 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20121122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20121122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5464741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150218 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |