JP2013172224A - Video processing device and video display device - Google Patents

Video processing device and video display device Download PDF

Info

Publication number
JP2013172224A
JP2013172224A JP2012033527A JP2012033527A JP2013172224A JP 2013172224 A JP2013172224 A JP 2013172224A JP 2012033527 A JP2012033527 A JP 2012033527A JP 2012033527 A JP2012033527 A JP 2012033527A JP 2013172224 A JP2013172224 A JP 2013172224A
Authority
JP
Japan
Prior art keywords
video
unit
image quality
environment
quality correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012033527A
Other languages
Japanese (ja)
Other versions
JP5865726B2 (en
Inventor
Mitsuo Nakajima
満雄 中嶋
Masahiro Ogino
昌宏 荻野
Nobuhiro Fukuda
伸宏 福田
Hidenori Sakaniwa
秀紀 坂庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2012033527A priority Critical patent/JP5865726B2/en
Publication of JP2013172224A publication Critical patent/JP2013172224A/en
Application granted granted Critical
Publication of JP5865726B2 publication Critical patent/JP5865726B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable more favorable video display depending on a photographing environment.SOLUTION: A video processing device comprises: a video analysis unit that analyzes a signal component of input video; an environment estimation unit that estimates a photographing environment on the basis of the analysis result of the video; an image quality correction unit that corrects the input video on the basis of the estimated environment; and a display unit that displays video output from the image quality correction unit. The image quality correction unit corrects the input video depending on the estimation result of the environment estimation unit.

Description

本発明は撮像された映像を補正する技術に関する。   The present invention relates to a technique for correcting a captured image.

近年、自動車にカメラを装備し、自動車の周囲の画像を車内のディスプレイに表示することで自動車を運転するうえでの安全確認に活用したり、或は映像から障害物などを検知し、運転者への注意喚起や自動車の動きの制御に使われたりするものが登場している。自動車の周囲の環境は、昼夜などの時間帯の違い、天候の違いなどにより常時変化するため、カメラで撮影される映像の明るさや色あいなどの映像内容も変化する。一方、車内に表示される映像は自動車の周囲がどんな環境であっても常に視認しやすい映像の表示が求められることは言うまでもない。   In recent years, a car is equipped with a camera, and images around the car are displayed on the display in the car, which can be used for safety confirmation when driving the car, or obstacles are detected from the video, and the driver Some of them have been used to alert people and control the movement of cars. Since the environment around the vehicle changes constantly due to differences in time zones such as day and night, and weather, the video content such as the brightness and color of the video shot by the camera also changes. On the other hand, it is needless to say that the image displayed in the vehicle is required to be displayed so that it is always easy to see regardless of the environment around the vehicle.

一般的なカメラの機能として、撮影環境の明るさなどに応じてコントラスト補正を行う機能は備えているが、これに加えて表示装置の機能として、例えば、特許文献1に示されるように、夜間/夕方/雨天/降雪などの画質補正モードを設けるとともに、各モード用の画質補正テーブルを備えることで周囲の環境に応じた表示を実現するようなものや、特許文献2に示されるように、カメラの制御値と撮影された画素値から周囲の環境を推定して路面の車線検出を行うようなものが考えられている。   As a general camera function, a contrast correction function according to the brightness of the shooting environment is provided. In addition to this, as a display device function, for example, as shown in Patent Document 1, night time In addition to providing image quality correction modes such as / evening / rainy weather / snowfall, and providing an image quality correction table for each mode, as shown in Patent Document 2, It is considered that the surrounding environment is estimated from the control value of the camera and the captured pixel value to detect the lane on the road surface.

特開2004−312301号JP 2004-312301 A 特開2008−28957号JP 2008-28957 A

特許文献1に記載の技術では、夜間や昼間などの大まかな表示モードの変更はできるものの、時々刻々と変化する周囲環境への対応については述べられておらず、モードの切り替えも運転者が行う必要がある。また、特許文献2に記載の技術では、カメラで撮影された映像の照度を基準として、周囲環境を推定して映像補正することで車線検出などの精度を向上するに過ぎず、表示のための好適な処理については述べられていない。   In the technique described in Patent Document 1, although it is possible to change the rough display mode such as nighttime or daytime, the correspondence to the surrounding environment that changes from moment to moment is not described, and the driver also switches the mode. There is a need. The technique described in Patent Document 2 only improves the accuracy of lane detection and the like by estimating the surrounding environment and correcting the image based on the illuminance of the image taken by the camera. No suitable processing is mentioned.

本発明は、上記課題を鑑みてなされたものであり、その目的は、撮影環境に応じたより好適な映像表示を可能とすることにある。   The present invention has been made in view of the above problems, and an object of the present invention is to enable more suitable video display according to the shooting environment.

前記課題を解決するために、本発明の一実施の形態では、例えば、入力される映像の信号成分を分析する映像分析部と、映像の分析結果に基づき撮影された環境を推定する環境推定部と、推定された環境に基づき入力される映像の補正を行う画質補正部とを備え、環境推定部における環境推定結果に応じて、画質補正部が入力映像の画質を補正するように構成する。   In order to solve the above-described problem, in one embodiment of the present invention, for example, a video analysis unit that analyzes a signal component of an input video and an environment estimation unit that estimates a captured environment based on the video analysis result And an image quality correction unit that corrects the input video based on the estimated environment, and the image quality correction unit corrects the image quality of the input video according to the environment estimation result in the environment estimation unit.

撮影環境に応じたより好適な映像表示が可能となる。   More suitable video display according to the shooting environment is possible.

本発明の実施例1の構成の一例を示す図である。It is a figure which shows an example of a structure of Example 1 of this invention. 本発明の実施例1の映像解析部の一例を示す図である。It is a figure which shows an example of the image | video analysis part of Example 1 of this invention. 本発明の実施例1の画質補正部の一例を示す図である。It is a figure which shows an example of the image quality correction | amendment part of Example 1 of this invention. 映像の輝度ヒストグラムの一例である。It is an example of the brightness | luminance histogram of an image | video. 映像の輝度ヒストグラムの一例である。It is an example of the brightness | luminance histogram of an image | video. 映像の輝度ヒストグラムの一例である。It is an example of the brightness | luminance histogram of an image | video. 映像の輝度ヒストグラムの一例である。It is an example of the brightness | luminance histogram of an image | video. 映像のヒストグラム分布に偏りがある一例である。This is an example in which the histogram distribution of video is biased. 画質補正を施した映像のヒストグラムの一例である。It is an example of the histogram of the image | video which performed the image quality correction | amendment. 映像のエッジ量のヒストグラムの一例である。It is an example of the histogram of the edge amount of an image | video. 映像のエッジ量のヒストグラムの一例である。It is an example of the histogram of the edge amount of an image | video. 映像のエッジ量のヒストグラムの一例である。It is an example of the histogram of the edge amount of an image | video. 本発明の実施例2の構成の一例を示す図である。It is a figure which shows an example of a structure of Example 2 of this invention. 本発明の実施例3の構成の一例を示す図である。It is a figure which shows an example of a structure of Example 3 of this invention. 本発明の実施例4の構成の一例を示す図である。It is a figure which shows an example of a structure of Example 4 of this invention. 本発明の実施例5の構成の一例を示す図である。It is a figure which shows an example of a structure of Example 5 of this invention.

以下、本発明の実施の形態について図面に基づいて説明するが、本発明は必ずしもこれらの実施形態に限定されるものではない。また、実施形態を説明するための図において、同一機能の部分には原則として同一の符号を付し、その繰り返しの説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not necessarily limited to these embodiments. Also, in the drawings for describing the embodiments, the same reference numerals are given to components having the same function, and the repeated description thereof is omitted.

まず、本発明の実施例1の構成について図1から図3を用いて説明する。   First, the configuration of the first embodiment of the present invention will be described with reference to FIGS.

図1は本発明の実施例1のシステム全体構成を示す図である。100は本発明の実施例1のシステムを搭載する車両、1は映像分析部、2は環境推定部、3は画質制御部、4は画質補正部、5は画像合成部、6は映像処理装置、7は表示装置、8はカメラ部である。カメラ部8で撮影された映像9は映像分析部1で映像の成分を分析し、分析情報10として環境推定部2へ入力する。環境推定部2は分析情報10を元に撮影された環境を推定し、環境情報11として画質制御部3へ入力する。画質制御部3では環境情報11を元に画質の制御値12を出力し、画質補正部4で映像9の補正を行う。画像合成部5は画質が補正された映像13と、例えばナビゲーション画像やOSD表示などのグラフィック映像を合成して出力し、表示部7で表示を行う。   FIG. 1 is a diagram showing the overall system configuration of a first embodiment of the present invention. 100 is a vehicle equipped with the system of the first embodiment of the present invention, 1 is a video analysis unit, 2 is an environment estimation unit, 3 is an image quality control unit, 4 is an image quality correction unit, 5 is an image composition unit, and 6 is a video processing device. , 7 is a display device, and 8 is a camera unit. The video 9 taken by the camera unit 8 is analyzed by the video analysis unit 1 and input to the environment estimation unit 2 as analysis information 10. The environment estimation unit 2 estimates the captured environment based on the analysis information 10 and inputs the environment as the environment information 11 to the image quality control unit 3. The image quality control unit 3 outputs an image quality control value 12 based on the environment information 11, and the image quality correction unit 4 corrects the video 9. The image synthesizing unit 5 synthesizes and outputs the image 13 whose image quality has been corrected and a graphic image such as a navigation image or an OSD display, and displays it on the display unit 7.

図2に映像分析部1の構成例を示す。1aは輝度成分分析部、1bは色成分分析部、1cは輪郭成分分析部である。本構成例では輝度成分、色成分、輪郭成分の3種類の分析を行う構成としているが、これに限ったわけではなく、最低1種類の映像成分を分析するように構成すれば良い。図3に画質補正部4の構成例を示す。4aはノイズ低減部、4bは輝度補正部、4cは輪郭補正部、4dは色補正部である。本構成例でも4種類の画質補正機能により構成しているが特にこれに限ったわけではない。   FIG. 2 shows a configuration example of the video analysis unit 1. 1a is a luminance component analyzer, 1b is a color component analyzer, and 1c is a contour component analyzer. In the present configuration example, three types of analysis of the luminance component, the color component, and the contour component are performed. However, the present invention is not limited to this, and it may be configured to analyze at least one type of video component. FIG. 3 shows a configuration example of the image quality correction unit 4. 4a is a noise reduction unit, 4b is a luminance correction unit, 4c is a contour correction unit, and 4d is a color correction unit. This configuration example is also configured with four types of image quality correction functions, but is not limited to this.

次に上記構成の動作の一例を図4から図6を用いて説明する。図4は映像の1フレーム分の輝度成分の一例を示している。横軸は輝度レベル、縦軸は各輝度レベルの分布度数を示している。表示部7の表示可能な輝度レベル、つまりダイナミックレンジは、横軸の最低輝度レベルから最高輝度レベルの範囲であるとする。表示部7に視認性が高く見やすい映像を表示するためには、前述のダイナミックレンジの全体を利用するのが望ましい。つまり、表示される映像が図1の斜線で示すような映像の成分であることが理想的である。   Next, an example of the operation of the above configuration will be described with reference to FIGS. FIG. 4 shows an example of the luminance component for one frame of the video. The horizontal axis indicates the luminance level, and the vertical axis indicates the distribution frequency of each luminance level. The displayable luminance level of the display unit 7, that is, the dynamic range is assumed to be a range from the lowest luminance level on the horizontal axis to the highest luminance level. In order to display an image with high visibility and easy to see on the display unit 7, it is desirable to use the entire dynamic range. In other words, it is ideal that the displayed video is a video component as indicated by the hatched lines in FIG.

一方、輝度成分に偏りがある一例を図5(a)に示す。図5(a)の例では、最高輝度レベルの輝度が低い方向にあり、映像成分全体のレベルも低い方向に偏っている。このような映像を表示すると全体的に暗く、視認性も悪い表示となってしまう。   On the other hand, an example in which the luminance component is biased is shown in FIG. In the example of FIG. 5A, the luminance of the highest luminance level is in the lower direction, and the level of the entire video component is also biased in the lower direction. When such an image is displayed, the display is dark overall and poorly visible.

逆に図5(b)に示すように最低輝度レベルの輝度が高い方向に、映像全体のレベルも高い方向に偏っていると、表示した映像は明るいものの、全体として白っぽい映像となり視認性の悪い映像となる。   On the other hand, as shown in FIG. 5B, if the luminance of the lowest luminance level is high and the level of the whole video is also high, the displayed video is bright, but the whole image becomes whitish and has poor visibility. It becomes a picture.

そこで、上述した本発明の映像分析部1は、映像の最高輝度レベル、最低輝度レベル、平均輝度レベルを検出する。環境推定部2は、この最高輝度レベル、最低輝度レベル、平均輝度レベルなどを用いて、車両外の環境の判定を行う。   Therefore, the video analysis unit 1 of the present invention described above detects the highest luminance level, the lowest luminance level, and the average luminance level of the video. The environment estimation unit 2 determines the environment outside the vehicle using the maximum brightness level, the minimum brightness level, the average brightness level, and the like.

例えば、図5(a)の例では、映像の最高輝度レベルと閾値S1(最高輝度レベルによる暗環境判定用の閾値)を比較し、最高輝度レベルが閾値S1よりも低い場合に、「暗環境」と判定すればよい。また、別の判定処理例として、例えば、図5(a)の例において、映像の平均輝度レベルと閾値S2(平均輝度レベルによる暗環境判定用の閾値)を比較し、平均輝度レベルが閾値S2よりも低い場合に、「暗環境」と判定してもよい。さらに、別の判定処理例として、例えば、図5(a)の例において、上述の2例の判定基準を組み合わせて、最高輝度レベルが閾値S1よりも低く、かつ映像の平均輝度レベルが閾値S2よりも低い場合に、「暗環境」と判定してもよい。   For example, in the example of FIG. 5A, the highest luminance level of the video is compared with the threshold S1 (threshold for determining the dark environment based on the highest luminance level), and when the highest luminance level is lower than the threshold S1, the “dark environment” ”Can be determined. As another determination processing example, for example, in the example of FIG. 5A, the average luminance level of the video is compared with a threshold S2 (threshold for determining dark environment based on the average luminance level), and the average luminance level is the threshold S2. If it is lower than that, it may be determined as “dark environment”. Furthermore, as another example of determination processing, for example, in the example of FIG. 5A, the above-described two determination criteria are combined, the maximum luminance level is lower than the threshold value S1, and the average luminance level of the video is the threshold value S2. If it is lower than that, it may be determined as “dark environment”.

環境推定部2が上述のように「暗環境」と判定した場合、画質制御部3の制御により、画質補正部4は、図4に示す分布により近づくようにダイナミックレンジ全体に映像成分が広げる補正を行う。   When the environment estimation unit 2 determines “dark environment” as described above, under the control of the image quality control unit 3, the image quality correction unit 4 corrects the video component to expand the entire dynamic range so as to approach the distribution shown in FIG. 4. I do.

次に、例えば、図5(b)の例では、映像の最低輝度レベルと閾値S3(最低輝度レベルによる明環境判定用の閾値)を比較し、最低輝度レベルが閾値S3よりも高い場合に、「明環境」と判定すればよい。また、別の判定処理例として、例えば、図5(b)の例において、映像の平均輝度レベルと閾値S4(平均輝度レベルによる明環境判定用の閾値)を比較し、平均輝度レベルが閾値S4よりも高い場合に、「明環境」と判定してもよい。さらに、別の判定処理例として、例えば、図5(b)の例において、上述の2例の判定基準を組み合わせて、最低輝度レベルが閾値S3よりも高く、かつ映像の平均輝度レベルが閾値S4よりも高い場合に、「明環境」と判定してもよい。   Next, for example, in the example of FIG. 5B, the lowest luminance level of the video is compared with the threshold S3 (the threshold for determining the bright environment based on the lowest luminance level), and when the lowest luminance level is higher than the threshold S3, What is necessary is just to determine with "bright environment". As another determination processing example, for example, in the example of FIG. 5B, the average luminance level of the video is compared with a threshold S4 (threshold for determining bright environment based on the average luminance level), and the average luminance level is the threshold S4. If it is higher, the “bright environment” may be determined. Furthermore, as another example of determination processing, for example, in the example of FIG. 5B, the above-described two determination criteria are combined, the minimum luminance level is higher than the threshold value S3, and the average luminance level of the video is the threshold value S4. If it is higher, the “bright environment” may be determined.

環境推定部2が上述のように「明環境」と判定した場合、画質制御部3の制御により、画質補正部4は、図4に示す分布により近づくようにダイナミックレンジ全体に映像成分が広げる補正を行う。   When the environment estimation unit 2 determines “bright environment” as described above, under the control of the image quality control unit 3, the image quality correction unit 4 corrects the video component to expand over the entire dynamic range so as to be closer to the distribution shown in FIG. 4. I do.

また、例えば、図6のように、映像の最高輝度レベルが閾値S1以上であり、映像の最低輝度レベルが閾値S3以下である場合や、平均輝度レベルが閾値S2以上閾値S4以下の場合など、上述の「明環境」でも「暗環境」でもないと判定された場合は、画質補正を行わないように構成しても良い。このような映像分布の場合は、映像の視認性はさほど悪くないと考えられるため、画像補正処理をOFFとすることで、映像処理装置の動作の省電力化が図れる。   Further, for example, as shown in FIG. 6, when the highest luminance level of the video is equal to or higher than the threshold S1 and the lowest luminance level of the video is equal to or lower than the threshold S3, or when the average luminance level is equal to or higher than the threshold S2 and lower than the threshold S4. If it is determined that neither the above-described “bright environment” nor “dark environment” is determined, the image quality correction may not be performed. In the case of such a video distribution, it is considered that the visibility of the video is not so bad. Therefore, the power of the video processing apparatus can be saved by turning off the image correction processing.

以上の判定制御及び画質補正制御は、例えば映像の毎フレーム行えばよい。上述の制御によれば、時々刻々と撮影された映像が変化した場合にも、必要に応じて撮像時よりも広いダイナミックレンジを使った映像表示が可能となり、視認性の良好な映像表示が可能になる。   The above determination control and image quality correction control may be performed, for example, every frame of the video. According to the above-mentioned control, even when the captured image changes from moment to moment, it is possible to display an image using a wider dynamic range than when imaging, and display an image with good visibility. become.

なお、上述の説明において、図5(a)の例において、最低輝度レベルと閾値S3による判定及び平均輝度レベルとS4による判定の説明は省略した。しかし、図5(a)と図5(b)を比較すれば明らかなように、図5(a)における最低輝度レベルは閾値S3以下であり、平均輝度レベルは閾値S4以下であるため、「明環境」とは判定されない。   In the above description, in the example of FIG. 5A, descriptions of the determination based on the minimum luminance level and the threshold S3 and the determination based on the average luminance level and S4 are omitted. However, as apparent from a comparison between FIG. 5A and FIG. 5B, the minimum luminance level in FIG. 5A is equal to or lower than the threshold value S3, and the average luminance level is equal to or lower than the threshold value S4. It is not determined as “bright environment”.

また、上述の説明において、図5(b)の例において、最高輝度レベルと閾値S1による判定及び平均輝度レベルとS2による判定の説明は省略した。しかし、図5(a)と図5(b)を比較すれば明らかなように、図5(b)における最高輝度レベルは閾値S1以上であり、平均輝度レベルは閾値S2以上であるため、「暗環境」とは判定されない。   Further, in the above description, in the example of FIG. 5B, description of the determination based on the maximum luminance level and the threshold value S1 and the determination based on the average luminance level and S2 is omitted. However, as apparent from a comparison between FIG. 5A and FIG. 5B, the maximum luminance level in FIG. 5B is equal to or higher than the threshold value S1, and the average luminance level is equal to or higher than the threshold value S2. It is not determined to be “dark environment”.

なお、上述の一例で、環境推定部3では「暗環境」「明環境」の推定を行うように説明したが、輝度レベルを判定する値を複数設けることで細分化し、例えば「夜間」「朝夕」「昼間(曇天)」「昼間(晴天)」のように推定してもよい。例えば、「夜間」と判定した場合に、上述の「暗環境」と同様な処理を行うこうに構成しても良い。また、「昼間(晴天)」と判定した場合は、上述の「明環境」と同様な処理を行うこうに構成しても良い。また、「昼間(曇天)」と判定した場合は、上述の画質補正を行わないように構成しても良い。また、「朝夕」と判定した場合は、後述の色補正を行うように構成しても良い。   In the above example, the environment estimation unit 3 has been described as estimating “dark environment” and “bright environment”. However, the environment estimation unit 3 subdivides by providing a plurality of values for determining the brightness level, for example, “night” and “morning and evening”. "Daytime (cloudy weather)" "Daytime (clear weather)" may be estimated. For example, when it is determined as “night”, the same processing as the above “dark environment” may be performed. Further, when it is determined as “daytime (clear sky)”, the same processing as the above “bright environment” may be performed. Further, when it is determined as “daytime (cloudy)”, the above-described image quality correction may not be performed. Further, when it is determined that “morning and evening”, color correction described later may be performed.

また、映像分析部1は、環境の推定のために、映像の最高輝度レベル、最低輝度レベル、平均輝度レベルを検出して、環境の推定に使用するものとして説明した。ここで、他の例として、輝度ヒストグラムとして検出して、する場合の一例を図7、図8を用いて説明する。図7は入力される映像9の輝度ヒストグラムの一例であり、横軸は輝度レベル、縦軸は各輝度レベルの分布度数を示している。このように映像分析部1で映像ヒストグラムを検出した場合、環境推定部2は例えばヒストグラムの重心と所定値を基準に、上述の実施例と同様な環境の推定を行うとともに、画質制御部3を介して画質補正部4で映像9の補正を行う。補正後の映像の輝度ヒストグラム例を図8に示す。   In addition, the video analysis unit 1 has been described as detecting the highest luminance level, the lowest luminance level, and the average luminance level of the video for use in estimating the environment in order to estimate the environment. Here, as another example, an example of detection as a luminance histogram will be described with reference to FIGS. FIG. 7 shows an example of the luminance histogram of the input image 9, where the horizontal axis indicates the luminance level and the vertical axis indicates the distribution frequency of each luminance level. When the video histogram is detected by the video analysis unit 1 as described above, the environment estimation unit 2 estimates the environment similar to the above-described embodiment based on the center of gravity of the histogram and a predetermined value, for example, and the image quality control unit 3 Then, the image quality correction unit 4 corrects the video 9. An example of the luminance histogram of the corrected video is shown in FIG.

画質補正部4では、ヒストグラムの重心が輝度の高い方向に補正するとともに、図7に示した度数が所定値よりも大きな輝度レベルの領域を拡張するように補正を加える。輝度ヒストグラムの度数が大きな輝度レベルは画面中を占める面積も大きいので、その領域の輝度差を大きくするよう制御することで、視認性の高い映像表示が可能となる。   The image quality correction unit 4 corrects the center of gravity of the histogram in a direction in which the luminance is higher, and corrects so that the region shown in FIG. 7 has a luminance level larger than a predetermined value. Since the luminance level with a high frequency of the luminance histogram has a large area in the screen, it is possible to display an image with high visibility by controlling the luminance difference in the region to be large.

次に映像分析部1における色成分分析部1bの動作例を説明する。色成分分析部1bは、映像の色成分のうち色相、彩度のうち少なくとも一方をヒストグラム情報として検出する。環境推定部2では、色相の赤色成分が所定値よりも大きかった場合に「朝夕」であると判定するとともに、画質制御部3を介して画質補正部4において映像9の補正を行う。例えば、朝夕の映像に赤みがかった映像の赤成分のレベルを下げるとともに、前述した輝度情報での補正と併用することで、昼間と同様に視認性の良好な映像表示が実現できる。また、彩度情報は、所定の彩度よりも低かった場合に、彩度を高くするように制御を行う。例えば、自動車の周囲の映像は道路などが多く色成分が少ないのに対して、人、車などの物体は色成分が多いので、彩度を高くするように補正することで注意すべき物体の視認性を向上させることができる。   Next, an operation example of the color component analysis unit 1b in the video analysis unit 1 will be described. The color component analysis unit 1b detects at least one of hue and saturation among the color components of the video as histogram information. In the environment estimation unit 2, when the red component of the hue is larger than a predetermined value, it is determined as “morning and evening”, and the image quality correction unit 4 corrects the video 9 through the image quality control unit 3. For example, by reducing the level of the red component of the reddish video in the morning and evening video and using it together with the correction with the luminance information described above, it is possible to realize video display with good visibility as in the daytime. Further, when the saturation information is lower than a predetermined saturation, control is performed so as to increase the saturation. For example, an image around a car has a lot of roads and few color components, whereas an object such as a person or car has many color components. Visibility can be improved.

次に図9から図11を用いて映像分析部1における輪郭成分分析部1cの動作例を説明する。まず図9において横軸はエッジ成分(輪郭成分)の振幅レベル、縦軸はそれぞれのレベルにおける度数分布を示している。映像成分において、比較的エッジの振幅レベルが小さい領域は映像中のノイズ成分、比較的エッジの振幅レベルが大きい領域は映像中の物体の輪郭である場合が多い。本実施例では、図10に示すようにエッジの振幅レベルが所定値よりも小さい領域に対してエッジ振幅を下げるように画質制御部3を介して画質補正部4で映像9の画質補正を行う。この処理は画質補正部4におけるノイズ低減部4aにて行う。これによりノイズ成分を抑制し、注視すべき物体の視認性を向上することができる。   Next, an operation example of the contour component analysis unit 1c in the video analysis unit 1 will be described with reference to FIGS. First, in FIG. 9, the horizontal axis represents the amplitude level of the edge component (contour component), and the vertical axis represents the frequency distribution at each level. In a video component, a region having a relatively small edge amplitude level is often a noise component in the video, and a region having a relatively large edge amplitude level is often the contour of an object in the video. In this embodiment, as shown in FIG. 10, the image quality correction of the video 9 is performed by the image quality correction unit 4 via the image quality control unit 3 so as to lower the edge amplitude in a region where the edge amplitude level is smaller than a predetermined value. . This processing is performed by the noise reduction unit 4a in the image quality correction unit 4. Thereby, the noise component can be suppressed and the visibility of the object to be watched can be improved.

また、上記制御に加えエッジの振幅レベルが所定値よりも大きな領域に対してエッジの振幅を大きくするように制御してもよい。この処理は画質補正部4における輪郭補正部4cで行う。この処理によればノイズを抑制し、さらに注視すべき物体の輪郭が鮮明にできるので視認性の高い表示が可能となる。この制御は、ノイズの抑制は行わず、所定値よりも大きな領域に対してエッジの振幅を大きくする制御のみを行っても良い。   In addition to the above control, control may be performed so that the edge amplitude is increased in a region where the edge amplitude level is larger than a predetermined value. This processing is performed by the contour correction unit 4c in the image quality correction unit 4. According to this process, noise can be suppressed and the contour of the object to be watched can be made clear, so that a highly visible display can be achieved. In this control, noise suppression may not be performed, and only control for increasing the amplitude of the edge in a region larger than a predetermined value may be performed.

以上説明した本発明の実施例1に係る映像処理技術によれば、毎フレームの映像の分析に基づき、環境を推定したうえで画質を補正することができるので、時々刻々と変化する撮影環境に応じてより好適な映像の表示を実現できる。すなわち、撮影環境に応じたより好適な映像表示が可能となる。   According to the video processing technique according to the first embodiment of the present invention described above, the image quality can be corrected after estimating the environment based on the analysis of the video of each frame, so that the shooting environment changes from moment to moment. Accordingly, more suitable video display can be realized. That is, a more suitable video display according to the shooting environment is possible.

実施例2について図12を用いて説明する。実施例1では、1つの映像入力に対する構成例と動作を説明したが、本実施例では2つの映像入力の場合の構成例を示している。   A second embodiment will be described with reference to FIG. In the first embodiment, the configuration example and the operation for one video input have been described, but in this embodiment, a configuration example in the case of two video inputs is shown.

1200は本発明の実施例2のシステムを搭載する車両、8bはカメラ部、3bは画質制御部、4bは画質補正部である。カメラ部8からの映像9が接続される映像分析部1、環境推定部2、画質制御部3、画質補正部4の動作は実施例1と同一であるため、ここでの説明は省略する。   Reference numeral 1200 denotes a vehicle equipped with the system according to the second embodiment of the present invention, 8b denotes a camera unit, 3b denotes an image quality control unit, and 4b denotes an image quality correction unit. Since operations of the video analysis unit 1, the environment estimation unit 2, the image quality control unit 3, and the image quality correction unit 4 to which the video 9 from the camera unit 8 is connected are the same as those in the first embodiment, description thereof is omitted here.

なお、カメラ部8及びカメラ部8bの、車両における設置方向は様々な例が考えられる。一方を車両の前方を撮像する方向に設置し、他方を車両の後方を撮像する方向に設置してもよい。この場合フロントビューカメラと、リアビューカメラとして用いることができる。また、他の構成例としては、両者をともに車両の前方(必要であれば後方でもよい)を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成してもよい。この場合は、距離測定や3D映像表示のための撮像システムを構成することができる。   Various examples of the installation direction of the camera unit 8 and the camera unit 8b in the vehicle are conceivable. One may be installed in the direction of imaging the front of the vehicle, and the other may be installed in the direction of imaging the rear of the vehicle. In this case, it can be used as a front view camera and a rear view camera. Further, as another configuration example, both may be installed in a direction in which the front (or rearward if necessary) of the vehicle is imaged, and two parallax images with parallax may be captured. In this case, an imaging system for distance measurement and 3D video display can be configured.

以下、カメラ部8bからの映像が接続される部分と、画像合成部5の動作について説明する。カメラ部8bの映像9bは、画質補正部4bで補正されるが、この制御は、カメラ部8の撮像映像を用いて環境推定を行う環境推定部2の推定結果に基づき画質制御部3bを介して行うように構成する。なぜならば、カメラ部8、カメラ部8bがそれぞれ車両1200の外部を撮影するとした場合、近い環境を撮影していることになり、映像内容の類似性が高いためである。したがって、環境推定部2の推定結果での補正しても実用上問題ない。このように、1台のカメラで撮像した映像を用いて車両外の環境推定を行い、その環境推定結果を複数台のカメラで撮像した映像の画質補正に共通に用いることで、複数台のカメラそれぞれの撮像映像でぞれぞれの環境推定処理を行うよりも安価に映像処理装置を構成することができる。   Hereinafter, the part to which the video from the camera unit 8b is connected and the operation of the image composition unit 5 will be described. The image 9b of the camera unit 8b is corrected by the image quality correction unit 4b. This control is performed via the image quality control unit 3b based on the estimation result of the environment estimation unit 2 that performs environment estimation using the captured image of the camera unit 8. To be done. This is because, when the camera unit 8 and the camera unit 8b each capture the outside of the vehicle 1200, they are capturing a close environment, and the similarity of the video content is high. Therefore, there is no practical problem even if the estimation result of the environment estimation unit 2 is corrected. In this way, by estimating the environment outside the vehicle using the video captured by one camera and using the result of the environmental estimation in common for image quality correction of the video captured by multiple cameras, multiple cameras A video processing apparatus can be configured at a lower cost than performing each environment estimation process for each captured video.

次に、画像合成部5には、画質補正部4bの出力映像13bと画質補正部4の出力映像13が入力され、処理が行われる。当該画像合成部5における処理は、例えばナビゲーション画像やOSD表示などのグラフィック映像を合成する以外にも様々な処理が考えられる。   Next, the output image 13b of the image quality correction unit 4b and the output video 13 of the image quality correction unit 4 are input to the image composition unit 5 and processing is performed. The processing in the image synthesizing unit 5 may be various processes other than synthesizing graphic images such as navigation images and OSD displays.

まず、一方のカメラを車両の前方を撮像する方向に設置(フロントビュー用)し、他方のカメラを車両の後方を撮像する方向に設置(リヤビュー用)する場合は、図示しないユーザからの指示情報入力部により、どちらか一方の映像を選択して出力してもよい。また、両者の映像をリサイジング変換処理等を行って表示部7の表示画面のそれぞれの領域に表示できるように出力映像を生成してもよい。出力映像は表示部7へ入力され表示される。この場合、映像を合成して表示する方法としては、画面上に左右に並べて表示する方法や上下に並べて表示する方法などがあるがどちらでも問題ない。また、車両を俯瞰する視点からの映像に見えるように、それぞれの映像を変換する既存の技術を用いて出力映像を生成するように構成してもよい。   First, when one camera is installed in the direction of imaging the front of the vehicle (for front view) and the other camera is installed in the direction of imaging the rear of the vehicle (for rear view), instruction information from a user (not shown) Either one of the videos may be selected and output by the input unit. Further, an output video may be generated so that both videos can be displayed in respective areas of the display screen of the display unit 7 by performing resizing conversion processing or the like. The output video is input to the display unit 7 and displayed. In this case, as a method of combining and displaying the images, there are a method of displaying them side by side on the screen, a method of displaying them side by side, and the like. Moreover, you may comprise so that an output image | video may be produced | generated using the existing technique which converts each image | video so that it may be seen from the viewpoint which looks down at a vehicle.

また、両方のカメラを車両の前方を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成する場合は、どちらか一方の映像を選択して2D映像として出力してもよく、両者の映像を用いて3D映像を生成して3D映像として表示してもよい。この場合、表示部7は3D映像が可能な表示装置を用いる必要がある。表示部7における3D映像表示方式は、裸眼立体視方式でもよく、偏光メガネや液晶シャッター式メガネを必要とする方式でも構わない。これらはいずれも既存技術で実現できる。表示部7と映像処理装置6を一体システムとして構成する場合は、映像処理装置6から表示部7へ出力する3D映像のフォーマットは独自フォーマットで構わない。表示部7と映像処理装置6を別体としてインタフェースで接続して構成する場合は、映像処理装置6から表示部7へ出力する3D映像は、例えばHDMIインタフェースなどを用いて、規格で規定された3Dフォーマットで伝送すればよい。   Also, when both cameras are installed in the direction to capture the front of the vehicle and configured to shoot two viewpoint images with parallax, either one of the images may be selected and output as a 2D image. Alternatively, a 3D image may be generated using both images and displayed as a 3D image. In this case, the display unit 7 needs to use a display device capable of 3D video. The 3D video display method in the display unit 7 may be a naked-eye stereoscopic method or a method that requires polarized glasses or liquid crystal shutter glasses. Both of these can be realized with existing technology. When the display unit 7 and the video processing device 6 are configured as an integrated system, the format of the 3D video output from the video processing device 6 to the display unit 7 may be a unique format. When the display unit 7 and the video processing device 6 are separately connected to each other through an interface, the 3D video output from the video processing device 6 to the display unit 7 is defined by a standard using, for example, an HDMI interface. What is necessary is just to transmit in 3D format.

本実施例によれば、一方のカメラで撮影した画像に基づき環境を推定し、2つのカメラ映像を補正して視認性の良好な映像として表示するこができる。   According to the present embodiment, it is possible to estimate the environment based on an image captured by one camera, correct two camera images, and display them as images with good visibility.

本実施例では2台のカメラを用いる構成例を説明したが、カメラは何台でも問題なく、複数台の中の1台の映像による環境推定結果を元に、その他のカメラ映像を補正制御するように構成すれば、1台のカメラ以外の環境推定機能が不用になるので、より安価により視認性の高い複数カメラ映像の表示技術を提供することが可能となる。   In this embodiment, a configuration example using two cameras has been described. However, there is no problem with any number of cameras, and other camera videos are corrected and controlled based on the environment estimation result of one of the plurality of cameras. With this configuration, since the environment estimation function other than one camera is unnecessary, it is possible to provide a technique for displaying a plurality of camera images with high visibility at a lower cost.

以上説明した本発明の実施例2に係る映像処理技術によれば、カメラを複数台備える構成てあっても、より安価な構成で撮影環境に応じたより好適な映像表示が可能となる。   According to the video processing technique according to the second embodiment of the present invention described above, even if the configuration includes a plurality of cameras, a more preferable video display according to the shooting environment is possible with a lower-cost configuration.

実施例3について図13を用いて説明する。本実施例では、実施例2と同様に2台のカメラを用いているが、映像分析部1b、環境推定部2b、差分解析部20を設けている。1300は本発明の実施例3のシステムを搭載する車両である。図13において、カメラ部8及びカメラ部8bは、ともに車両の前方(必要であれば後方でもよい)を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成している。   A third embodiment will be described with reference to FIG. In the present embodiment, two cameras are used as in the second embodiment, but a video analysis section 1b, an environment estimation section 2b, and a difference analysis section 20 are provided. Reference numeral 1300 denotes a vehicle equipped with the system of the third embodiment of the present invention. In FIG. 13, the camera unit 8 and the camera unit 8b are both installed in a direction to image the front (or rear if necessary) of the vehicle, and are configured to shoot two viewpoint videos with parallax. .

以下、動作例を説明する。カメラ部8bの映像9bは映像分析部1bで映像成分を分析する。映像分析部1bの動作は、実施例1と同様の動作でありここでの説明は省略する。差分分析部20は、映像分析部1bと映像分析部1の分析結果を入力し、両者の差分を分析し、差分情報を出力する。画質制御部3bではその差分情報と環境推定部2の分析結果を用いて画質補正部4bを制御する。この構成によれば実施例2と同様に2つの映像の視認性を向上できるとともに、例えばカメラ8とカメラ8bの両者の出力映像に差があった場合にも、その差分を差分解析部20で検出し、差分を無くすように画質制御部4bで補正できるので、補正後の2つの映像の画質差を小さくすることができる。このようにすることで、例えば、撮影した2視点の映像を下に、3D映像を表示する際に、右目用の映像と左目用の映像の画質の差を低減することが可能となり、ユーザにとってより視認性の高い映像表示を実現できる。   Hereinafter, an operation example will be described. The video component of the video 9b of the camera unit 8b is analyzed by the video analysis unit 1b. The operation of the video analysis unit 1b is the same as that of the first embodiment, and a description thereof is omitted here. The difference analysis unit 20 inputs the analysis results of the video analysis unit 1b and the video analysis unit 1, analyzes the difference between the two, and outputs difference information. The image quality control unit 3b controls the image quality correction unit 4b using the difference information and the analysis result of the environment estimation unit 2. According to this configuration, the visibility of the two images can be improved similarly to the second embodiment, and for example, even when there is a difference between the output images of both the camera 8 and the camera 8b, the difference is analyzed by the difference analysis unit 20. Since it can be detected and corrected by the image quality control unit 4b so as to eliminate the difference, the difference in image quality between the two images after correction can be reduced. In this way, for example, when a 3D image is displayed with the taken two viewpoints below, it is possible to reduce the difference in image quality between the right eye image and the left eye image. Higher visibility video display can be realized.

本実施例では2台のカメラを用いる構成例を説明したが、カメラはそれより多い台数でもよい。映像分析部、差分解析部を同様に増やし、複数台の中の1台の映像による環境推定結果と差分分析結果を元に、その他のカメラ映像を補正制御するように構成すれば、同様に視認性の高い複数カメラ映像の表示が可能となる。   In the present embodiment, a configuration example using two cameras has been described, but a larger number of cameras may be used. If the number of video analysis units and difference analysis units are increased in the same way, and other camera images are corrected and controlled based on the environment estimation results and difference analysis results from one of the multiple images, they will be visible as well. It is possible to display high-quality images from multiple cameras.

以上説明した本発明の実施例3に係る映像処理技術によれば、カメラを複数台備える構成てあっても、それぞれのカメラで撮影した映像の画質差を低減でき、より好適な映像表示が可能となる。   According to the video processing technique according to the third embodiment of the present invention described above, even when a plurality of cameras are provided, it is possible to reduce the difference in image quality between videos taken by the cameras and to display more suitable video. It becomes.

実施例4の構成例について図14を用いて説明する。1400は本発明の実施例4のシステムを搭載する車両である。21は車内情報の信号を示しており、画質制御部は、実施例1で説明した環境推定結果とともに、この車内情報を用いて画質補正部の制御を行うよう構成している。   A configuration example of the fourth embodiment will be described with reference to FIG. Reference numeral 1400 denotes a vehicle equipped with the system of the fourth embodiment of the present invention. Reference numeral 21 denotes a signal of in-vehicle information, and the image quality control unit is configured to control the image quality correction unit using the in-vehicle information together with the environment estimation result described in the first embodiment.

例えば、車両1400に、日時情報や時刻情報を管理する日時情報管理部1412を設け、車内情報21として時刻情報を画質制御部3cに入力した場合の動作を説明する。なお、日時情報管理部1412は、車両内1400内の時計表示に用いる時刻情報を管理する部と共通でも構わない。実施例1では映像分析を元に昼夜などの推定を行ったが、本実施例では時刻情報を用いて環境推定を行う。例えば、時刻により昼夜の判別は可能であるので、大まかな判定を時刻を元に行ない、その間の朝夕の判定を映像を元に行う。これにより季節などの違いで明るさが異なる時間帯でも精度の高い画質補正が可能となる。   For example, the operation when the vehicle 1400 is provided with a date / time information management unit 1412 for managing date / time information and time information and the time information is input as the in-vehicle information 21 to the image quality control unit 3c will be described. Note that the date / time information management unit 1412 may be shared with a unit that manages time information used for clock display in the vehicle 1400. In the first embodiment, day and night are estimated based on video analysis, but in this embodiment, environment estimation is performed using time information. For example, since it is possible to discriminate between day and night according to the time, a rough determination is made based on the time, and a morning / evening determination in the meantime is performed based on the video. As a result, it is possible to perform highly accurate image quality correction even in a time zone in which the brightness varies depending on the season.

また、例えば、画質制御部3cが、日時情報管理部1412から画質制御部3cとして時刻情報に加えて日時情報を取得する構成としてもよい。画質制御部3cは、取得した日付情報を用いて、図示しない記憶部に予め記憶した日付毎の日の出時刻情報、日の入り時刻情報を参照して、上記昼夜の判別処理に用いることも可能である。なお、記憶部に記憶する日の出時刻情報、日の入り時刻情報については、夏は日の出時刻が早く、日の入り時刻が遅く、冬は日の出時刻が遅く、日の入り時刻が早くなるように設定すればよい。   Further, for example, the image quality control unit 3c may acquire the date / time information in addition to the time information as the image quality control unit 3c from the date / time information management unit 1412. The image quality control unit 3c can be used for the day / night discrimination process by referring to the sunrise time information and sunset time information for each date stored in advance in a storage unit (not shown) using the acquired date information. The sunrise time information and sunset time information stored in the storage unit may be set so that the sunrise time is early, the sunset time is late in summer, the sunrise time is late, and the sunset time is early in winter.

また、車両1400に、天候情報を管理する天候情報管理部1414を設けて、車内情報21に天候情報を含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは取得した天候情報を用いて晴天/雨天/降雪などの判別を行い、画質制御のモードを変更することも可能である。なお、天候情報管理部1414は、車両1400が備える無線情報取得部1413を介して天候情報を取得すればよい。無線情報取得部1413による情報取得方式は、FM放送波、地上波、衛星放送などの放送波を介して情報を取得する方式でもよく、携帯電話網通信を介して情報を取得する方式でもよく、道路周辺に設置された電波ビーコン、光ビーコン等の装置から情報を受信する方式でも良い。   Further, the vehicle 1400 may be provided with a weather information management unit 1414 for managing weather information, and the in-vehicle information 21 may include the weather information and input to the image quality control unit 3c. In this case, the image quality control unit 3c can determine whether the weather is fine / rainy / falling snow using the acquired weather information and change the image quality control mode. The weather information management unit 1414 may acquire the weather information via the wireless information acquisition unit 1413 included in the vehicle 1400. The information acquisition method by the wireless information acquisition unit 1413 may be a method of acquiring information via broadcast waves such as FM broadcast waves, terrestrial waves, and satellite broadcasts, or may be a method of acquiring information via mobile phone network communication, A method of receiving information from devices such as a radio beacon and an optical beacon installed around the road may be used.

また、車両1400に、ワイパーの動作状態を管理するワイパー動作状態管理部1415を設けて、車内情報21にワイパーの動作情報を含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは、取得したワイパーの操作情報に基づいて晴天/雨天を判別してもよい。ワイパーの操作情報がワイパーが動作している状態を示す場合には、雨天と判別すればよい。   Further, the vehicle 1400 may be provided with a wiper operation state management unit 1415 that manages the operation state of the wiper, and the in-vehicle information 21 may be input to the image quality control unit 3c including the wiper operation information. In this case, the image quality control unit 3c may determine whether the weather is sunny or rainy based on the acquired wiper operation information. If the wiper operation information indicates that the wiper is operating, it may be determined that it is raining.

また、車両1400に、ライト(前照灯)の点灯状態を管理するライト点灯状態管理部1416を設けて、車内情報21にライト(前照灯)の点灯状態情報を含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは、取得したライトの点灯状態に基づいて上述の「暗環境」判別をおこなってもよい。すなわち、ライトの点灯状態情報が「ライト点灯」を示している場合には、「暗環境」と判定してもよい。   Further, the vehicle 1400 is provided with a light lighting state management unit 1416 for managing the lighting state of the light (headlight), and the image quality control unit 3c includes the lighting state information of the light (headlight) in the in-vehicle information 21. You may enter. In this case, the image quality control unit 3c may perform the above “dark environment” determination based on the acquired lighting state of the light. That is, when the lighting state information of the light indicates “light lighting”, it may be determined as “dark environment”.

また、車両1400が備える照度センサー1411によって取得する車外の環境光の照度情報を車内情報21に含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは、取得した環境光の照度情報に基づいて上述の「明環境」/「暗環境」判別をおこなえばよい。例えば、環境光の照度情報に格納される照度が所定値以上の場合には「明環境」と判断してもよい。また、環境光の照度情報に格納される照度が所定値より小さいの場合には「暗環境」と判断してもよい。   Further, the illuminance information of the ambient light outside the vehicle acquired by the illuminance sensor 1411 provided in the vehicle 1400 may be included in the in-vehicle information 21 and input to the image quality control unit 3c. In this case, the image quality control unit 3c may perform the above “bright environment” / “dark environment” determination based on the acquired illuminance information of the ambient light. For example, when the illuminance stored in the illuminance information of the ambient light is a predetermined value or more, it may be determined as “bright environment”. Further, when the illuminance stored in the illuminance information of the ambient light is smaller than a predetermined value, it may be determined as “dark environment”.

以上のとおり、車内情報21に含める判別基準となる情報について、複数種類の例を説明したが、これらの情報を複数組み合わせた判別処理を行ってもよい。例えば、上述の複数種類の判別規準のうち、一つでも「暗環境」(または「明環境」)を示せば、「暗環境」との判別(または「明環境」との判別)を確定してもよい。または、所定の数以上の判別規準が「暗環境」(または「明環境」)を示して、初めて「暗環境」との判別(または「明環境」との判別)を確定してもよい。   As described above, a plurality of types of examples have been described with respect to information serving as a determination criterion included in the in-vehicle information 21. However, a determination process in which a plurality of these pieces of information are combined may be performed. For example, if at least one of the above-mentioned multiple determination criteria indicates “dark environment” (or “bright environment”), the determination as “dark environment” (or “bright environment”) is confirmed. May be. Alternatively, a determination criterion of a predetermined number or more may indicate a “dark environment” (or “bright environment”), and determination of “dark environment” (or determination of “bright environment”) may be confirmed for the first time.

また、車内情報21に含める判別基準となる情報と実施例1に示した入力映像に基づく環境推定処理の結果を併用して判別結果を確定してもよい。例えば、車内情報21による判別結果と入力映像に基づく環境推定処理の結果とがともに「暗環境」(または「明環境」)を示した場合に、「暗環境」との判別(または「明環境」との判別)を確定してもよい。例えば、具体的には、例えば、入力映像に基づく環境推定処理の結果と車内情報21に含まれる時刻情報による判別結果を組み合わせて判別してもよい。また、入力映像に基づく環境推定処理の結果と車内情報21に含まれるライト(前照灯)の点灯状態情報による判別結果を組み合わせて判別してもよい。また、入力映像に基づく環境推定処理の結果と車内情報21に含まれる照度センサー1411が取得した車外の環境光の照度情報による判別結果を組み合わせて判別してもよい。   Further, the discrimination result may be determined by using the information as the discrimination criterion included in the in-vehicle information 21 and the result of the environment estimation process based on the input video shown in the first embodiment. For example, when both the determination result based on the in-vehicle information 21 and the result of the environment estimation process based on the input video indicate “dark environment” (or “bright environment”), the determination as “dark environment” (or “bright environment” Determination) may be confirmed. For example, specifically, for example, the result of the environment estimation process based on the input video and the determination result based on the time information included in the in-vehicle information 21 may be combined for determination. Moreover, you may discriminate | determine combining the result of the environment estimation process based on an input image | video, and the discrimination | determination result by the lighting state information of the light (headlamp) contained in the vehicle interior information 21. FIG. Further, the determination may be made by combining the result of the environment estimation process based on the input video and the determination result by the illuminance information of the ambient light outside the vehicle acquired by the illuminance sensor 1411 included in the in-vehicle information 21.

また、環境推定部2が、「夜間」「朝夕」「昼間(曇天)」「昼間(晴天)」など細分化した判定をお行う場合には、この推定結果と、時刻情報の内容、天候情報の内容が一致した場合に、判別結果を確定しても良い。   When the environment estimation unit 2 performs subdivided determinations such as “night”, “morning and evening”, “daytime (cloudy weather)”, and “daytime (fine weather)”, the estimation result, the contents of time information, and weather information If the contents match, the determination result may be confirmed.

以上説明した本発明の実施例4に係る映像処理技術によれば、車両装置からの情報を用いて、より好適な映像表示が可能となる。   According to the video processing technique according to the fourth embodiment of the present invention described above, more suitable video display can be performed using information from the vehicle device.

実施例5の構成例について図15を用いて説明する。1500は本発明の実施例5のシステムを搭載する車両である。図15において、カメラ部8及びカメラ部8bは、ともに車両の前方(必要であれば後方でもよい)を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成している。距離推定部22は距離推定部であり、2つの視差映像から映像の領域毎のカメラからの距離を推定する。2つの視差映像から距離を推定する方式は現存する技術を用いて構わない。その距離推定結果は、画質制御部3、画質制御部3bへ入力され、映像9および映像9bの画質補正制御に用いる。その際、映像中の距離が遠い領域と推定された領域は輪郭補正量を小さく、映像中の距離が近い領域と推定された領域は輪郭補正量を大きくするように制御する。この制御によれば、近い物体の輪郭を鮮明にすることができ、注意すべき物体の視認性を向上させることが可能となる。   A configuration example of the fifth embodiment will be described with reference to FIG. Reference numeral 1500 denotes a vehicle equipped with the system of the fifth embodiment of the present invention. In FIG. 15, the camera unit 8 and the camera unit 8b are both installed in a direction to image the front (or rear if necessary) of the vehicle, and are configured to shoot two viewpoint images with parallax. . The distance estimation unit 22 is a distance estimation unit, and estimates a distance from the camera for each video area from two parallax images. As a method for estimating the distance from two parallax images, an existing technique may be used. The distance estimation result is input to the image quality control unit 3 and the image quality control unit 3b and used for image quality correction control of the video 9 and the video 9b. At that time, control is performed so that the contour correction amount is small for a region that is estimated to be a long distance in the video, and the contour correction amount is large for a region that is estimated to be a short distance in the video. According to this control, the outline of a close object can be sharpened, and the visibility of an object to be noted can be improved.

以上説明した本発明の実施例5に係る映像処理技術によれば、入力映像を用いた距離推定結果を用いて、より好適な映像表示が可能となる。   According to the video processing technique according to the fifth embodiment of the present invention described above, a more preferable video display can be performed using the distance estimation result using the input video.

1 映像解析部
1a 輝度成分分析部
1b 色成分分析部
1c 輪郭成分分析部
2 環境推定部
3 画質制御部
4 画質補正部
4a ノイズ低減部
4b 輝度補正部
4c 輪郭補正部
4d 色補正部
5 画像合成部
6 映像処理装置
7 表示部
8 カメラ部
9 映像
10 映像分析結果
11 環境推定結果
12 画質制御信号
13 補正映像
14 合成映像
20 差分解析部
21 情報信号
22 距離推定部
100 車両
1200 車両
1300 車両
1400 車両
1411 照度センサ
1412 日時情報管理部
1413 ワイパー動作状態管理部
1414 ライト点灯状態管理部
1415 無線情報取得部
1416 天候情報管理部
1500 車両
DESCRIPTION OF SYMBOLS 1 Image | video analysis part 1a Luminance component analysis part 1b Color component analysis part 1c Contour component analysis part 2 Environment estimation part 3 Image quality control part 4 Image quality correction part 4a Noise reduction part 4b Brightness correction part 4c Contour correction part 4d Color correction part 5 Image composition Unit 6 Video processing device 7 Display unit 8 Camera unit 9 Video 10 Video analysis result 11 Environment estimation result 12 Image quality control signal 13 Corrected video 14 Composite video 20 Difference analysis unit 21 Information signal 22 Distance estimation unit 100 Vehicle 1200 Vehicle 1300 Vehicle 1400 Vehicle 1411 Illuminance sensor 1412 Date and time information management unit 1413 Wiper operation state management unit 1414 Light lighting state management unit 1415 Wireless information acquisition unit 1416 Weather information management unit 1500 Vehicle

Claims (21)

入力映像の信号成分を分析する映像分析部と、映像の分析結果に基づき撮影された環境を推定する環境推定部と、推定された環境に基づき入力される映像の補正を行う画質補正部とを備え、前記画質補正部は、前記環境推定部の推定結果に応じて、前記入力映像を補正することを特徴とする映像処理装置。   A video analysis unit that analyzes a signal component of an input video, an environment estimation unit that estimates a captured environment based on a video analysis result, and an image quality correction unit that corrects an input video based on the estimated environment The video processing apparatus is characterized in that the image quality correction unit corrects the input video according to an estimation result of the environment estimation unit. 前記映像分析部では、映像の輝度情報と色情報とエッジ情報のうち少なくとも1つ以上の情報をフレーム毎に分析することを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the video analysis unit analyzes at least one piece of information among luminance information, color information, and edge information of the video for each frame. 前記映像分析部では、映像の情報をヒストグラムにより分析することを特徴とする請求項2に記載の映像処理装置。   The video processing apparatus according to claim 2, wherein the video analysis unit analyzes video information using a histogram. 前記画質補正部では、ノイズ低減機能と輝度補正機能と輪郭補正機能と色補正機能のうち少なくとも1つ以上の補正機能を備えることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the image quality correction unit includes at least one correction function among a noise reduction function, a luminance correction function, a contour correction function, and a color correction function. 前記映像分析部において、映像の輝度が低い結果を得た場合には、前記画質補正部では輝度を上げるように補正することを特徴とする請求項1から請求項4に記載の映像処理装置。   5. The video processing apparatus according to claim 1, wherein when the video analysis unit obtains a result of low video brightness, the image quality correction unit performs correction so as to increase the brightness. 前記映像分析部において、映像の色成分の検出結果において、特定の色成分が所定値よりも大きいときに、前記画質補正部では、その色成分を下げるように補正することを特徴とする請求項1から請求項4に記載の映像処理装置。   The image analysis unit corrects the image quality correction unit to reduce the color component when a specific color component is larger than a predetermined value in the detection result of the color component of the image. The video processing device according to claim 1. 前記映像分析部において、映像のエッジ量の検出結果において、エッジ量が所定値よりも大きいときに、前記画質補正部では、エッジ成分を抑制するようにノイズ低減機能により補正することを特徴とする請求項1から請求項4に記載の映像処理装置。   In the image analysis unit, when the edge amount is larger than a predetermined value in the detection result of the edge amount of the image, the image quality correction unit performs correction by a noise reduction function so as to suppress the edge component. The video processing device according to claim 1. 入力された映像の環境を推定した結果として、複数の環境モードを設け、環境モードに応じて画質補正部の補正特性を制御することを特徴とする請求項1から請求項7に記載の映像処理装置。   8. The video processing according to claim 1, wherein a plurality of environmental modes are provided as a result of estimating the environment of the input video, and the correction characteristics of the image quality correction unit are controlled according to the environmental mode. apparatus. 映像からの環境推定結果に加え、時刻情報と日付情報と天候情報のうち少なくとも1つの情報を用いて画質補正部の補正特性を制御することを特徴とする請求項1から請求項7に映像処理装置。   8. The video processing according to claim 1, wherein the correction characteristic of the image quality correction unit is controlled using at least one of time information, date information, and weather information in addition to the environment estimation result from the video. apparatus. 映像からの環境推定結果に加え、車のライトの操作情報とワイパーの操作情報のうち少なくとも1つの情報を用いて画質補正部の補正特性を制御することを特徴とする請求項1から請求項7に記載の映像処理装置。   8. The correction characteristic of the image quality correction unit is controlled using at least one of the operation information of the car light and the operation information of the wiper in addition to the environment estimation result from the video. The video processing apparatus described in 1. 入力された複数の映像のうち少なくとも2つが視差映像であるとき、この2つの視差映像から映像中の物体の距離を推定する距離推定部を備え、距離推定結果に基づき画質補正部の制御を行うことを特徴とする請求項1から請求項7に記載の映像処理装置。   When at least two of the plurality of input images are parallax images, a distance estimation unit that estimates the distance of an object in the images from the two parallax images is provided, and the image quality correction unit is controlled based on the distance estimation result The video processing apparatus according to claim 1, wherein the video processing apparatus is a video processing apparatus. 入力された複数の映像のうち少なくとも2つが視差映像であるとき、この2つの視差映像から映像中の物体の距離を推定する距離推定部を備え、距離推定結果に基づき画質補正部の制御を行う際に、距離が遠いと推定される映像領域よりも、距離が近いと推定される映像領域の輪郭補正量を大きくするように制御することを特徴とする請求項1から請求項7に記載の映像処理装置。   When at least two of the plurality of input images are parallax images, a distance estimation unit that estimates the distance of an object in the images from the two parallax images is provided, and the image quality correction unit is controlled based on the distance estimation result 8. The control according to claim 1, wherein the control is performed such that the contour correction amount of the video region estimated to be near is larger than the video region estimated to be far away. Video processing device. N個(Nは1以上の整数)の映像信号が入力され、これらN個の映像の成分を分析するN個の映像分析部と、N個の映像分析部のうち所定の1つの分析結果に基づき撮影された環境を推定する環境推定部と、推定された環境に基づき入力される映像の補正を行うN個の画質補正部と、映像の表示を行う映像表示部を備え、N個の画質補正した映像のうち所望の1つを選択するかまたはN個の映像を合成して出力する映像切替え手段を介して映像表示部へ表示することを特徴とする映像表示装置。   N (N is an integer greater than or equal to 1) video signals are input, N video analysis units for analyzing the components of these N video images, and a predetermined one analysis result among the N video analysis units. An environment estimation unit that estimates a captured environment, N image quality correction units that correct a video input based on the estimated environment, and a video display unit that displays a video. A video display apparatus, wherein a desired one of corrected videos is selected or displayed on a video display unit through video switching means for synthesizing and outputting N videos. N個(Nは1以上の整数)の映像信号が入力され、N個の映像のうち所定の1つの映像の成分を分析する映像分析部と、映像の分析結果に基づき撮影された環境を推定する環境推定部と、映像の補正を行うN個の画質補正部と、N個の画質補正した映像のうち所望の1つを選択するかまたはN個の映像を合成して出力する映像切替え手段と、映像の表示を行う映像表示部を備え、
前記N個の画質補正部は、前記環境推定部で推定された環境に基づき映像補正を行なうことを特徴とする映像表示装置。
N video signals (N is an integer equal to or greater than 1) are input, and a video analysis unit that analyzes a component of a predetermined video among the N video images, and an estimated environment based on the video analysis result And an N image quality correction unit that corrects the video, and a video switching unit that selects a desired one of the N image quality corrected videos or synthesizes and outputs the N videos. And a video display unit for displaying video,
The N image quality correction units perform video correction based on the environment estimated by the environment estimation unit.
N個(Nは1以上の整数)の映像信号が入力され、N個の映像の成分を分析する映像分析部と、N個の映像分析部のうち所定の1つの映像分析結果に基づき撮影された環境を推定する環境推定部と、前記環境推定に用いた映像の成分とその他の映像の成分の差を検出する(N−1)個の映像差分解析部と、映像の補正を行うN個の画質補正部と、N個の画質補正した映像のうち所望の1つを選択するかまたはN個の映像を合成して出力する映像切替え手段と、映像の表示を行う映像表示部を備え、
前記N個の画質補正部は、環境推定に用いた映像の補正を前記環境推定部で推定された環境に基づき行ない、その他の映像については、推定された環境と前記映像差分解析部の差分解析結果に基づき補正することを特徴とする映像表示装置。
N video signals (N is an integer equal to or greater than 1) are input and shot based on a video analysis unit that analyzes the components of N video images and a predetermined video analysis result among the N video analysis units. An environment estimation unit for estimating the environment, (N-1) video difference analysis units for detecting a difference between the video component used for the environment estimation and other video components, and N for video correction An image quality correction unit, a video switching unit that selects a desired one of N video quality-corrected videos or synthesizes and outputs N videos, and a video display unit that displays a video,
The N image quality correction units correct the video used for the environment estimation based on the environment estimated by the environment estimation unit, and for other videos, the difference analysis between the estimated environment and the video difference analysis unit. An image display device, wherein correction is performed based on the result.
請求項1乃至請求項7に記載の映像処理装置が前記画質補正部で処理した映像を表示する表示部を更に備え、映像表示装置を構成する映像表示装置。   8. A video display device that further includes a display unit that displays the video processed by the image quality correction unit by the video processing device according to claim 1, and constitutes a video display device. 入力された映像の環境を推定した結果として、複数の環境モードを設け、環境モードに応じて画質補正部の補正特性を制御することを特徴とする請求項13から請求項16に記載の映像表示装置。   The video display according to any one of claims 13 to 16, wherein a plurality of environmental modes are provided as a result of estimating the environment of the input video, and the correction characteristics of the image quality correction unit are controlled according to the environmental modes. apparatus. 映像からの環境推定結果に加え、時刻情報と日付情報と天候情報のうち少なくとも1つの情報を用いて画質補正部の補正特性を制御することを特徴とする請求項13から請求項16に記載の映像表示装置。   17. The correction characteristic of the image quality correction unit is controlled using at least one of time information, date information, and weather information in addition to the environment estimation result from the video. Video display device. 映像からの環境推定結果に加え、車のライトの操作情報とワイパーの操作情報のうち少なくとも1つの情報を用いて画質補正部の補正特性を制御することを特徴とする請求項13から請求項16に記載の映像表示装置。   17. The correction characteristic of the image quality correction unit is controlled using at least one of the operation information of the vehicle light and the operation information of the wiper in addition to the environment estimation result from the video. The video display device described in 1. 入力された複数の映像のうち少なくとも2つが視差映像であるとき、この2つの視差映像から映像中の物体の距離を推定する距離推定部を備え、距離推定結果に基づき画質補正部の制御を行うことを特徴とする請求項13から請求項16に記載の映像表示装置。   When at least two of the plurality of input images are parallax images, a distance estimation unit that estimates the distance of an object in the images from the two parallax images is provided, and the image quality correction unit is controlled based on the distance estimation result The video display device according to claim 13, wherein the video display device is a video display device. 入力された複数の映像のうち少なくとも2つが視差映像であるとき、この2つの視差映像から映像中の物体の距離を推定する距離推定部を備え、距離推定結果に基づき画質補正部の制御を行う際に、距離が遠いと推定される映像領域よりも、距離が近いと推定される映像領域の輪郭補正量を大きくするように制御することを特徴とする請求項13から請求項16に記載の映像表示装置。   When at least two of the plurality of input images are parallax images, a distance estimation unit that estimates the distance of an object in the images from the two parallax images is provided, and the image quality correction unit is controlled based on the distance estimation result 17. The control according to claim 13, wherein control is performed such that the contour correction amount of the video region estimated to be near is larger than the video region estimated to be far away. Video display device.
JP2012033527A 2012-02-20 2012-02-20 Video display device Active JP5865726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012033527A JP5865726B2 (en) 2012-02-20 2012-02-20 Video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012033527A JP5865726B2 (en) 2012-02-20 2012-02-20 Video display device

Publications (2)

Publication Number Publication Date
JP2013172224A true JP2013172224A (en) 2013-09-02
JP5865726B2 JP5865726B2 (en) 2016-02-17

Family

ID=49265922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012033527A Active JP5865726B2 (en) 2012-02-20 2012-02-20 Video display device

Country Status (1)

Country Link
JP (1) JP5865726B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039278A1 (en) * 2015-08-31 2017-03-09 (주)큐알온텍 Device and method for controlling images of vehicular black box
JP2017220876A (en) * 2016-06-10 2017-12-14 アイシン精機株式会社 Periphery monitoring device
WO2018003937A1 (en) * 2016-06-30 2018-01-04 アイキューブド研究所株式会社 Video signal processing device, video signal processing method, and program
JP2018006943A (en) * 2016-06-30 2018-01-11 アイシン精機株式会社 Vehicle periphery monitoring device
JP2020155827A (en) * 2019-03-18 2020-09-24 本田技研工業株式会社 Visible device and visible method

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123165A (en) * 1998-10-19 2000-04-28 Canon Inc Image processor and its method
JP2001008195A (en) * 1999-06-24 2001-01-12 Mitsubishi Motors Corp Device for monitoring rear part of vehicle
JP2001320616A (en) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2002216125A (en) * 2001-01-23 2002-08-02 Toshiba Corp Image correcting device and its method
JP2005202878A (en) * 2004-01-19 2005-07-28 Toyota Motor Corp Object detector
JP2006311031A (en) * 2005-04-27 2006-11-09 Sanyo Electric Co Ltd Imaging apparatus for moving body
JP2007156792A (en) * 2005-12-05 2007-06-21 Nissan Motor Co Ltd Vehicle peripheral image display device
JP2007263669A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2007329762A (en) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd Apparatus and method for detecting object candidate area, walker recognition apparatus, and vehicle controller
JP2008035069A (en) * 2006-07-27 2008-02-14 Matsushita Electric Ind Co Ltd Video signal processor
JP2009017457A (en) * 2007-07-09 2009-01-22 Fujifilm Corp Compound eye photographic apparatus and method of adjusting the same
JP2009031874A (en) * 2007-07-24 2009-02-12 Toyota Motor Corp Warning apparatus
JP2011160117A (en) * 2010-01-29 2011-08-18 Fujitsu Ten Ltd Image processor and image processing method
JP2011160019A (en) * 2010-01-29 2011-08-18 Fujitsu Ten Ltd Image compositing device and image compositing method
JP2011254311A (en) * 2010-06-02 2011-12-15 Aisin Seiki Co Ltd Vehicle peripheral image processor
JP2011254339A (en) * 2010-06-03 2011-12-15 Hitachi Ltd Imaging apparatus
JP2012019399A (en) * 2010-07-08 2012-01-26 For-A Co Ltd Stereoscopic image correction device, stereoscopic image correction method, and stereoscopic image correction system

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123165A (en) * 1998-10-19 2000-04-28 Canon Inc Image processor and its method
JP2001008195A (en) * 1999-06-24 2001-01-12 Mitsubishi Motors Corp Device for monitoring rear part of vehicle
JP2001320616A (en) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2002216125A (en) * 2001-01-23 2002-08-02 Toshiba Corp Image correcting device and its method
JP2005202878A (en) * 2004-01-19 2005-07-28 Toyota Motor Corp Object detector
JP2006311031A (en) * 2005-04-27 2006-11-09 Sanyo Electric Co Ltd Imaging apparatus for moving body
JP2007156792A (en) * 2005-12-05 2007-06-21 Nissan Motor Co Ltd Vehicle peripheral image display device
JP2007263669A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2007329762A (en) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd Apparatus and method for detecting object candidate area, walker recognition apparatus, and vehicle controller
JP2008035069A (en) * 2006-07-27 2008-02-14 Matsushita Electric Ind Co Ltd Video signal processor
JP2009017457A (en) * 2007-07-09 2009-01-22 Fujifilm Corp Compound eye photographic apparatus and method of adjusting the same
JP2009031874A (en) * 2007-07-24 2009-02-12 Toyota Motor Corp Warning apparatus
JP2011160117A (en) * 2010-01-29 2011-08-18 Fujitsu Ten Ltd Image processor and image processing method
JP2011160019A (en) * 2010-01-29 2011-08-18 Fujitsu Ten Ltd Image compositing device and image compositing method
JP2011254311A (en) * 2010-06-02 2011-12-15 Aisin Seiki Co Ltd Vehicle peripheral image processor
JP2011254339A (en) * 2010-06-03 2011-12-15 Hitachi Ltd Imaging apparatus
JP2012019399A (en) * 2010-07-08 2012-01-26 For-A Co Ltd Stereoscopic image correction device, stereoscopic image correction method, and stereoscopic image correction system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039278A1 (en) * 2015-08-31 2017-03-09 (주)큐알온텍 Device and method for controlling images of vehicular black box
JP2017220876A (en) * 2016-06-10 2017-12-14 アイシン精機株式会社 Periphery monitoring device
WO2018003937A1 (en) * 2016-06-30 2018-01-04 アイキューブド研究所株式会社 Video signal processing device, video signal processing method, and program
JP2018006943A (en) * 2016-06-30 2018-01-11 アイシン精機株式会社 Vehicle periphery monitoring device
CN109417647A (en) * 2016-06-30 2019-03-01 I<sup>3</sup>研究所股份有限公司 Image signal processor, video-signal processing method and program
JPWO2018003937A1 (en) * 2016-06-30 2019-05-23 アイキューブド研究所株式会社 Video signal processing apparatus, video signal processing method, and program
US11025833B2 (en) 2016-06-30 2021-06-01 I-Cubed Research Center Inc. Video signal processing apparatus, video signal processing method, and program for performing video signal processing in consideration of behavior of light in nature
JP2020155827A (en) * 2019-03-18 2020-09-24 本田技研工業株式会社 Visible device and visible method

Also Published As

Publication number Publication date
JP5865726B2 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
US11910123B2 (en) System for processing image data for display using backward projection
US20070263090A1 (en) Method and Apparatus for Automatic Exposure of an In-Vehicle Camera
JP5865726B2 (en) Video display device
US8515196B1 (en) Systems and methods for processing infrared images
US10193627B1 (en) Detection of visible light communication sources over a high dynamic range
CN110463194B (en) Image processing apparatus, image processing method, and image capturing apparatus
US8077995B1 (en) Infrared camera systems and methods using environmental information
US10704957B2 (en) Imaging device and imaging method
KR102392221B1 (en) An image processing apparatus, and an imaging apparatus, and an image processing system
JP2009157087A (en) Exposure control apparatus and exposure control program
US9214034B2 (en) System, device and method for displaying a harmonized combined image
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
US11172173B2 (en) Image processing device, image processing method, program, and imaging device
JP2011250376A (en) Vehicle periphery image display device
US10516848B2 (en) Image processing device
WO2011000392A1 (en) Method and camera system for improving the contrast of a camera image
JP2004312402A (en) System and apparatus for road monitoring
JP2013026950A (en) Image processing device and image processing program
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
JP2016166794A (en) Image creating apparatus, image creating method, program for image creating apparatus, and image creating system
JP6593581B2 (en) Image quality adjusting device and camera unit
CN113840123B (en) Image processing device of vehicle-mounted image and automobile
WO2011155228A1 (en) Image display device
US10102436B2 (en) Image processing device, warning device and method for processing image
CN109788211B (en) Captured image display system, electronic mirror system, and captured image display method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140723

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R150 Certificate of patent or registration of utility model

Ref document number: 5865726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250