JP2007129277A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2007129277A
JP2007129277A JP2005317795A JP2005317795A JP2007129277A JP 2007129277 A JP2007129277 A JP 2007129277A JP 2005317795 A JP2005317795 A JP 2005317795A JP 2005317795 A JP2005317795 A JP 2005317795A JP 2007129277 A JP2007129277 A JP 2007129277A
Authority
JP
Japan
Prior art keywords
image processing
shadow
image
shooting
twilight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005317795A
Other languages
Japanese (ja)
Other versions
JP4678649B2 (en
Inventor
Takako Kai
孝子 甲斐
Atsuyoshi Andou
淳禎 安藤
Kenji Kodama
賢二 兒玉
Teruo Shimomura
照雄 下村
Kunikazu Takahashi
国和 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005317795A priority Critical patent/JP4678649B2/en
Publication of JP2007129277A publication Critical patent/JP2007129277A/en
Application granted granted Critical
Publication of JP4678649B2 publication Critical patent/JP4678649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for more surely recognizing a photographing environment thereby carrying out image processing adapted thereto. <P>SOLUTION: A method adopted by the image processor recognizes a position of the sun directly affecting a shadow, recognizes a three-dimensional structure of buildings around a photographing area, obtains the shadow to be formed, specifies an area of an imaged image receiving the effect of the shadow on the basis of the obtained shadow and the photographing area, and can apply shadow correction image processing to the area, and can more properly execute the shadow correction image processing in comparison with a method wherein a shadow correction object area is specified from a photographed image and shadow correction image processing is carried out, or a method wherein shadow correction image processing is applied to the whole photographing image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は屋外に設置された撮像装置で撮影された時の環境条件を求め、撮影環境に応じた画像補正をそれぞれの撮影画像に行う画像処理装置に関する。   The present invention relates to an image processing apparatus that obtains environmental conditions when shooting is performed with an imaging apparatus installed outdoors and performs image correction on each captured image according to the shooting environment.

本発明の画像処理装置の背景技術が、特許第3359729号明細書及び特許第3550874号明細書に記載されており、順次説明する。   The background art of the image processing apparatus of the present invention is described in Japanese Patent No. 3359729 and Japanese Patent No. 3550874, and will be described in order.

まず、特許第3359729号明細書に記載される背景技術は、撮像装置から入力した画像に対し、画像処理と画像認識処理を利用して車両認識を行い、その結果に基づいて車両台数、車両速度、車両の時間占有率、車両の空間占有率及びこれらの値を用いて演算される諸量の内の少なくとも一つの車両計測処理を行う交通流自動計測方法において、撮像装置から入力した画像の放射強度によるヒストグラムを統計処理し、その統計処理後の放射強度によるヒストグラムをニューラルネットワークに入力し、交通流の自動計測に必要なパラメータをニューラルネットワークから出力させて、この出力値を用いて車両計測処理を行う交通流自動計測方法である。   First, the background art described in the specification of Japanese Patent No. 3359729 performs vehicle recognition using image processing and image recognition processing on an image input from an imaging device, and the number of vehicles and vehicle speed based on the results. In a traffic flow automatic measurement method for performing at least one vehicle measurement process among vehicle time occupancy, vehicle space occupancy, and various amounts calculated using these values, radiation of an image input from an imaging device The histogram based on the intensity is statistically processed, the histogram based on the radiation intensity after the statistical processing is input to the neural network, and the parameters necessary for automatic traffic flow measurement are output from the neural network, and the vehicle measurement processing is performed using this output value. This is an automatic traffic flow measurement method.

この背景技術となる交通流自動計測方法によれば、晴天、曇天、雨天での道路の画像から得られる放射強度によるヒストグラムを統計処理し、ニューラルネットワークの入力として与えることで、画像認識処理のアルゴリズム選択やパラメータ選択の自動化を実現でき、交通流計測を自動化できる。   According to this automatic traffic flow measurement method, which is the background technology, the histogram of the radiation intensity obtained from road images in fine weather, cloudy weather, and rainy weather is statistically processed and given as an input to the neural network. Automatic selection and parameter selection can be realized, and traffic flow measurement can be automated.

次に、特許第3550874号明細書に記載される背景技術は、撮像装置で撮影した画像を入力する画像入力手段と、前記画像内の特定の指定領域の輝度平均値を求める輝度検出手段と、前記撮像装置の露出情報を補助情報として用いて、前記指定領域の輝度平均値から昼夜の判定を行う昼夜判定手段と、前記昼夜判定手段での判定結果に基づいて昼間時と夜間時とで異なる画像処理技術を用いて前記画像から対象物を認識する認識手段とを備える監視装置である。   Next, the background art described in Japanese Patent No. 3550874 includes an image input unit that inputs an image captured by an imaging device, a luminance detection unit that calculates a luminance average value of a specific designated area in the image, Using the exposure information of the imaging device as auxiliary information, the day / night determination means for performing day / night determination from the luminance average value of the designated area, and the daytime and nighttime are different based on the determination result by the day / night determination means And a recognizing unit that recognizes an object from the image using an image processing technique.

この背景技術となる監視装置によれば、画像の全体領域ではなく特定の指定領域の輝度平均値から昼夜の判定を行い、この判定結果に基づいて昼夜で異なる画像処理技術を用いて対象物を認識する。従って、指定領域を適切に設定すれば指定領域以外は昼夜の判定の対象とならないため、対象物に対する周囲の環境の影響を低減させることができ、それによって昼夜の判定精度が向上するので、対象物の認識精度および監視精度の向上を図ることができる。さらに、昼夜の切り替え付近(早朝・薄暮)では撮像装置の絞りは解放となり、シャッタ速度は最低となるので、この情報を用いることによって昼間で輝度分散値が大きくなったときの誤判定を低減することができる。
特許第3359729号明細書 特許第3550874号明細書
According to the monitoring device as the background art, determination of day and night is performed from the luminance average value of a specific designated area instead of the entire area of the image, and an object is detected using different image processing techniques day and night based on the determination result. recognize. Therefore, if the designated area is set appropriately, the area other than the designated area will not be subject to day / night judgment, and the influence of the surrounding environment on the object can be reduced, thereby improving the day / night judgment accuracy. The recognition accuracy and monitoring accuracy of an object can be improved. In addition, the aperture of the image pickup device is released near the switching between day and night (early morning and twilight), and the shutter speed becomes the lowest. Using this information reduces erroneous determination when the luminance dispersion value increases during the daytime. be able to.
Japanese Patent No. 3359729 Japanese Patent No. 3550874

前記特許第3359729号明細書に記載される交通流自動計測方法では、晴天、曇天、雨天を判断して画像認識処理のアルゴリズムを選択したり、パラメータを選択したりすることができるものの、撮影環境を晴天、曇天、雨天という大まかな分類に分けて処理するため、より高い精度を求める場合には十分でないという課題を有する。例えば、晴天であっても、撮像装置が配設された撮影環境が逆光条件下にある場合、撮影環境が薄暮条件下にある場合、撮影領域が影になっている場合等では撮影画像が受ける影響も大きく、このような撮影画像に対してはより適切な画像処理が必要となる。   In the automatic traffic flow measurement method described in the specification of Japanese Patent No. 3359729, an image recognition processing algorithm can be selected and parameters can be selected by judging sunny, cloudy, and rainy weather. Is divided into rough classifications such as fine weather, cloudy weather, and rainy weather, and is therefore not sufficient when higher accuracy is required. For example, even in fine weather, a photographed image is received when the photographing environment in which the imaging device is disposed is under backlight conditions, when the photographing environment is in a twilight condition, or when the photographing region is in shadow. The influence is great, and more appropriate image processing is required for such a captured image.

また、特許第3550874号明細書に記載される監視装置では、撮像装置の絞り及びシャッタ速度に基づき昼間で輝度分散値が大きくなった場合でも正しく判定することができるものの、これらの判定は撮影画像、撮影時の撮像装置の絞り及びシャッタ速度に依存しており、これらの条件が同じで実際の環境条件が異なる場合には誤った画像処理を行うことになるという課題を有する。つまり、これらの条件では確実に環境条件を把握することが難しい。   Further, in the monitoring device described in the specification of Japanese Patent No. 3550874, although it is possible to correctly determine the luminance dispersion value in the daytime based on the aperture and shutter speed of the imaging device, these determinations are performed on the captured image. Depending on the aperture and shutter speed of the image pickup apparatus at the time of shooting, there is a problem that erroneous image processing is performed when these conditions are the same and actual environmental conditions are different. In other words, it is difficult to reliably grasp environmental conditions under these conditions.

本発明は前記課題を解決するためになされたものであり、より確実に撮影環境を把握し、それに合致した画像処理を施す画像処理装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus that more reliably grasps a shooting environment and performs image processing that matches the shooting environment.

(1) 本発明に係る画像処理装置は、所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度を取得する太陽高度取得手段と、取得した太陽の高度から撮影日時に撮影場所での薄暮判定を実施する薄暮判定手段と、薄暮判定の結果薄暮であると判定された場合に撮影画像に対して薄暮を補正する画像処理を施す薄暮補正画像処理手段とを備えるものである。   (1) An image processing apparatus according to the present invention includes a solar altitude acquisition unit that acquires the altitude of the sun based on the shooting date and time and the latitude and longitude of a shooting location of a target shooting image shot by an imaging device that shots a predetermined shooting area. , A twilight determination means for determining the twilight at the shooting location at the shooting date and time from the altitude of the acquired sun, and image processing for correcting twilight on the photographed image when it is determined that the twilight is determined as twilight And twilight correction image processing means.

(2) 本発明に係る画像処理装置は、所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の方位を取得する太陽方位取得手段と、取得した太陽の方位及び撮像装置の方位から撮像装置の逆光判定を実施する逆光判定手段と、逆光判定の結果逆光であると判定された場合に撮影画像に対して逆光を補正する画像処理を施す逆光補正画像処理手段とを備えるものである。   (2) An image processing apparatus according to the present invention includes a sun azimuth obtaining unit that obtains the azimuth of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target shooting image shot by the imaging device that shots the predetermined shooting area. Back light determination means for performing back light determination of the imaging device from the acquired orientation of the sun and the orientation of the imaging device, and image processing for correcting the back light with respect to the photographed image when it is determined that the back light is determined to be back light. And a backlight correction image processing means to be applied.

(3) 本発明に係る画像処理装置は、所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度及び方位を取得する太陽高度方位取得手段と、少なくとも撮像装置の撮影領域に影を落とす可能性のある撮像装置の配置場所周辺の建造物の3次元情報を各撮像装置毎に記録する周辺建造物3次元情報記憶手段と、対象撮像装置の周辺建造物の3次元情報並びに取得した太陽の高度及び方位に基づき形成される影を求め、求めた影に基づき撮影領域に影が形成されるかの影判定を実施する影判定手段と、影判定の結果影の影響があると判定された場合に撮影画像中影の影響を受けた領域に対して影を補正する画像処理を施す影補正画像処理手段とを備えるものである。   (3) The image processing apparatus according to the present invention acquires the altitude and direction of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target shooting image shot by the imaging device that shots the predetermined shooting area. An acquisition unit; a three-dimensional information storage unit for surrounding buildings that records, for each imaging device, three-dimensional information about a building around the location where the imaging device is likely to cast a shadow on at least the imaging region of the imaging device; Shadow determination means for determining a shadow to be formed based on the three-dimensional information of the surrounding building of the imaging device and the acquired sun altitude and direction, and determining whether a shadow is formed in the imaging region based on the determined shadow And shadow correction image processing means for performing image processing for correcting the shadow on the area affected by the shadow in the captured image when it is determined that there is an influence of the shadow as a result of the shadow determination.

(4) 本発明に係る画像処理装置は必要に応じて、撮影日時の撮影場所の照度が所定閾値以下である場合には判定及び/又は補正の画像処理を実施しないものである。   (4) The image processing apparatus according to the present invention does not perform determination and / or correction image processing when the illuminance at the shooting location at the shooting date and time is equal to or less than a predetermined threshold, as necessary.

(5) 本発明に係る画像処理装置は必要に応じて、対象撮影画像が所定撮影領域を通過する車両を撮影する撮像装置で撮影された画像であり、補正する画像処理を施された対象撮影画像から車両色を認識する車両色認識手段を新たに備えるものである。
これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。
(5) The image processing apparatus according to the present invention is an image of an object photographed by an image pickup apparatus for photographing a vehicle in which a target photographed image passes through a predetermined photographing region as necessary and subjected to correction image processing. Vehicle color recognition means for recognizing the vehicle color from the image is newly provided.
These outlines of the invention do not enumerate the features essential to the present invention, and a sub-combination of these features can also be an invention.

ここで、本発明は多くの異なる形態で実施可能である。したがって、下記の実施形態の記載内容のみで解釈すべきではない。また、実施形態の全体を通して同じ要素には同じ符号を付けている。
実施形態では、主に装置について説明するが、所謂当業者であれば明らかな通り、本発明はコンピュータで使用可能なプログラム、システム、方法としても実施できる。また、本発明は、ハードウェア、ソフトウェア、または、ソフトウェア及びハードウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD−ROM、DVD−ROM、光記憶装置または磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することができる。
Here, the present invention can be implemented in many different forms. Therefore, it should not be interpreted only by the description of the following embodiment. Also, the same reference numerals are given to the same elements throughout the embodiment.
In the embodiment, the apparatus will be mainly described. However, as is apparent to those skilled in the art, the present invention can also be implemented as a program, system, and method usable on a computer. In addition, the present invention can be implemented in hardware, software, or software and hardware embodiments. The program can be recorded on any computer-readable medium such as a hard disk, CD-ROM, DVD-ROM, optical storage device, or magnetic storage device. Furthermore, the program can be recorded on another computer via a network.

(本発明の第1の実施形態)
本発明の第1の実施形態に係る画像処理装置について、図に基づき説明する。
[1.システム構成]
図1は本実施形態に係る撮影環境の説明図である。本実施形態では撮像装置10を商業施設内に敷設された道路脇に配置し、商業施設管理室内に画像処理装置200を配置している。商業施設内の複数出入口にそれぞれ配置された撮像装置10で撮影された撮影画像は、撮像装置10と画像処理装置200を結ぶ通信路を介して画像処理装置200に送信され、画像処理装置200は受信した撮影画像に情報処理を施して撮影画像に写り込んでいる車両色を認識して出力する。管理者が操作する管理コンピュータ30で出力された車両色を集計する。このようにして管理コンピュータ30で集計された車両色はマーケッティング等で使用される。なお、撮像装置10は商業施設内の複数出入口に配置され、商業施設内に入場してくる車両を対象として撮影を行っている。
(First embodiment of the present invention)
An image processing apparatus according to a first embodiment of the present invention will be described with reference to the drawings.
[1. System configuration]
FIG. 1 is an explanatory diagram of a shooting environment according to the present embodiment. In the present embodiment, the imaging device 10 is disposed on the side of a road laid in a commercial facility, and the image processing device 200 is disposed in the commercial facility management room. Captured images taken by the imaging devices 10 respectively arranged at a plurality of entrances and exits in a commercial facility are transmitted to the image processing device 200 via a communication path connecting the imaging device 10 and the image processing device 200, and the image processing device 200 Information processing is performed on the received captured image to recognize and output the vehicle color reflected in the captured image. The vehicle colors output from the management computer 30 operated by the administrator are totaled. Thus, the vehicle color totaled by the management computer 30 is used for marketing or the like. In addition, the imaging device 10 is arrange | positioned in the multiple entrance / exit in a commercial facility, and is image | photographing the vehicle which enters in a commercial facility.

図2は本実施形態に係るシステム構成図及び画像処理装置のハードウェア構成図である。画像処理装置200のハードウェアの構成は、一般のコンピュータの構成であり、CPU(Central Processing Unit)210、DRAM(Dynamic Random Access Memory)220等のメインメモリ、外部記憶装置であるHD(hard disk)230、表示装置であるディスプレイ240、入力装置であるキーボード250及びマウス260、ネットワークに接続するための拡張カードであるLANカード270、CD−ROMドライブ280等からなる。つまり、CD−ROM等の記憶媒体に格納された画像処理プログラム、または、ネットワークを介して他のコンピュータから送信される画像処理プログラムを、コンピュータのHD230に複製しメインメモリ220に適切に読み出し可能な状態にするインストールが実行され、一般のコンピュータが画像処理装置を構成している。なお、一般のコンピュータではなく画像処理に特化したハードウェアを用いて画像処理装置を構成することもできる。具体的には、車両判別装置上のロジックをASIC(Application Specific IC)で実装し、メモリ等の複数のLSIと共にシステムLSIで画像処理装置を構成することもできる。
管理コンピュータ30もハードウェアの構成は、画像処理装置200と同様に、一般のコンピュータの構成である。ここで、画像処理装置200と管理コンピュータ30とを同一のコンピュータ上に構築することもできる。
FIG. 2 is a system configuration diagram and a hardware configuration diagram of the image processing apparatus according to the present embodiment. The hardware configuration of the image processing apparatus 200 is a configuration of a general computer, a main memory such as a CPU (Central Processing Unit) 210 and a DRAM (Dynamic Random Access Memory) 220, and an HD (hard disk) that is an external storage device. 230, a display 240 as a display device, a keyboard 250 and a mouse 260 as input devices, a LAN card 270 as an expansion card for connecting to a network, a CD-ROM drive 280, and the like. That is, an image processing program stored in a storage medium such as a CD-ROM or an image processing program transmitted from another computer via a network can be copied to the HD 230 of the computer and appropriately read out to the main memory 220. The installation to be performed is executed, and a general computer constitutes the image processing apparatus. Note that the image processing apparatus can be configured using hardware specialized for image processing instead of a general computer. Specifically, the logic on the vehicle discriminating apparatus can be implemented by an ASIC (Application Specific IC), and the image processing apparatus can be configured by a system LSI together with a plurality of LSIs such as a memory.
Similarly to the image processing apparatus 200, the management computer 30 has a hardware configuration similar to that of a general computer. Here, the image processing apparatus 200 and the management computer 30 can be constructed on the same computer.

図3は本実施形態に係る画像処理コンピュータのブロック構成図である。画像処理コンピュータ200は、撮像装置10からの撮影画像、撮影日時、照度、撮影場所識別情報を取り込む入力手段211と、撮像装置の経度・緯度及び撮影日時から撮影場所の撮影日時の太陽の高度及び方位角を求める太陽高度方位算出手段212と、照度から撮影日時に撮影場所が曇りか否かを判定する曇り判定手段213と、求めた太陽の高度及び方位角から撮影日時に撮影場所で撮影領域が影に含まれるか否かを判定する影判定手段214と、太陽の方位角から撮影日時に撮像装置10が逆光条件にあるか否かを判定する逆光判定手段215と、撮影日時に撮影場所が薄暮であるか否かを判定する薄暮判定手段216と、曇り判定手段213、影判定手段214、逆光判定手段215、薄暮判定手段216の判定結果に基づき対象撮影画像に画像処理を施す画像処理手段217と、必要に応じて画像処理が施された撮影画像から車両色を認識する車両色認識手段218と、認識した車両色、処理後の撮影画像、処理前の撮影画像、撮影日時及び撮影場所識別情報を管理コンピュータ30に出力する出力手段219とを備える構成である。   FIG. 3 is a block diagram of the image processing computer according to the present embodiment. The image processing computer 200 includes an input unit 211 that captures a photographed image, photographing date / time, illuminance, and photographing location identification information from the imaging device 10, and the solar altitude and the shooting date / time of the photographing location from the longitude / latitude and the photographing date / time of the imaging device. A solar altitude azimuth calculating means 212 for obtaining an azimuth angle, a cloudiness determining means 213 for determining whether or not the shooting location is cloudy from the illuminance at the shooting date and time, and a shooting area at the shooting location from the calculated sun altitude and azimuth at the shooting date and time. , A shadow determination unit 214 that determines whether or not the image is included in the shadow, a backlight determination unit 215 that determines whether or not the imaging device 10 is in the backlight condition at the shooting date and time from the azimuth angle of the sun, and a shooting location at the shooting date and time Based on the determination results of the twilight determination means 216 for determining whether or not the sky is twilight, the cloudiness determination means 213, the shadow determination means 214, the backlight determination means 215, and the twilight determination means 216. Image processing means 217 for performing image processing on the photographed image, vehicle color recognition means 218 for recognizing the vehicle color from the photographed image subjected to image processing as necessary, recognized vehicle color, photographed image after processing, and processing The output unit 219 outputs the previous captured image, the captured date and time, and the captured location identification information to the management computer 30.

[2.太陽高度方位算出]
太陽の高度、方位は次の式(1)ないし(9)より求めることができる。ここで、λを撮像装置の配置場所の経度とし、φを配置場所の緯度とし、Tを時刻変数とし、J2000.0(2000年1月1日力学時正午)からの経過日数をKとし、黄道傾角をεとし、恒星時をΘとし、0時からの経過時間をd(日の少数)とし、太陽の赤経をαとし、赤緯をδとし、太陽の時角をtとし、太陽の方位角をAとし、太陽の高度をhとする。
[2. Solar altitude bearing calculation]
The altitude and direction of the sun can be obtained from the following equations (1) to (9). Here, λ is the longitude of the location of the imaging device, φ is the latitude of the location, T is a time variable, and K is the number of days that have elapsed since J2000.0 (noon at 1st of January 2000) The ecliptic inclination is ε, the stellar time is Θ, the elapsed time from 0 o'clock is d (a small number of days), the solar red longitude is α, the declination is δ, the solar hour angle is t, Let A be the azimuth angle and h be the altitude of the sun.

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

なお、黄経λ、黄緯βから赤経α、赤緯δを求める式を以下に示す。太陽の黄緯がβ=0であることから、(11)ないし(13)の式を用いて赤経α、赤緯δを求めることができる(6)および(7)の式を導出できる。   Formulas for obtaining red longitude α and red latitude δ from the longitude longitude λ and longitude latitude β are shown below. Since the sun's longitude is β = 0, the equations (6) and (7) can be derived by using the equations (11) to (13) to obtain the red longitude α and the declination δ.

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

また、太陽の視黄経λS及び距離rは次式(14)ないし(16)で求めることができる。 Further, the solar visual meridian λ S and the distance r can be obtained by the following equations (14) to (16).

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

Figure 2007129277
Figure 2007129277

太陽高度方位算出については、次の書籍に詳しい。(長沢工、「日の出・日の入りの計算」、地人書館)
ただし、ここで示した式による太陽の方位角及び高度を求める以外の方法でも太陽の方位角及び高度を求めることもでき、一例である。他例としては、理科年表を利用した太陽の方位角及び高度の求め方も存在する。
For more information on calculating the solar altitude, see the following book. (Nagasaki Works, “Sunrise / Sunset Calculation”, Jinshokan)
However, the azimuth angle and altitude of the sun can be obtained by a method other than obtaining the azimuth angle and altitude of the sun according to the formula shown here, which is an example. As another example, there is a method of obtaining the azimuth angle and altitude of the sun using a scientific chronology.

[3.曇り判定]
曇り判定手段213は照度計11からの照度が(時刻によって異なる)閾値以下で日中の場合、「曇り」と判断する。影判定手段214、逆光判定手段215及び薄暮判定手段216で判定するまでもなく、光に関する環境影響(逆光、薄暮、建造物影)は生じないため、特別な画像補正を画像処理手段217で行うことなく色認識処理を色認識手段218で行う。
一方、照度が閾値より大きい場合には光に関する環境影響が大きいため、環境影響に応じた画像補正が必要である。
[3. Cloudiness judgment]
When the illuminance from the illuminometer 11 is equal to or less than a threshold value (which varies depending on the time) and is daytime, the cloudiness determination unit 213 determines “cloudiness”. There is no need to make a determination by the shadow determination unit 214, the backlight determination unit 215, and the twilight determination unit 216, and no environmental influences on the light (backlight, twilight, building shadow) occur, so that special image correction is performed by the image processing unit 217. The color recognition unit 218 performs the color recognition process without any problem.
On the other hand, when the illuminance is larger than the threshold value, the environmental influence on light is large, and therefore image correction according to the environmental influence is necessary.

一般的に影が生じる条件は強い光源が一つあるような場合で、光の偏りが存在している状態である。そこで、照度計を複数個設置し各照度を取得することが好ましい。そして、照度の差がすべて一定範囲内である場合は照度の差が無い、つまり光の偏りがなく影が生じない状態となる。他に、撮影日時の照度だけでなく撮影時刻前又は撮影時刻後の照度を測定し、測定結果から照度の変化がなければ光の偏りがない状態であると判断することもできる。   In general, the shadowing condition is when there is one strong light source, and there is a light bias. Therefore, it is preferable to install a plurality of illuminance meters and acquire each illuminance. When all the illuminance differences are within a certain range, there is no illuminance difference, that is, there is no light bias and no shadow is produced. In addition, not only the illuminance at the photographing date and time but also the illuminance before or after the photographing time is measured, and if there is no change in the illuminance, it can be determined that there is no light bias.

「照度の単位([lx(ルクス)])」は「光があたっている表面の単位面積当たりの光束の量」である。したがって、その照度計の配置場所にどれだけの光が届いているのかを示す。1[lx]は1[m2]の面積に1[lm(ルーメン)]の光束が入射しているときの照度を示す。ここで、「lm」は光の量を示す単位である。この他、光の強さを示す「cd(カンデラ)」、光源が広がりを持っているとき、光減免の明るさを示す「nt(ニト)cd/m2」がある。カンデラは光源からある方向にどれだけの光の量が出ているかを示す。1[ニト]は1[m2]あたり1[cd]の輝度である。 “Unit of illuminance ([lx (lux)])” is “amount of luminous flux per unit area of the surface that is exposed to light”. Therefore, it shows how much light reaches the place where the illuminometer is placed. 1 [lx] indicates the illuminance when a light beam of 1 [lm (lumen)] is incident on an area of 1 [m 2 ]. Here, “lm” is a unit indicating the amount of light. In addition, there is “cd (candela)” indicating the intensity of light, and “nt (nit) cd / m 2 ” indicating the brightness of light reduction / exemption when the light source has a spread. The candela indicates how much light is emitted in a certain direction from the light source. 1 [Nito] is a luminance of 1 [cd] per 1 [m 2 ].

[4.影判定]
周囲の建造物の影が撮影領域に写り込むと被写体(車両)に影がかかり、本来の色より暗く撮影されてしまう。そこで建造物の影の影響を除去するために、建造物の影を計算する。
図4及び図5は本実施形態に係る影判定の説明図である。まず、xyz軸をもつ三次元座標において、原点を撮影領域の中心にとる。カメラ設置場所周辺の建造物の各頂点を(x,y,z)の値に変換したテーブルを持つ(図4(b)及び図5(a)参照)。ここで、建造物の構造が複雑な場合はそれを包含する立方体の頂点とすることもできる。
[4. Shadow judgment]
When shadows of surrounding buildings appear in the shooting area, the subject (vehicle) is shaded, and the image is taken darker than the original color. Therefore, in order to remove the influence of the shadow of the building, the shadow of the building is calculated.
4 and 5 are explanatory diagrams of shadow determination according to the present embodiment. First, in a three-dimensional coordinate having an xyz axis, the origin is set at the center of the imaging region. It has a table in which each vertex of the building around the camera installation location is converted into a value of (x, y, z) (see FIGS. 4B and 5A). Here, when the structure of the building is complicated, it can be the vertex of a cube that includes the structure.

図4(a)中の式に、前説[2.太陽高度方位算出]で求めた撮影日時の太陽の高度と、建造物の上面の各頂点の高さとを入力し、影の長さを求める。太陽の方位の反対方向が影の落ちる方向となり、建造物の下面の各頂点を起点に(太陽の方位+180[°])方向に、それぞれの頂点に対応する建造物の上面の各頂点に係る影の長さ分離れた地点が影の頂点となる。そして、影の頂点で囲まれた領域が影の領域となる(図5(b)ないし(d)参照)。   In the equation in FIG. Input the altitude of the sun at the shooting date and time obtained in [Calculation of solar altitude direction] and the height of each vertex of the top surface of the building, and obtain the length of the shadow. The opposite direction of the sun's direction is the direction in which the shadow falls, and it relates to each vertex on the top surface of the building corresponding to each vertex in the direction (sun direction +180 [°]) starting from each vertex on the bottom surface of the building The point separated by the length of the shadow becomes the vertex of the shadow. A region surrounded by the vertexes of the shadow becomes a shadow region (see FIGS. 5B to 5D).

影判定手段214はこのようにして求めた影の領域とカメラ撮影領域とから、影の領域にカメラ撮影領域が含まれるか否かを判定する。カメラ撮影領域が影の領域に含まれる場合には、さらに、カメラ撮影領域中で影の領域に含まれる領域を特定する。
日影計算については、次の書籍に詳しい。(日照計画研究会、「日影図作成の演習と実務」、彰国社)
The shadow determination means 214 determines whether or not the camera shooting area is included in the shadow area from the shadow area and the camera shooting area thus obtained. When the camera shooting area is included in the shadow area, an area included in the shadow area in the camera shooting area is further specified.
For details on shadow calculation, see the following book. (Nissho Planning Study Group, “Shadow Map Creation Practice and Practice”, Shokokusha)

[5.薄暮判定]
薄暮判定手段216は、前説[2.太陽高度方位算出]で求めた撮影日時の太陽高度が−50[分]ないし−6[度]の場合に、薄暮であると判定する。
[5. Twilight judgment]
The twilight determination means 216 is the same as the previous [2. When the solar altitude at the photographing date and time obtained in the calculation of solar altitude direction is -50 [minutes] to -6 [degrees], it is determined that the sky is dusk.

[6.逆光判定]
図6は本実施形態に係る逆行判定の説明図である。逆光判定手段215は、撮影(カメラ)方向と被写体(車両)を基準として0[°]としたとき、前説[2.太陽高度方位算出]で求めた撮影日時の太陽の方位角から相対的な角度を求めることができる。この相対的な角度が所定の角度範囲にある場合に逆光条件になる。図6に示すように、逆光、順光、横方向からの照射に分類することもできる。逆光判定手段215が逆光であるか否かを判定する。
太陽とカメラの位置関係が判明しているため、単純に逆光か否かを判定して逆光条件の場合に画像処理を施すだけでなく、どの程度の逆光であるのかを特定し、それに応じた画像処理を施すことで、より高い精度の実際の車両色を取り戻すことができる。
[6. Backlight judgment]
FIG. 6 is an explanatory diagram of the retrograde determination according to the present embodiment. When the backlight determination unit 215 sets 0 [°] with respect to the shooting (camera) direction and the subject (vehicle) as a reference, the description [2. The relative angle can be obtained from the azimuth angle of the sun at the shooting date and time obtained in [Solar altitude azimuth calculation]. When this relative angle is within a predetermined angle range, the backlight condition is met. As shown in FIG. 6, it can also be classified into backlight, forward light, and irradiation from the lateral direction. The backlight determining means 215 determines whether or not the backlight is backlit.
Since the positional relationship between the sun and the camera is known, it is not only simple to determine whether the backlight is backlit, but not only to perform image processing in the case of backlighting conditions, but also to determine how much backlighting is in accordance with it By performing image processing, it is possible to recover the actual vehicle color with higher accuracy.

[7.画像処理]
[7.1 影判定時の画像処理]
算出した建造物影の部分が中心座標周辺(カメラの撮影領域)と重なる場合、重なる領域の濃度補正を行う。ここで、濃度補正を行う際、前記照度に応じて補正の強度を変更する。照度が大きい場合は影が濃く出やすく、補正の強度を増す必要がある。
[7. Image processing]
[7.1 Image processing during shadow determination]
When the calculated building shadow portion overlaps the center coordinate periphery (camera shooting region), the density correction of the overlapping region is performed. Here, when density correction is performed, the correction intensity is changed according to the illuminance. When the illuminance is high, shadows tend to appear dark, and it is necessary to increase the intensity of correction.

[7.2 逆光判定時の画像処理]
暗部を見えやすくするために、暗部の輝度を明るくする補正を行う。補正は画像全体を一様に輝度を明るくする処理を用いてもよいし、暗部のみ明るくする処理(例えば、ヒストグラム処理)を用いてもよい。
画像処理手段217は、逆光の強度に応じて車体部分の輝度を上げるフィルタをかける。逆光の強度が強い場合には補正の強度も強くし、逆光の強さが弱い場合には補正の強度を標準とする。
明るくする補正は、様々な周知技術が存在し当業者は種々の周知技術を採ることができ、ここでは詳細な説明は省略する。なお、ヒストグラム処理については、次の書籍に詳しい。(高木幹雄、「画像解析ハンドブック」、東京大学出版会)
[7.2 Image Processing for Backlight Determination]
In order to make the dark part easy to see, correction is performed to increase the brightness of the dark part. For the correction, a process for uniformly increasing the brightness of the entire image may be used, or a process for increasing only the dark part (for example, a histogram process) may be used.
The image processing means 217 applies a filter that increases the luminance of the vehicle body portion according to the intensity of the backlight. When the backlight intensity is high, the correction intensity is also increased. When the backlight intensity is weak, the correction intensity is set as a standard.
There are various well-known techniques for the brightening correction, and those skilled in the art can adopt various well-known techniques, and detailed description thereof is omitted here. The histogram processing is detailed in the following book. (Mikio Takagi, “Image Analysis Handbook”, The University of Tokyo Press)

[7.3 薄暮判定時の画像処理]
薄暮における画像処理としては、ノイズ除去処理及び明るさ補正の処理を行う。
薄暮時においては撮影対象の照度が不足し、照度不足に起因して画像にノイズが混入する場合があるため、そのノイズを除去するためにノイズ除去処理がなされる。ノイズ除去には、メジアンフィルタ、ぼかし等の画像処理フィルタを用いることができる。
[7.3 Image processing during twilight determination]
As image processing in twilight, noise removal processing and brightness correction processing are performed.
At twilight time, the illuminance of the object to be photographed is insufficient, and noise may be mixed into the image due to insufficient illuminance. Therefore, noise removal processing is performed to remove the noise. For noise removal, an image processing filter such as a median filter or blur can be used.

また、薄暮時の照度不足を補うために、明るさ補正の処理を行う。画像の全体バランスを保ちながら見やすくする処理として、例えば、ヒストグラム平均化の処理、単純に明度を明るくする処理を用いることができる。
ここで、逆光且つ薄暮の場合には、光量が少ないため逆光となり難く、薄暮の影響が大きいため、逆光のための画像処理を施すことなく、薄暮のための画像処理を施すのみで対応することもできる。
In addition, brightness correction processing is performed to compensate for the lack of illuminance during twilight. As a process for making it easy to see while maintaining the overall balance of the image, for example, a histogram averaging process or a process of simply increasing the brightness can be used.
Here, in the case of backlight and twilight, it is difficult to be backlit because the amount of light is small, and the influence of twilight is large, so it is possible to cope with only the image processing for twilight without performing image processing for backlight. You can also.

ノイズ除去処理及び明るさ補正は、様々な周知技術が存在し当業者は種々の周知技術を採ることができ、ここでは詳細な説明は省略する。なお、ぼかしフィルタについては、次の書籍に詳しい。(高木幹雄、「画像解析ハンドブック」、東京大学出版会)また、メジアンフィルタについては、次の刊行物に詳しい。(TS Huang、GY Yang、and GY Tang. 「IEEE TRANSACTIONS ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING, VOL. ASP-27, NO. 1」、FEBRUARY 1979)   There are various well-known techniques for noise removal processing and brightness correction, and those skilled in the art can adopt various well-known techniques, and detailed description thereof is omitted here. The blur filter is detailed in the following book. (Mikio Takagi, “Image Analysis Handbook”, The University of Tokyo Press) The median filter is well-known in the following publications. (TS Huang, GY Yang, and GY Tang. “IEEE TRANSACTIONS ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING, VOL. ASP-27, NO. 1”, FEBRUARY 1979)

図7は本実施形態に係る都市係数及び薄暮定義の説明図である。図7(a)に示すように矩形領域毎に都市係数が定まっており、この都市係数に基づき薄暮補正の画像処理を行うことでより精度の高い撮影画像とすることができる。本実施形態では、画像処理手段217は、薄暮判定手段215により薄暮と判定され、撮影時刻が朝方で都市係数が大きい場合には赤み補正を行い、撮影時刻が朝方で都市係数が小さい場合には青み補正を行い、撮影時刻が夕方で都市係数が大きい場合には赤み補正を強く行い、撮影時刻が夕方で都市係数が小さい場合には初期値の赤み補正を行う。図7(b)は薄暮の種類を示している。 FIG. 7 is an explanatory diagram of city coefficients and twilight definitions according to this embodiment. As shown in FIG. 7A, a city coefficient is determined for each rectangular area. By performing image processing for twilight correction based on the city coefficient, a captured image with higher accuracy can be obtained. In the present embodiment, the image processing unit 217 determines that the twilight is determined to be twilight by the twilight determination unit 215, performs redness correction when the shooting time is morning and the city coefficient is large, and when the shooting time is morning and the city coefficient is small. Blueness correction is performed. When the shooting time is evening and the city coefficient is large, redness correction is performed strongly, and when the shooting time is evening and the city coefficient is small, redness correction of the initial value is performed. FIG. 7B shows the types of twilight.

[7.4 オートゲインコントロール]
図8が本実施形態に係るオートゲインコントロールOFF時の補正処理の説明図である。撮像装置10側でオートゲインコントロール(AGC:Auto Gain Control)の設定がOFFになっている場合には、高輝度、低輝度に偏った画像になる。したがって、以下のようにストレッチングすることで補正が可能となる。
通常、撮像装置10では、オートゲインコントロール機能及びホワイトバランス機能が回路として実装されている。
[7.4 Auto Gain Control]
FIG. 8 is an explanatory diagram of correction processing when the automatic gain control is OFF according to the present embodiment. When auto gain control (AGC) is set to OFF on the imaging apparatus 10 side, the image is biased toward high luminance and low luminance. Therefore, correction is possible by stretching as follows.
Usually, in the imaging apparatus 10, an auto gain control function and a white balance function are mounted as a circuit.

オートゲインコントロール機能は、CCDカメラで撮影されるアナログ信号の包絡線の高さが一定の範囲内に収まるように補正を行う機能である。高輝度の画像の場合は画像全体の輝度を下げ、低輝度の画像の場合には画像全体の輝度を上げる。CCDカメラの実装上は出力信号の電力の大きさを制御する。   The auto gain control function is a function for performing correction so that the height of the envelope of the analog signal photographed by the CCD camera is within a certain range. In the case of a high brightness image, the brightness of the whole image is lowered, and in the case of a low brightness image, the brightness of the whole image is raised. The power of the output signal is controlled on the mounting of the CCD camera.

ホワイトバランス(AWB:white balance)は光源の色温度による見え方の違いを自動で補正する機能である。どのような光の下でも適切な白色を再現する。つまり、撮影時の画面の中央部分の色を混ぜ合わせると白になるようにRGBの値を調整する。
このオートゲインコントロール機能及びホワイトバランス機能を経てアナログ信号(コンポジット信号:輝度と色信号を合わせて一つの信号にしたもの)がA/Dコンバータに出力され、最終的にJPEGとして撮像装置10から出力される。
White balance (AWB) is a function that automatically corrects the difference in appearance depending on the color temperature of the light source. Reproduces the appropriate white color under any light. That is, the RGB values are adjusted so that the color of the central portion of the screen at the time of shooting is mixed to become white.
Through this auto gain control function and white balance function, an analog signal (composite signal: a signal obtained by combining luminance and color signals) is output to the A / D converter, and finally output from the imaging device 10 as JPEG. Is done.

[8.動作]
図9は本実施形態に係る画像処理装置の全体フローチャートである。図10は本実施形態に係る画像処理装置の詳細フローチャートである。図11は本実施形態に係る画像処理装置のオートゲインのフローチャートである。
各撮像装置の緯度及び経度は撮影場所識別情報となるカメラの地点番号と共に緯度・経度テーブルで記録されている(図1(b)参照)。
プロセッサ210(入力部211)が、撮影画像、対応する撮影日時、対応する照度、対応する撮影場所識別情報を1組取り込む。
[8. Operation]
FIG. 9 is an overall flowchart of the image processing apparatus according to this embodiment. FIG. 10 is a detailed flowchart of the image processing apparatus according to this embodiment. FIG. 11 is a flowchart of auto gain of the image processing apparatus according to this embodiment.
The latitude and longitude of each imaging device are recorded in the latitude / longitude table together with the camera spot number serving as shooting location identification information (see FIG. 1B).
The processor 210 (input unit 211) captures a set of captured images, corresponding shooting dates and times, corresponding illuminance, and corresponding shooting location identification information.

プロセッサ210は撮影画像がグレイスケール画像であるか否かを判定する(ステップ100)。撮像装置10は昼間はカラーで撮影画像を撮影し、夜間は赤外光を用いてグレイスケール画像で撮影している。グレイスケール画像の場合には、後記の色認識で正確な色を認識することが困難であり、候補色を特定する処理を行っている。
以降の処理を高速化させるために、プロセッサ210は撮影画像の画像サイズを縮小化する(ステップ200)。このように撮像画像の画像サイズを縮小化することにより後続処理を高速化している。
The processor 210 determines whether the captured image is a gray scale image (step 100). The imaging device 10 captures a photographed image in color during the daytime and a grayscale image using infrared light at night. In the case of a gray scale image, it is difficult to recognize an accurate color by color recognition described later, and processing for specifying a candidate color is performed.
In order to speed up the subsequent processing, the processor 210 reduces the image size of the captured image (step 200). Thus, the subsequent processing is speeded up by reducing the image size of the captured image.

プロセッサ210は撮影環境を把握し、画像処理を施す(ステップ300)。ここでのプロセッサ210の処理は、本発明の本質的部分を含むため詳細を後記する。
プロセッサ210はRGBの撮影画像を、HSI変換する(ステップ400)。色認識した場合の出力として、RGB値よりも色相値が表示される方が使用者が色を把握し易いために変換を行っている。
プロセッサ210は車体撮影位置を指定する(ステップ500)。 プロセッサ210は色認識を行う(ステップ600)。
The processor 210 grasps the shooting environment and performs image processing (step 300). Since the processing of the processor 210 here includes an essential part of the present invention, details will be described later.
The processor 210 performs HSI conversion on the RGB captured image (step 400). Conversion is performed because it is easier for the user to grasp the color when the hue value is displayed than the RGB value as an output when the color is recognized.
The processor 210 designates the vehicle body shooting position (step 500). The processor 210 performs color recognition (step 600).

以降、前記ステップ300の画像処理を詳細に図10に基づき説明する。
撮影日時と撮影地点を示す撮影場所識別情報は撮影画像ファイルのファイル名の一部となっており、プロセッサ210はファイル名から撮影日時及び撮影場所識別情報を取得する(ステップ301)。
プロセッサ210(太陽高度方位算出手段212)は、撮影場所識別情報に基づき緯度・経度テーブルから対象とする撮像装置10の経度及び緯度を取得し、この経度及び緯度と、識別撮影日時とから、前説[2.太陽高度方位算出]で説明した計算方法で太陽の高度及び方位角を求める(ステップ311)。
プロセッサ210(曇り判定手段213)は、前説[3.曇り判定]の判定を行う(ステップ321)。曇りでない、すなわち、影がないと判定された場合には、終了してステップ400に進む。
Hereinafter, the image processing in step 300 will be described in detail with reference to FIG.
The shooting location identification information indicating the shooting date and the shooting location is a part of the file name of the shot image file, and the processor 210 acquires the shooting date and shooting location identification information from the file name (step 301).
The processor 210 (solar altitude direction calculation means 212) acquires the longitude and latitude of the target imaging device 10 from the latitude / longitude table based on the shooting location identification information. [2. The altitude and azimuth angle of the sun are obtained by the calculation method described in [Solar altitude azimuth calculation] (step 311).
The processor 210 (cloudiness determination means 213) is the same as that described in [3. Cloudiness determination] is performed (step 321). If it is not cloudy, that is, if it is determined that there is no shadow, the process ends and proceeds to step 400.

前記ステップ321で影があると判定された場合には、プロセッサ210(影判定手段214)は、前説[4.影判定]で説明したように、建造物の影を計算し、影の領域にカメラ撮影領域が含まれるか否かを判定する(ステップ331)。影の領域に含まれると判定した場合には、プロセッサ210(画像処理手段217)が前説[7.1 影判定時の画像処理]で説明した画像処理を実行する(ステップ332)。   If it is determined in step 321 that there is a shadow, the processor 210 (shadow determination means 214) determines that the previous [4. As described in [Shadow determination], the shadow of the building is calculated, and it is determined whether or not the camera shooting area is included in the shadow area (step 331). If it is determined that the image is included in the shadow area, the processor 210 (image processing means 217) executes the image processing described in the previous section [7.1 Image processing during shadow determination] (step 332).

前記ステップ331で影の領域に含まれないと判定された後に、または、ステップ332の後に、プロセッサ210(薄暮判定手段216)は薄暮の閾値の範囲内であるか否かを判定する(ステップ341)。このステップ341の前に地形情報から薄暮となる高度の閾値を調整するステップを挿入することもできる。   After it is determined in step 331 that it is not included in the shadow area, or after step 332, the processor 210 (the twilight determination means 216) determines whether or not it is within the range of the twilight threshold (step 341). ). Before this step 341, a step of adjusting a threshold value of altitude at which twilight falls from terrain information can be inserted.

薄暮の閾値の範囲内であると判定された場合には、該当領域の都市係数を用いて薄暮補正の画像処理に用いる補正係数を調整する(ステップ351)。プロセッサ210は撮影時刻が早朝の時間帯か否かを判定し(ステップ352)、早朝であると判定された場合には前説[7.3 薄暮判定時の画像処理]の明け方の補正処理をプロセッサ210(画像処理手段217)が実行する(ステップ353)。早朝でなく夕暮れであると判定された場合には前説[7.3 薄暮判定時の画像処理]の夕暮れの補正処理をプロセッサ210(画像処理手段217)が実行する(ステップ354)。   If it is determined that it is within the range of the twilight threshold, the correction coefficient used for image processing for twilight correction is adjusted using the city coefficient of the corresponding region (step 351). The processor 210 determines whether or not the shooting time is in the early morning time zone (step 352). If it is determined that the shooting time is in the early morning, the processor performs the dawn correction processing in the previous section [7.3 Image processing at twilight determination]. 210 (image processing means 217) executes (step 353). When it is determined that it is not early morning but dusk, the processor 210 (image processing means 217) executes the dusk correction process described in the previous section [7.3 Image processing during twilight determination] (step 354).

前記ステップ341で薄暮の閾値の範囲内でないと判定された場合には、プロセッサ210(逆光判定手段215)がカメラの方位と太陽の方位とからその差を求め(ステップ361)、逆光の方位、高度であるか否かを判定する(ステップ362)。逆光の方位、高度でないと判定された場合には終了して、ステップ400に進む。逆行の方位、高度であると判定された場合には、プロセッサ210(画像処理手段217)が前説[7.2 逆光判定時の画像処理]での画像処理を実行する(ステップ363)。ここで、ステップ362では、太陽の高度までを逆光判定の判断の要素としているが太陽の方位のみを用いて逆行判定を実施するように構成することもできる。
ステップ353、ステップ354、ステップ362及びステップ363の終了後、ステップ400に進む。
If it is determined in step 341 that it is not within the twilight threshold range, the processor 210 (backlight determination means 215) determines the difference from the camera orientation and the sun orientation (step 361), and the backlight orientation, It is determined whether or not the altitude is high (step 362). If it is determined that the azimuth and the altitude of the backlight are not, the process ends and proceeds to step 400. If it is determined that the heading is in the backward direction and the altitude, the processor 210 (image processing means 217) executes the image processing in the previous [7.2 Image processing during backlight determination] (step 363). Here, in step 362, up to the altitude of the sun is used as an element for determining the backlight, but it is also possible to perform the backward determination using only the direction of the sun.
After step 353, step 354, step 362, and step 363 are completed, the process proceeds to step 400.

プロセッサ210(出力手段219)が認識した車両色、画像処理後の撮影画像、撮影日時、撮影場所識別情報を管理コンピュータ30に出力する。管理コンピュータ30ではこれらの車両色がそれぞれの色で集計され、車両色と車両数からなるデータが更新される。ここで、画像処理前の撮影画像、画像処理後の撮影画像、撮影日時、撮影場所識別情報、照度、車両色を属性として有するデータベースを構成することもできる。特に、画像処理前の撮影画像と画像処理後の撮影画像を対比して管理コンピュータ30のディスプレイに表示することもできる。 The vehicle color recognized by the processor 210 (output means 219), the captured image after image processing, the shooting date and time, and the shooting location identification information are output to the management computer 30. In the management computer 30, these vehicle colors are totaled in the respective colors, and data including the vehicle color and the number of vehicles is updated. Here, it is also possible to configure a database having as attributes the photographed image before image processing, the photographed image after image processing, the photographing date and time, photographing location identification information, illuminance, and vehicle color. In particular, the captured image before image processing and the captured image after image processing can be compared and displayed on the display of the management computer 30.

[10.本実施形態の効果]
このように本実施形態に係る画像処理装置によれば、太陽の高度及び方位角を求め、従来に比べより正確に環境条件(逆光、影がかかっている、薄暮)を把握し、それぞれの環境条件に合致した画像処理がなされた後に、車両色を認識するので、より正確に車両色を認識することができる。
[10. Effects of this embodiment]
As described above, according to the image processing apparatus according to the present embodiment, the altitude and azimuth angle of the sun are obtained, the environmental conditions (backlight, shadow, dusk) are grasped more accurately than in the past, and the respective environments are determined. Since the vehicle color is recognized after image processing that matches the conditions, the vehicle color can be recognized more accurately.

(その他の実施形態)
[オートゲイン及びホワイトバランス]
前記第1の実施形態においては、オートゲイン及びホワイトバランスを撮像装置10で行わなかった場合に、それぞれ、オートゲインコントロールの補正処理、ホワイトバランスの補正処理を実行することもできる。
(Other embodiments)
[Auto gain and white balance]
In the first embodiment, when auto gain and white balance are not performed by the imaging apparatus 10, auto gain control correction processing and white balance correction processing can be executed, respectively.

例えば、次のように第1の実施形態に処理を組み込むことができる。次のステップ701ないしステップ704の処理を、例えば、図10のステップ301の前に挿入することができる。プロセッサ210が撮像装置10からオートゲインコントロールを実施しているか否かを示すフラグを受信し設定がONか否かを判定し(図11参照。ステップ701)、設定がオフであればオートゲインコントロールの補正処理を実行し(ステップ702)、設定がオンであれば何もしない。   For example, processing can be incorporated into the first embodiment as follows. The processing of the next steps 701 to 704 can be inserted before, for example, step 301 in FIG. The processor 210 receives a flag indicating whether or not auto gain control is being performed from the imaging apparatus 10 and determines whether or not the setting is ON (see FIG. 11; step 701). If the setting is OFF, auto gain control is performed. Correction processing is executed (step 702), and if the setting is on, nothing is done.

同様に、プロセッサ210が撮像装置10からホワイトバランスを実施しているか否かを示すフラグを受信し設定がONか否かを判定し(ステップ703)、設定がオフであればホワイトバランスの補正処理を実行し(ステップ704)、設定がオンであれば何もしない。   Similarly, the processor 210 receives a flag indicating whether or not the white balance is being executed from the imaging apparatus 10 and determines whether or not the setting is ON (step 703). If the setting is OFF, the white balance correction process is performed. (Step 704). If the setting is on, nothing is done.

[影補正画像処理]
撮影領域中影と重複する部分について撮影画像を影補正の画像処理を施しているが、より詳細には車両が立体的であるため影の境目が車両にかかっている場合には影もその影響を受け、影の境目は直線状でなく若干の曲折を有して略直線状となるため、影補正の画像処理において曲折を考慮することでより精度高い画像を得ることができる。具体的には、車両の場合であれば車両のエッジを検出し前記若干の曲折を算出する方法、また、特定されている影領域とRGBの値、色相、明度、彩度の少なくとも一つとからより正確に影領域を特定し直してその後に影補正の画像処理を施す方法をとることができる。
また、車両色認識に関しては影領域を避けた部分の車両色を認識することでより正確に車両色を認識することができる。この場合には影補正の画像処理を施さなくてもよい。
[Shadow correction image processing]
Shadow correction is applied to the captured image for the part that overlaps the shadow in the shooting area, but more specifically, since the vehicle is three-dimensional, if the shadow border is on the vehicle, the shadow also affects that effect. Since the boundary between the shadows is not linear but has a slight bend and is substantially straight, an image with higher accuracy can be obtained by considering the bend in the image processing for shadow correction. Specifically, in the case of a vehicle, a method of calculating the slight bend by detecting the edge of the vehicle, and also from a specified shadow region and at least one of RGB value, hue, brightness, and saturation. A method can be adopted in which the shadow region is specified again more accurately and image processing for shadow correction is performed thereafter.
Further, regarding the vehicle color recognition, it is possible to recognize the vehicle color more accurately by recognizing the part of the vehicle color that avoids the shadow area. In this case, it is not necessary to perform image processing for shadow correction.

[曇り判定]
前記第1の実施形態においては、閾値以下か否かで「曇り」であるか否かを判定し、曇り判定で「曇り」と判定されると以降の影判定、薄暮判定、逆光判定を実施せず、補正の画像処理も施すことなく車両色を認識する構成となっていたが、照度が第1の閾値以上か否かを判定し第1の閾値以上であれば影判定を行い、照度が第2の閾値以上か否かを判定し第2の閾値以上であれば薄暮判定を行い、照度が第3の閾値以上か否かを判定し第3の閾値以上であれば逆行判定を行う構成にすることもできる。すなわち、詳細には撮影画像に影響を与える影、薄暮、逆光はそれぞれ照度の閾値が異なり、それぞれに照度の閾値を設けることでより正確な処理を実施することができる。
[Cloudiness judgment]
In the first embodiment, whether or not it is “cloudy” is determined by whether or not it is equal to or less than a threshold value, and if it is determined to be “cloudy” by the cloudiness determination, subsequent shadow determination, twilight determination, and backlight determination are performed. In addition, the vehicle color is recognized without performing correction image processing, but it is determined whether the illuminance is equal to or higher than the first threshold value. Is determined to be greater than or equal to a second threshold, and if it is greater than or equal to the second threshold, twilight determination is performed. If the illuminance is greater than or equal to the third threshold, determination is made to perform retrograde determination. It can also be configured. That is, in detail, shadow, twilight, and backlight that affect a captured image have different illuminance threshold values, and more accurate processing can be performed by providing an illuminance threshold value for each.

以上の前記各実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、これら各実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。   Although the present invention has been described with the above embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments, and various modifications or improvements can be added to these embodiments. . And embodiment which added such a change or improvement is also contained in the technical scope of the present invention. This is apparent from the claims and the means for solving the problems.

[付記] 上記実施形態に関し、更に以下の付記を開示する。
(付記1) 所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度を取得する太陽高度取得手段と、取得した太陽の高度から撮影日時に撮影場所での薄暮判定を実施する薄暮判定手段と、
薄暮判定の結果薄暮であると判定された場合に撮影画像に対して薄暮を補正する画像処理を施す薄暮補正画像処理手段とを備える画像処理装置。
[Appendix] The following appendices are further disclosed with respect to the embodiment.
(Appendix 1) Solar altitude acquisition means for acquiring the altitude of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target shooting image shot by the imaging device that shoots the predetermined shooting area, and shooting from the acquired sun altitude Twilight judgment means for carrying out twilight judgment at the shooting place during the day,
An image processing apparatus comprising twilight correction image processing means for performing image processing for correcting twilight on a captured image when it is determined that twilight is twilight as a result of twilight determination.

したがって、画像からおおよそ薄暮と想定される場合に薄暮補正の画像処理を行うのではなく、薄暮に直接影響を与える太陽の位置を把握した後に薄暮と判定した場合にのみ薄暮補正の画像処理を行うので、薄暮を見誤ることなく正確に薄暮の場合に薄暮補正の画像処理を実行することができる。   Therefore, do not perform twilight correction image processing when it is estimated that the twilight is about from the image, but only perform twilight correction image processing when it is determined that twilight is after determining the position of the sun that directly affects twilight. Therefore, it is possible to execute twilight correction image processing in the case of twilight accurately without misunderstanding of twilight.

特に、照度計で撮影時刻の照度を測定し、その照度結果から薄暮が生じる場合だけ薄暮判定を行う構成にすることもできる。
また、従前の撮影画像から薄暮を推定する方法と、本発明の太陽の位置から薄暮を判定する方法とを組み合せることで、照度計を用いることなくより正確に処理することができる。
さらに、天気情報を用いて薄暮が生じる可能性がある日時のみをまずもって抽出し、その抽出後に薄暮判定を実施する構成にすることもできる。逆に、薄暮判定後に天気情報を用いて薄暮が生じない場合に薄暮補正の画像処理を取り消す構成にすることもできる。
In particular, the illuminance meter can measure the illuminance at the shooting time, and the twilight determination can be performed only when the illuminance result causes twilight.
Further, by combining the method for estimating twilight from a conventional photographed image and the method for determining twilight from the position of the sun according to the present invention, processing can be performed more accurately without using an illuminometer.
Furthermore, it is possible to adopt a configuration in which only the date and time at which twilight may occur is first extracted using the weather information, and twilight determination is performed after the extraction. On the contrary, it is possible to adopt a configuration in which the image processing for twilight correction is canceled when no twilight occurs using the weather information after twilight determination.

「薄暮」とは「薄明りの残る夕暮れ」のことであるが、本発明では日の出前や日没後のかすかな明るさのある状態で用いている。つまり、夕暮れに限らず用いている。他に、「日の出前または日没後見られる天空のほのかな明るさ」を示す「薄明」という文言を使用することが好ましい場合もある。どちらにしろ、地平線下にある太陽の光が上層大気または浮遊微細物の影響で散乱されて生じて撮影画像に影響を与えるために補正の画像処理を施してより正確な撮影画像に修正している。
本発明では撮影を統一的に使用し、撮像装置のみを「撮像」の文言を用いているが、「撮影」の代わりに「撮像」の文言を使用することもできる。
“Dusk” means “dusk with twilight”, but in the present invention, it is used in a state of faint brightness before sunrise or after sunset. In other words, it is used not only at dusk. In other cases, it may be preferable to use the word “twilight” indicating “subtle brightness of the sky seen before sunrise or after sunset”. In any case, the sun's light below the horizon is scattered by the influence of the upper atmosphere or airborne fines and affects the captured image. Yes.
In the present invention, shooting is used uniformly, and the term “imaging” is used only for the imaging device, but the term “imaging” may be used instead of “shooting”.

(付記2) 所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の方位を取得する太陽方位取得手段と、取得した太陽の方位及び撮像装置の方位から撮像装置の逆光判定を実施する逆光判定手段と、逆光判定の結果逆光であると判定された場合に撮影画像に対して逆光を補正する画像処理を施す逆光補正画像処理手段とを備える画像処理装置。     (Supplementary Note 2) Solar azimuth acquisition means for acquiring the azimuth of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target photographic image shot by the imaging device that shoots the predetermined shooting area, and the acquired sun azimuth and imaging A backlight determination unit that performs backlight determination of the imaging device from the orientation of the device, and a backlight correction image processing unit that performs image processing for correcting backlight on the captured image when it is determined as backlight as a result of the backlight determination. An image processing apparatus.

したがって、逆光に直接影響を与える太陽の位置を把握し、カメラの方位角から逆光であるか否かを正確に把握し、逆光であると判定した場合に逆光補正の画像処理を施しており、逆光を見誤ることなく正確に逆光の場合に逆光補正の画像処理を実行することができる。 Therefore, the position of the sun that directly affects the backlight is grasped, it is accurately grasped whether it is the backlight from the azimuth angle of the camera, and when it is determined that it is the backlight, the image processing of the backlight correction is performed. Backlight correction image processing can be executed in the case of accurate backlighting without mistaking the backlighting.

(付記3) 所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度及び方位を取得する太陽高度方位取得手段と、少なくとも撮像装置の撮影領域に影を落とす可能性のある撮像装置の配置場所周辺の建造物の3次元情報を各撮像装置毎に記録する周辺建造物3次元情報記憶手段と、対象撮像装置の周辺建造物の3次元情報並びに取得した太陽の高度及び方位に基づき形成される影を求め、求めた影に基づき撮影領域に影が形成されるかの影判定を実施する影判定手段と、影判定の結果影の影響があると判定された場合に撮影画像中影の影響を受けた領域に対して影を補正する画像処理を施す影補正画像処理手段とを備える画像処理装置。     (Supplementary Note 3) Solar altitude direction acquisition means for acquiring the altitude and direction of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target shooting image shot by the imaging device that shots the predetermined shooting area, and at least the imaging device A peripheral building 3D information storage means for recording, for each imaging device, 3D information of a building around the location where the imaging device is likely to cast a shadow in the imaging area, and 3 of the peripheral building of the target imaging device Shadow determination means for determining a shadow to be formed based on the dimensional information and the acquired altitude and direction of the sun, and determining whether a shadow is to be formed in the shooting area based on the calculated shadow; An image processing apparatus comprising: a shadow correction image processing unit that performs image processing for correcting a shadow on a region affected by a shadow in a captured image when it is determined that there is an influence.

したがって、影に直接影響を与える太陽の位置を把握し、撮影領域周辺の建造物の立体構造を把握し、形成される影を求め、求めた影と撮影領域から撮影画像が影の影響を受けている領域を特定し、かかる領域に対して影補正の画像処理を行うことができ、撮影画像から影補正の対象領域を特定し影補正の画像処理を行う方法、または、撮影画像全体に影補正の画像処理を行う方法と比べ、より適切に影補正の画像処理を実行することができる。   Therefore, the position of the sun that directly affects the shadow is grasped, the three-dimensional structure of the building around the photographing region is grasped, the shadow formed is obtained, and the photographed image is affected by the shadow from the obtained shadow and the photographing region. A region that is shadowed and image processing for shadow correction can be performed on the region, and a method for performing shadow correction image processing by identifying a target region for shadow correction from the captured image or a shadow on the entire captured image. Compared with the method of performing image processing for correction, it is possible to execute image processing for shadow correction more appropriately.

(付記4) 撮影日時の撮影場所の照度が所定閾値以下である場合には判定及び/又は補正の画像処理を実施しない前記付記1ないし3のいずれかに記載の画像処理装置。
したがって、撮影日時の撮影場所の照度が所定値以下であれば、薄暮、逆光、影も生じないので、このような場合に前記各判定、各補正の画像処理を実施しないことにより不必要な処理の実行を防止することができる。
(Supplementary Note 4) The image processing apparatus according to any one of Supplementary Notes 1 to 3, wherein the image processing for determination and / or correction is not performed when the illuminance at the photographing location on the photographing date and time is equal to or less than a predetermined threshold.
Therefore, if the illuminance at the shooting location at the shooting date and time is less than or equal to a predetermined value, no twilight, backlight or shadow will occur, and in such a case, unnecessary processing is performed by not performing the image processing for each determination and each correction. Can be prevented.

(付記5) 対象撮影画像が所定撮影領域を通過する車両を撮影する撮像装置で撮影された画像であり、補正する画像処理を施された対象撮影画像から車両色を認識する車両色認識手段を新たに備える前記付記1ないし4のいずれかに記載の画像処理装置。
したがって、本発明を適用し、正確な車両色を示す撮影画像を用いて適切な車両色を求めることができる。
(Supplementary Note 5) Vehicle color recognition means for recognizing a vehicle color from a target captured image that is an image captured by an imaging device that captures a vehicle in which the target captured image passes through a predetermined capturing area. The image processing apparatus according to any one of appendices 1 to 4, which is newly provided.
Therefore, by applying the present invention, it is possible to obtain an appropriate vehicle color using a captured image showing an accurate vehicle color.

(付記6) コンピュータを、所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度及び方位を取得する太陽高度方位取得手段と、少なくとも撮像装置の撮影領域に影を落とす可能性のある撮像装置の配置場所周辺の建造物の3次元情報を各撮像装置毎に記録する周辺建造物3次元情報記憶手段と、対象撮像装置の周辺建造物の3次元情報並びに取得した太陽の高度及び方位に基づき形成される影を求め、求めた影に基づき撮影領域に影が形成されるかの影判定を実施する影判定手段と、影判定の結果影の影響があると判定された場合に撮影画像中影の影響を受けた領域に対して影を補正する画像処理を施す影補正画像処理手段として機能させるための画像処理プログラム。
前記画像処理装置は、画像処理プログラムとして捉えることもできる。
(Additional remark 6) The solar altitude direction acquisition means which acquires the altitude and direction of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target shooting image shot by the imaging device for shooting the predetermined shooting area, Peripheral building 3D information storage means for recording for each imaging device 3D information of the building around the location where the imaging device is likely to cast a shadow on the imaging area of the imaging device, and peripheral construction of the target imaging device A shadow determination means for determining a shadow to be formed based on the three-dimensional information of the object and the acquired altitude and direction of the sun, and performing a shadow determination as to whether a shadow is formed in the photographing region based on the calculated shadow; An image processing program for functioning as a shadow correction image processing unit that performs image processing for correcting a shadow on a region affected by a shadow in a captured image when it is determined that the result has a shadow influence.
The image processing apparatus can also be understood as an image processing program.

(付記7) 所定撮影領域を撮影する撮像装置と、撮像装置で撮影された対象撮影画像に画像処理を施す画像処理装置とを備え、前記画像処理装置が、対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度及び方位を取得する太陽高度方位取得手段と、少なくとも撮像装置の撮影領域に影を落とす可能性のある撮像装置の配置場所周辺の建造物の3次元情報を各撮像装置毎に記録する周辺建造物3次元情報記憶手段と、対象撮像装置の周辺建造物の3次元情報並びに取得した太陽の高度及び方位に基づき形成される影を求め、求めた影に基づき撮影領域に影が形成されるかの影判定を実施する影判定手段と、影判定の結果影の影響があると判定された場合に撮影画像中影の影響を受けた領域に対して影を補正する画像処理を施す影補正画像処理手段と、補正する画像処理を施された対象撮影画像から車両色を認識する車両色認識手段とからなる車両色認識システム。
前記画像処理装置は、その他の構成要素と共に構成されるシステムとして捉えることもできる。
(Supplementary Note 7) An imaging apparatus that captures a predetermined imaging area, and an image processing apparatus that performs image processing on a target captured image captured by the imaging apparatus, wherein the image processing apparatus captures a shooting date and a shooting location of the target captured image. The solar altitude direction acquisition means for acquiring the altitude and direction of the sun based on the latitude and longitude of the image, and at least three-dimensional information of the buildings around the location of the imaging device that may cast a shadow on the imaging area of the imaging device. Peripheral building 3D information storage means to record for each imaging device, 3D information of the surrounding building of the target imaging device and the shadow formed based on the acquired altitude and direction of the sun are obtained, and shooting is performed based on the obtained shadow Shadow determination means for performing a shadow determination as to whether a shadow is formed in the area, and correcting the shadow for the area affected by the shadow in the captured image when it is determined that there is an influence of the shadow as a result of the shadow determination Image processing A vehicle color recognition system comprising: a shadow-corrected image processing unit that performs the above-described processing; and a vehicle color recognition unit that recognizes the vehicle color from the target captured image subjected to the image processing to be corrected.
The image processing apparatus can also be regarded as a system configured with other components.

本発明の第1の実施形態に係る撮影環境の説明図である。It is explanatory drawing of the imaging environment which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るシステム構成図及び画像処理装置のハードウェア構成図である。1 is a system configuration diagram and a hardware configuration diagram of an image processing apparatus according to a first embodiment of the present invention; 本発明の第1の実施形態に係る画像処理コンピュータのブロック構成図である。It is a block block diagram of the image processing computer which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る実施形態に係る影判定の説明図である。It is explanatory drawing of the shadow determination which concerns on embodiment which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る実施形態に係る影判定の説明図である。It is explanatory drawing of the shadow determination which concerns on embodiment which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る逆行判定の説明図である。It is explanatory drawing of the retrograde determination which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る都市係数及び薄暮定義の説明図である。It is explanatory drawing of the city coefficient and twilight definition which concern on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るオートゲインコントロールOFF時の補正処理の説明図である。It is explanatory drawing of the correction process at the time of the auto gain control OFF concerning the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置の全体フローチャートである。1 is an overall flowchart of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置の詳細フローチャートである。It is a detailed flowchart of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置のオートゲインのフローチャートである。3 is a flowchart of auto gain of the image processing apparatus according to the first embodiment of the present invention.

符号の説明Explanation of symbols

10 撮像装置
11 照度計
30 管理コンピュータ
200 画像処理装置
210 CPU(プロセッサ)
211 入力手段
212 太陽高度方位算出手段
213 曇り判定手段
214 影判定手段
215 逆光判定手段
216 薄暮判定手段
217 画像処理手段
218 色認識手段
219 出力手段
220 DRAM
230 HD
240 ディスプレイ
250 キーボード
260 マウス
270 LANカード
280 CD−ROMドライ

DESCRIPTION OF SYMBOLS 10 Imaging device 11 Illuminance meter 30 Management computer 200 Image processing device 210 CPU (processor)
211 Input means 212 Solar altitude direction calculation means 213 Cloudiness determination means 214 Shadow determination means 215 Backlight determination means 216 Dusk determination means 217 Image processing means 218 Color recognition means 219 Output means 220 DRAM
230 HD
240 display 250 keyboard 260 mouse 270 LAN card 280 CD-ROM drive

Claims (5)

所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度を取得する太陽高度取得手段と、
取得した太陽の高度から撮影日時に撮影場所での薄暮判定を実施する薄暮判定手段と、
薄暮判定の結果薄暮であると判定された場合に撮影画像に対して薄暮を補正する画像処理を施す薄暮補正画像処理手段とを備える画像処理装置。
Solar altitude acquisition means for acquiring the altitude of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target shooting image shot by the imaging device shooting the predetermined shooting area;
Twilight judgment means for carrying out twilight judgment at the shooting location from the acquired sun altitude at the shooting date and time,
An image processing apparatus comprising twilight correction image processing means for performing image processing for correcting twilight on a captured image when it is determined that twilight is twilight as a result of twilight determination.
所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の方位を取得する太陽方位取得手段と、
取得した太陽の方位及び撮像装置の方位から撮像装置の逆光判定を実施する逆光判定手段と、
逆光判定の結果逆光であると判定された場合に撮影画像に対して逆光を補正する画像処理を施す逆光補正画像処理手段とを備える画像処理装置。
Solar azimuth obtaining means for obtaining the azimuth of the sun based on the photographing date and time and the latitude and longitude of the photographing location of the target photographing image photographed by the imaging device photographing the predetermined photographing region;
Back light determination means for performing back light determination of the imaging device from the acquired orientation of the sun and the orientation of the imaging device;
An image processing apparatus comprising: a backlight correction image processing unit that performs image processing for correcting backlight on a captured image when it is determined as backlight as a result of backlight determination.
所定撮影領域を撮影する撮像装置で撮影された対象撮影画像の撮影日時並びに撮影場所の緯度及び経度に基づき太陽の高度及び方位を取得する太陽高度方位取得手段と、
少なくとも撮像装置の撮影領域に影を落とす可能性のある撮像装置の配置場所周辺の建造物の3次元情報を各撮像装置毎に記録する周辺建造物3次元情報記憶手段と、
対象撮像装置の周辺建造物の3次元情報並びに取得した太陽の高度及び方位に基づき形成される影を求め、求めた影に基づき撮影領域に影が形成されるかの影判定を実施する影判定手段と、
影判定の結果影の影響があると判定された場合に撮影画像中影の影響を受けた領域に対して影を補正する画像処理を施す影補正画像処理手段とを備える画像処理装置。
Solar altitude azimuth acquisition means for acquiring the altitude and azimuth of the sun based on the shooting date and time and the latitude and longitude of the shooting location of the target photographic image shot by the imaging device that shoots the predetermined shooting area;
Peripheral building 3D information storage means for recording for each imaging device 3D information of the building around the location where the imaging device is likely to cast shadows at least in the imaging area of the imaging device;
Shadow determination for obtaining a shadow formed based on the three-dimensional information of the surrounding building of the target imaging device and the acquired altitude and direction of the sun, and performing a shadow determination as to whether a shadow is formed in the imaging region based on the obtained shadow Means,
An image processing apparatus comprising: a shadow correction image processing unit that performs image processing for correcting a shadow on a region affected by a shadow in a captured image when it is determined that there is a shadow influence as a result of the shadow determination.
撮影日時の撮影場所の照度が所定閾値以下である場合には判定及び/又は補正の画像処理を実施しない
前記請求項1ないし3のいずれかに記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 3, wherein the image processing for determination and / or correction is not performed when the illuminance at the shooting location on the shooting date and time is equal to or less than a predetermined threshold.
対象撮影画像が所定撮影領域を通過する車両を撮影する撮像装置で撮影された画像であり、
補正する画像処理を施された対象撮影画像から車両色を認識する車両色認識手段を新たに備える
前記請求項1ないし4のいずれかに記載の画像処理装置。

The target captured image is an image captured by an imaging device that captures a vehicle passing through a predetermined capturing area,
The image processing apparatus according to claim 1, further comprising vehicle color recognition means for recognizing a vehicle color from a target captured image that has undergone image processing to be corrected.

JP2005317795A 2005-10-31 2005-10-31 Image processing device Expired - Fee Related JP4678649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005317795A JP4678649B2 (en) 2005-10-31 2005-10-31 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005317795A JP4678649B2 (en) 2005-10-31 2005-10-31 Image processing device

Publications (2)

Publication Number Publication Date
JP2007129277A true JP2007129277A (en) 2007-05-24
JP4678649B2 JP4678649B2 (en) 2011-04-27

Family

ID=38151602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005317795A Expired - Fee Related JP4678649B2 (en) 2005-10-31 2005-10-31 Image processing device

Country Status (1)

Country Link
JP (1) JP4678649B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265783A (en) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd Driving supporting system and vehicle
JP2010273209A (en) * 2009-05-22 2010-12-02 Aisin Seiki Co Ltd Monitoring device
JP2011139332A (en) * 2009-12-28 2011-07-14 Nec Corp Non-contact scanner apparatus, method of correcting image, and program
US8041108B2 (en) 2005-09-26 2011-10-18 Fujitsu Limited Color extraction method and apparatus
JP2013198070A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus
JP2015050718A (en) * 2013-09-03 2015-03-16 大日本印刷株式会社 Image processing system, display device, image processing method, and program for image processing
JP2017059993A (en) * 2015-09-16 2017-03-23 三菱電機株式会社 Imaging device and imaging method
KR101797711B1 (en) 2016-03-28 2017-11-15 경기대학교 산학협력단 System for improving shadow area of structure in images and method thereof
US10762681B2 (en) 2018-06-26 2020-09-01 Here Global B.V. Map generation system and method for generating an accurate building shadow
US11164031B2 (en) 2018-06-26 2021-11-02 Here Global B.V. System and method for analyzing an image of a vehicle
JPWO2021124579A1 (en) * 2019-12-20 2021-12-23 株式会社センシンロボティクス Aircraft imaging method and information processing equipment

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041735A (en) * 1990-04-19 1992-01-07 Nikon Corp Exposure controller for camera
JPH0549034A (en) * 1991-08-14 1993-02-26 Nikon Corp Electronic picture device
JPH05328118A (en) * 1992-05-27 1993-12-10 Sanyo Electric Co Ltd Color picture processing method
JPH06233333A (en) * 1993-01-29 1994-08-19 Imaizumi Shokai:Kk Calibration method/system for video camera
JPH07298080A (en) * 1994-04-27 1995-11-10 Fujitsu Ltd Color correction method and device
JPH0937203A (en) * 1995-07-19 1997-02-07 Fuji Photo Film Co Ltd Image pickup device and image reproducing device
JPH10269347A (en) * 1997-01-27 1998-10-09 N T T Data Tsushin Kk Method for eliminating shade shadow element on geographic image, geographic image processor and recording medium
JP2000184267A (en) * 1998-12-17 2000-06-30 Sony Corp Video signal processor
JP2000207696A (en) * 1999-01-18 2000-07-28 Sharp Corp On-vehicle camera apparatus
JP2000222673A (en) * 1999-01-29 2000-08-11 Mitsubishi Electric Corp Vehicle color discriminating device
JP2001169173A (en) * 1999-12-06 2001-06-22 Canon Inc Image processing system, image processor and control method
JP2001331892A (en) * 2000-05-18 2001-11-30 Mitsubishi Electric Corp Picture recognition processing system
JP2003087815A (en) * 2001-09-06 2003-03-20 Canon Inc Image processing apparatus, image processing system, image processing method, storage medium and program
JP2003196786A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2003348603A (en) * 2002-05-27 2003-12-05 Nikon Corp Electronic camera
JP2004146745A (en) * 2002-10-28 2004-05-20 Tsukasa Denko Kk Sun tracking apparatus
JP2004153203A (en) * 2002-11-01 2004-05-27 Daido Steel Co Ltd Concentrating photovoltaic power generator
JP2004192514A (en) * 2002-12-13 2004-07-08 Pasuko:Kk Method of specifying shadow area in licensor output image
JP2004246798A (en) * 2003-02-17 2004-09-02 Nissan Motor Co Ltd Traffic lane detection device

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041735A (en) * 1990-04-19 1992-01-07 Nikon Corp Exposure controller for camera
JPH0549034A (en) * 1991-08-14 1993-02-26 Nikon Corp Electronic picture device
JPH05328118A (en) * 1992-05-27 1993-12-10 Sanyo Electric Co Ltd Color picture processing method
JPH06233333A (en) * 1993-01-29 1994-08-19 Imaizumi Shokai:Kk Calibration method/system for video camera
JPH07298080A (en) * 1994-04-27 1995-11-10 Fujitsu Ltd Color correction method and device
JPH0937203A (en) * 1995-07-19 1997-02-07 Fuji Photo Film Co Ltd Image pickup device and image reproducing device
JPH10269347A (en) * 1997-01-27 1998-10-09 N T T Data Tsushin Kk Method for eliminating shade shadow element on geographic image, geographic image processor and recording medium
JP2000184267A (en) * 1998-12-17 2000-06-30 Sony Corp Video signal processor
JP2000207696A (en) * 1999-01-18 2000-07-28 Sharp Corp On-vehicle camera apparatus
JP2000222673A (en) * 1999-01-29 2000-08-11 Mitsubishi Electric Corp Vehicle color discriminating device
JP2001169173A (en) * 1999-12-06 2001-06-22 Canon Inc Image processing system, image processor and control method
JP2001331892A (en) * 2000-05-18 2001-11-30 Mitsubishi Electric Corp Picture recognition processing system
JP2003087815A (en) * 2001-09-06 2003-03-20 Canon Inc Image processing apparatus, image processing system, image processing method, storage medium and program
JP2003196786A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2003348603A (en) * 2002-05-27 2003-12-05 Nikon Corp Electronic camera
JP2004146745A (en) * 2002-10-28 2004-05-20 Tsukasa Denko Kk Sun tracking apparatus
JP2004153203A (en) * 2002-11-01 2004-05-27 Daido Steel Co Ltd Concentrating photovoltaic power generator
JP2004192514A (en) * 2002-12-13 2004-07-08 Pasuko:Kk Method of specifying shadow area in licensor output image
JP2004246798A (en) * 2003-02-17 2004-09-02 Nissan Motor Co Ltd Traffic lane detection device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8041108B2 (en) 2005-09-26 2011-10-18 Fujitsu Limited Color extraction method and apparatus
JP2009265783A (en) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd Driving supporting system and vehicle
JP2010273209A (en) * 2009-05-22 2010-12-02 Aisin Seiki Co Ltd Monitoring device
JP2011139332A (en) * 2009-12-28 2011-07-14 Nec Corp Non-contact scanner apparatus, method of correcting image, and program
JP2013198070A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus
JP2015050718A (en) * 2013-09-03 2015-03-16 大日本印刷株式会社 Image processing system, display device, image processing method, and program for image processing
JP2017059993A (en) * 2015-09-16 2017-03-23 三菱電機株式会社 Imaging device and imaging method
KR101797711B1 (en) 2016-03-28 2017-11-15 경기대학교 산학협력단 System for improving shadow area of structure in images and method thereof
US10762681B2 (en) 2018-06-26 2020-09-01 Here Global B.V. Map generation system and method for generating an accurate building shadow
US11164031B2 (en) 2018-06-26 2021-11-02 Here Global B.V. System and method for analyzing an image of a vehicle
US11182942B2 (en) 2018-06-26 2021-11-23 Here Global B.V. Map generation system and method for generating an accurate building shadow
JPWO2021124579A1 (en) * 2019-12-20 2021-12-23 株式会社センシンロボティクス Aircraft imaging method and information processing equipment

Also Published As

Publication number Publication date
JP4678649B2 (en) 2011-04-27

Similar Documents

Publication Publication Date Title
JP4678649B2 (en) Image processing device
KR101709860B1 (en) Former all-sky cloud cover in the sky using a RGB color image data output method and system
Lalonde et al. What do the sun and the sky tell us about the camera?
Narasimhan et al. All the images of an outdoor scene
US8509476B2 (en) Automated system and method for optical cloud shadow detection over water
KR20180055422A (en) Method and apparatus for quantifying cloud cover by using whole sky image
Várkonyi-Kóczy et al. Gradient-based synthesized multiple exposure time color HDR image
US20150131902A1 (en) Digital Image Analysis
Ershov et al. The cube++ illumination estimation dataset
CN109916415B (en) Road type determination method, device, equipment and storage medium
Kim et al. Radiometric calibration with illumination change for outdoor scene analysis
CN108012135B (en) Image processing method and device, computer readable storage medium and computer equipment
Cazorla et al. Multi-exposure adaptive threshold technique for cloud detection with sky imagers
KR102136106B1 (en) Photovoltaic power generation forecasting device
Pawar et al. Detecting clear sky images
Chapman et al. Potential applications of thermal fisheye imagery in urban environments
JP3593567B2 (en) Night cloud amount measuring method and night cloud amount measuring device
CN107529726A (en) Check device, inspection method and program
CN105681677B (en) A kind of high-resolution optical remote sensing Satellite Camera optimal focal plane determines method
JP2010055546A (en) Image processing apparatus, image processing method and program
CN114973028B (en) Aerial video image real-time change detection method and system
KR20190025079A (en) Soil classification estimation method and soil moisture percentage estimation method using soil image
CN111355896B (en) Method for acquiring automatic exposure parameters of all-day camera
Li et al. Improving high dynamic range image based light measurement
Schwalbe et al. Profile based sub-pixel-classification of hemispherical images for solar radiation analysis in forest ecosystems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110125

R150 Certificate of patent or registration of utility model

Ref document number: 4678649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees