JP2010226652A - Image processing apparatus, image processing method, and computer program - Google Patents

Image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JP2010226652A
JP2010226652A JP2009074260A JP2009074260A JP2010226652A JP 2010226652 A JP2010226652 A JP 2010226652A JP 2009074260 A JP2009074260 A JP 2009074260A JP 2009074260 A JP2009074260 A JP 2009074260A JP 2010226652 A JP2010226652 A JP 2010226652A
Authority
JP
Japan
Prior art keywords
image
backlight
region
captured image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009074260A
Other languages
Japanese (ja)
Inventor
Keiko Noda
景子 野田
Junichi Nakamura
純一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Co Ltd
Original Assignee
Zenrin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Co Ltd filed Critical Zenrin Co Ltd
Priority to JP2009074260A priority Critical patent/JP2010226652A/en
Publication of JP2010226652A publication Critical patent/JP2010226652A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology which accurately determines by image processing whether a picked-up image is an image taken against the sun or not. <P>SOLUTION: An image processing apparatus 200 obtains a picked-up image, presumes the picked-up direction of the pickup image, obtains the information on the sun direction to specify the direction of the sun, presumes the direction of the sun from a picked-up position of the picked-up image based on the information of the sun direction, presumes whether the picked-up image is an image taken against the sun or not based on the presumed pickup direction and direction of the sun, decides an area of the picked-up image to be used correspondent to the presumed result of the presumption processing, and determines whether the picked-up image is the image taken against the sun or not based on a pixel value of the pixel of the decided area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、および、コンピュータプログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and a computer program.

コンピュータで利用可能に電子化された地図データを利用して、車や歩行者に経路案内を行う技術を始めとして、地表上の施設や道路などの情報を電子機器の表示部に表示することは広く行われている。地図データの質を向上させるために、地図データに交通規制などの道路属性情報を正確かつ十分に記述することが望まれている。道路属性情報を迅速かつ精度良く充実するために、道路において撮影した画像をコンピュータで画像処理を行う技術が知られている。このような画像処理において撮影画像が逆光条件で撮影された逆光画像か否かを判断する技術が知られている(例えば、特許文献1)。   It is possible to display information on facilities and roads on the ground surface on the display of electronic devices, including technology that provides route guidance to cars and pedestrians using computerized map data that can be used on computers. Widely done. In order to improve the quality of map data, it is desired to accurately and sufficiently describe road attribute information such as traffic regulations in the map data. In order to enhance road attribute information quickly and accurately, a technique for performing image processing on an image taken on a road with a computer is known. A technique for determining whether or not a captured image is a backlight image captured under backlight conditions in such image processing is known (for example, Patent Document 1).

特開2007−129277号公報JP 2007-129277 A 特開2007−315799号公報JP 2007-315799 A 特開2007−11430号公報JP 2007-11430 A 特開2008−51621号公報JP 2008-51621 A

しかしながら、撮影画像が逆光画像であるか否かを、画像処理により判定する判定精度の向上が求められている。   However, there is a demand for improvement in determination accuracy for determining whether or not a captured image is a backlight image by image processing.

本発明は、画像処理によって撮影画像が逆光画像であるか否かを精度良く判定する技術を提供することを目的とする。   An object of the present invention is to provide a technique for accurately determining whether or not a captured image is a backlight image by image processing.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1] 画像処理装置であって、
撮影画像を取得する撮影画像取得部と、
前記撮影画像の撮影方向と、前記撮影画像の撮影位置における太陽の方角との相対角度を推定し、該相対角度に基づいて、前記撮影画像が逆光画像であるか否かを推定する逆光推定部と、
前記逆光推定部の推定結果に応じて用いるべき前記撮影画像の領域を決定し、前記決定された領域の画素の画素値に基づいて前記撮影画像が逆光画像であるか否かを判定する逆光判定部と、
を備える、画像処理装置。
Application Example 1 An image processing apparatus,
A captured image acquisition unit for acquiring captured images;
A backlight estimation unit that estimates a relative angle between the shooting direction of the captured image and the direction of the sun at the shooting position of the captured image, and estimates whether the captured image is a backlight image based on the relative angle. When,
Backlight determination that determines a region of the captured image to be used according to an estimation result of the backlight estimation unit, and determines whether the captured image is a backlight image based on a pixel value of a pixel in the determined region And
An image processing apparatus comprising:

こうすれば、撮影方向と太陽の方角とに基づいて、撮影画像が逆光画像か否かを推定し、さらに、撮影画像の画素を用いて逆光画像か否かを判定しているので、最終的に撮影画像が逆光画像か否かを精度良く判定することができる。さらに、逆光推定部の推定結果に応じて、逆光判定部において画素値を用いるべき領域を決定するので、撮影画像が逆光画像か否かを精度良く判定することができる。   In this way, based on the shooting direction and the direction of the sun, it is estimated whether or not the captured image is a backlight image, and further, it is determined whether or not it is a backlight image using the pixels of the captured image. In addition, it is possible to accurately determine whether the captured image is a backlight image. Furthermore, since the region where the pixel value is to be used is determined by the backlight determination unit according to the estimation result of the backlight estimation unit, it can be accurately determined whether or not the captured image is a backlight image.

[適用例2]適用例1に記載の画像処理装置であって、
前記撮影画像を複数の領域に分割する撮影画像分割部を備え、
前記逆光判定部は、少なくとも1つの前記領域の画素の画素値に基づいて判定する、画像処理装置。
こうすれば、道路を走行しながら撮影した撮影画像に特化して、撮影画像が逆光画像か否かを精度良く判定することができる。
[Application Example 2] The image processing apparatus according to Application Example 1,
A captured image dividing unit that divides the captured image into a plurality of regions;
The said backlight determination part is an image processing apparatus determined based on the pixel value of the pixel of at least 1 of the said area | region.
In this way, it is possible to accurately determine whether or not the captured image is a backlight image by specializing in the captured image captured while traveling on the road.

[適用例3]適用例2に記載の画像処理装置であって、
前記撮影画像分割部は、空が被写体である空領域とその他の領域とに前記撮影画像を分割し、
前記逆光判定部は、前記その他の領域の画素の画素値に基づいて判定する、画像処理装置。
こうすれば、逆光画像において暗く写りやすい、空以外の領域の画素に基づいて逆光画像であるか否かを判定するので、判定精度を高くすることができる。
[Application Example 3] The image processing apparatus according to Application Example 2,
The photographed image dividing unit divides the photographed image into a sky region where the sky is a subject and other regions,
The said backlight determination part is an image processing apparatus determined based on the pixel value of the pixel of the said other area | region.
In this way, since it is determined whether or not it is a backlight image based on pixels in a region other than the sky, which is likely to appear dark in the backlight image, the determination accuracy can be increased.

[適用例4]適用例2に記載の画像処理装置であって、
前記撮影画像は、道路を走行しながら前方を撮影した画像であり、
前記撮影画像分割部は、左領域、中領域および右領域に前記撮影画像を分割し、
前記逆光判定部は、前記左領域または右領域の画素の画素値に基づいて判定する、画像処理装置。
こうすれば、逆光画像において暗く写りやすい、空および道路以外の領域の画素に基づいて逆光画像か否かを判定するので、判定精度を高くすることができる。
[Application Example 4] The image processing apparatus according to Application Example 2,
The photographed image is an image of the front taken while traveling on the road,
The captured image dividing unit divides the captured image into a left region, a middle region, and a right region,
The said backlight determination part is an image processing apparatus determined based on the pixel value of the pixel of the said left area | region or a right area | region.
In this way, since it is determined whether or not it is a backlight image based on the pixels in the area other than the sky and the road, which is likely to appear dark in the backlight image, the determination accuracy can be increased.

なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理方法、コンピュータに画像処理を行わせるためのコンピュータプログラム、当該コンピュータプログラムを記録した記録媒体等の形態で実現することができる。   The present invention can be realized in various forms, such as an image processing method, a computer program for causing a computer to perform image processing, and a recording medium on which the computer program is recorded. be able to.

実施例としての画像処理システムの一部を構成する車両の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the vehicle which comprises some image processing systems as an Example. 実施例としての画像処理システムの一部を構成する画像処理装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the image processing apparatus which comprises some image processing systems as an Example. 逆光画像選別処理の処理ステップを示すフローチャートである。It is a flowchart which shows the process step of a backlight image selection process. 逆光推定処理の処理ステップを示すフローチャートである。It is a flowchart which shows the process step of a backlight estimation process. 相対角度と出力されるフラグとの関係を示す図である。It is a figure which shows the relationship between a relative angle and the flag output. 逆光判定処理の処理ステップを示すフローチャートである。It is a flowchart which shows the process step of a backlight determination process. 逆光判定処理について説明する図である。It is a figure explaining a backlight determination process. 変形例におけるフレーム画像の分割について説明する第1の図である。It is a 1st figure explaining the division | segmentation of the frame image in a modification. 変形例におけるフレーム画像の分割について説明する第2の図である。It is a 2nd figure explaining the division | segmentation of the frame image in a modification. 変形例における撮像装置を示す図である。It is a figure which shows the imaging device in a modification. 図10に示す各撮像装置によって撮影された画像と、各撮像装置によって撮影された画像における逆光判定処理において用いられる画像の分割の態様を示す図である。It is a figure which shows the aspect of the division | segmentation of the image used in the backlight determination process in the image image | photographed with each imaging device shown in FIG. 10, and the image image | photographed with each imaging device. 撮像装置110Bの撮影方向とフラグとの関係を示す図である。It is a figure which shows the relationship between the imaging | photography direction and flag of the imaging device 110B.

以下、本発明の実施の形態について、図面を参照しながら、実施例に基づき説明する。   Hereinafter, embodiments of the present invention will be described based on examples with reference to the drawings.

A.実施例:
・画像処理システムの構成:
図1は、実施例としての画像処理システムの一部を構成する車両100の概略構成を示す説明図である。図示するように、車両100は、撮像装置110と、GPS受信機120と、計算機130を備えている。
A. Example:
・ Configuration of image processing system:
FIG. 1 is an explanatory diagram showing a schematic configuration of a vehicle 100 constituting a part of an image processing system as an embodiment. As illustrated, the vehicle 100 includes an imaging device 110, a GPS receiver 120, and a calculator 130.

撮像装置110は、例えば、デジタルビデオカメラ、連続撮影可能なデジタルスチルカメラなど、所定の時間間隔でデジタルまたはアナログの画像データを生成できるカメラ装置である。撮像装置110は、計算機130の制御に従って動作可能であると共に、生成した画像データを計算機130に対して送信可能であるように、計算機130と通信可能に接続されている。撮像装置110は、例えば、車両100のフロントウインドウ越しに車両100の前方を撮影するように設置されている。撮像装置110は、自動露光調整機能を持つため、逆光画像では被写体の色が黒くなることがある。   The imaging device 110 is a camera device that can generate digital or analog image data at a predetermined time interval, such as a digital video camera or a digital still camera capable of continuous shooting. The imaging device 110 is operable in accordance with the control of the computer 130 and is communicably connected to the computer 130 so that the generated image data can be transmitted to the computer 130. For example, the imaging device 110 is installed so as to photograph the front of the vehicle 100 through the front window of the vehicle 100. Since the imaging device 110 has an automatic exposure adjustment function, the subject color may be black in the backlight image.

GPS受信機120は、GPS(Global Positioning System/全地球測位システム)を構成する人工衛星から送信された電波を受信する装置である。GPS受信機120は、人工衛星から受信した電波をデジタルデータ(GPS情報)に変換して、計算機130に送信する。   The GPS receiver 120 is a device that receives radio waves transmitted from artificial satellites that constitute a GPS (Global Positioning System / Global Positioning System). The GPS receiver 120 converts radio waves received from the artificial satellite into digital data (GPS information) and transmits the digital data to the computer 130.

計算機130は、ノートパソコンなどの周知のパーソナルコンピュータである。計算機130は、図示しない中央演算装置(CPU)と、RAMやROMなどの内部記憶装置と、ハードディスクなどの外部記憶装置とを備えている。計算機130は、GPS受信機120から取得したGPS情報に基づいて、車両100の現在位置を表す現在位置情報(緯度、経度)と現在時刻を表す現在時刻情報を、一定間隔で生成し、車両100の現在位置と現在時刻を常に認識している。車両100はさらに走行距離計やジャイロセンサを搭載し、計算機130による現在位置の認識精度を高めても良い。計算機130は、撮像装置110から受信した画像データを、当該画像データが表す撮影画像の撮影位置および撮影時刻と関連付けて、外部記憶装置に記憶する。撮影位置は、撮影時刻における車両100の現在位置とされる。   The computer 130 is a known personal computer such as a notebook computer. The computer 130 includes a central processing unit (CPU) (not shown), an internal storage device such as a RAM and a ROM, and an external storage device such as a hard disk. Based on the GPS information acquired from the GPS receiver 120, the computer 130 generates current position information (latitude, longitude) that represents the current position of the vehicle 100 and current time information that represents the current time at regular intervals. Is always aware of the current location and time. The vehicle 100 may further include an odometer or a gyro sensor to improve the recognition accuracy of the current position by the computer 130. The computer 130 stores the image data received from the imaging device 110 in an external storage device in association with the shooting position and shooting time of the shot image represented by the image data. The shooting position is the current position of the vehicle 100 at the shooting time.

車両100に、交通標識を整備したい対象の経路を走行させながら、撮像装置110による撮影を行うことにより、経路の撮影画像と撮影位置と撮影時刻をデータとして蓄積することができる。   Shooting with the imaging device 110 while the vehicle 100 is traveling on a target route for which a traffic sign is to be maintained can be stored as data of the captured image, the shooting position, and the shooting time of the route.

図2は、実施例としての画像処理システムの一部を構成する画像処理装置の概略構成を示す説明図である。画像処理装置200は、周知のコンピュータであり、CPU201と、入出力部202と、ROMやRAMなどの内部記憶装置203と、ハードディスクなどの外部記憶装置204とを備えている。入出力部202は、外部機器とデータを遣り取りするためのインターフェースであり、例えば、上述した計算機130と接続される。この結果、画像処理装置200は、計算機130に記憶された撮影画像の画像データと、撮影画像の撮影位置を示す撮影位置情報および撮影時刻を示す撮影時刻情報を取得できる。   FIG. 2 is an explanatory diagram illustrating a schematic configuration of an image processing apparatus that constitutes a part of the image processing system according to the embodiment. The image processing apparatus 200 is a known computer, and includes a CPU 201, an input / output unit 202, an internal storage device 203 such as a ROM or a RAM, and an external storage device 204 such as a hard disk. The input / output unit 202 is an interface for exchanging data with an external device, and is connected to the computer 130 described above, for example. As a result, the image processing apparatus 200 can acquire the image data of the captured image stored in the computer 130, the capturing position information indicating the capturing position of the captured image, and the capturing time information indicating the capturing time.

内部記憶装置203には、画像処理プログラムが格納されており、CPU201が当該プログラムを実行することにより、図2の内部記憶装置203に図示した機能ブロックの機能を実現される。実現される機能ブロックは、撮影画像取得部M11と、走行軌跡取得部M12と、撮影方向推定部M13と、太陽方角取得部M14と、太陽方角推定部M15と、撮影画像分割部M16、逆光推定部M17、逆光判定部M18とを含む。   The image processing program is stored in the internal storage device 203, and the functions of the functional blocks illustrated in the internal storage device 203 in FIG. 2 are realized by the CPU 201 executing the program. The realized functional blocks are a captured image acquisition unit M11, a travel locus acquisition unit M12, a shooting direction estimation unit M13, a solar direction acquisition unit M14, a solar direction estimation unit M15, a captured image division unit M16, and backlight estimation. Part M17 and backlight determination part M18.

撮影画像取得部M11は、入出力部202を介して、上述した撮像装置110によって撮影された画像データと画像データに関連付けられた撮影位置情報、および、撮影時刻情報を取得する。本実施例では、撮像装置110はビデオカメラであり、複数のフレーム画像からなる動画像と、各フレーム画像に関連付けられた撮影位置情報と、撮影時刻情報が取得されるものとする。走行軌跡取得部M12は、撮影位置情報と、地図データ(図示省略)に基づき、撮像装置110を搭載した車両100の走行軌跡を特定して、特定した走行軌跡を走行軌跡情報として取得する。撮影方向推定部M13は、取得された走行軌跡情報に基づいて、撮像装置110の撮影方向を推定する。本実施例では、上述したように、撮像装置110は、車両100の前方を撮影するよう車両100に設置されているので、走行軌跡情報から容易に取得できる走行方向が撮影方向として推定される。撮像装置110が車両100の前方ではなく、走行方向と所定の角度を有するように設置されている場合は、その搭載角度を加味して撮影方向が推定される。太陽方角取得部M14は、太陽の方角を特定するための太陽方角情報として太陽位置データを取得する。取得される太陽位置データは、例えば、地域別、日時別の日の出、日の入り時刻、方位を示した日の出入りデータである。このような、日の出入りデータは、例えば、国立天文台・天文情報センターから信頼性の高いデータが入手できる。太陽方角推定部M15は、撮影画像としての動画像の各フレーム画像が撮影された撮影時刻における撮影位置からみた太陽方向の方角を、太陽位置データに基づいて推定する。例えば、撮影位置が属する、または、近接する地域の日の出入りデータが太陽位置データとして取得されていれば、撮影時刻における太陽の方角は、周知の手法を用いて容易に推定できる。撮影画像分割部M16は、画像処理による逆光判定(後述)を行う際に、フレーム画像を分割する。本実施例では、第1段階として、フレーム画像を、空を被写体とする空領域と、空以外を被写体(道、建築物など)とする他領域とに分割する。次に、第2段階として、フレーム画像を右領域と中領域と左領域の3領域に、縦の直線を分割線として分割する。分割は、エッジ抽出や色相による抽出などの周知の画像処理技術により実行される。逆光推定部M17は、撮影方向と太陽の方角に基づいてフレーム画像が逆光画像か否かを推定する。逆光判定部M18は、逆光推定結果を利用しつつ、フレーム画像に対する画像処理によってフレーム画像が逆光画像か否かを判定する。   The captured image acquisition unit M11 acquires, via the input / output unit 202, image data captured by the imaging device 110 described above, imaging position information associated with the image data, and imaging time information. In the present embodiment, the imaging device 110 is a video camera, and a moving image composed of a plurality of frame images, shooting position information associated with each frame image, and shooting time information are acquired. The traveling locus acquisition unit M12 identifies the traveling locus of the vehicle 100 on which the imaging device 110 is mounted based on the shooting position information and map data (not shown), and acquires the identified traveling locus as traveling locus information. The shooting direction estimation unit M13 estimates the shooting direction of the imaging device 110 based on the acquired travel locus information. In the present embodiment, as described above, since the imaging device 110 is installed in the vehicle 100 so as to photograph the front of the vehicle 100, the traveling direction that can be easily obtained from the traveling locus information is estimated as the photographing direction. When the imaging device 110 is installed not at the front of the vehicle 100 but at a predetermined angle with the traveling direction, the shooting direction is estimated in consideration of the mounting angle. The solar direction acquisition unit M14 acquires solar position data as solar direction information for specifying the direction of the sun. The acquired solar position data is, for example, sunrise data indicating the sunrise, sunset time, and azimuth by region and date. Such sunrise data can be obtained with high reliability from, for example, the National Astronomical Observatory of Japan / Astronomy Information Center. The sun direction estimation unit M15 estimates the direction of the sun direction as viewed from the shooting position at the shooting time when each frame image of the moving image as the shot image was shot based on the sun position data. For example, if sunrise data of an area to which a shooting position belongs or is close is acquired as sun position data, the direction of the sun at the shooting time can be easily estimated using a known method. The captured image dividing unit M16 divides the frame image when performing backlight determination (described later) by image processing. In the present embodiment, as a first stage, the frame image is divided into an empty area where the sky is a subject and another area where the sky is a subject (road, building, etc.). Next, as a second step, the frame image is divided into three regions, a right region, a middle region, and a left region, and a vertical straight line is divided as a dividing line. The division is executed by a known image processing technique such as edge extraction or hue extraction. The backlight estimation unit M17 estimates whether the frame image is a backlight image based on the shooting direction and the direction of the sun. The backlight determination unit M18 determines whether the frame image is a backlight image by image processing on the frame image while using the backlight estimation result.

外部記憶装置204は、撮影動画のフレーム画像を記憶するための撮影動画記憶領域D11と、撮影動画のフレーム画像ごとに関連付けられた撮影位置情報および撮影時刻情報(撮影属性情報)を記憶するための撮影属性情報記憶領域D12と、上述した太陽位置データを記憶するための太陽位置データ記憶領域D13を有している。撮影位置情報は、例えば、地表上における座標を表す情報であり、例えば、(緯度、経度)で表される。   The external storage device 204 stores a shooting moving image storage area D11 for storing a frame image of a shooting movie, and shooting position information and shooting time information (shooting attribute information) associated with each frame image of the shooting movie. It has a photographing attribute information storage area D12 and a solar position data storage area D13 for storing the above-described solar position data. The photographing position information is, for example, information representing coordinates on the ground surface, and is represented by (latitude, longitude), for example.

・画像処理装置200の動作:
図3は、逆光画像選別処理の処理ステップを示すフローチャートである。逆光画像選別処理は、画像処理装置200のCPU201が実行する処理である。逆光画像選別処理は、CPU201が、計算機130から撮影動画のデータと撮影位置情報および撮影時刻情報(撮影属性情報)とを、入出力部202を介して取得し、撮影動画記憶領域D11および撮影属性情報記憶部D12に記憶すると共に、太陽位置データとして日の出入りデータを太陽位置データ記憶領域D13に記憶した状態で実行される。
The operation of the image processing apparatus 200:
FIG. 3 is a flowchart showing processing steps of the backlight image sorting process. The backlight image sorting process is a process executed by the CPU 201 of the image processing apparatus 200. In the backlight image sorting process, the CPU 201 acquires the data of the shooting moving image, the shooting position information, and the shooting time information (shooting attribute information) from the computer 130 via the input / output unit 202, and the shooting movie storage area D11 and the shooting attribute are acquired. The information is stored in the information storage unit D12 and is executed in a state where the sunrise data is stored in the solar position data storage area D13 as the solar position data.

逆光画像選別処理が開始されると、CPU201は、逆光判定の対象となる撮影動画の撮影属性情報と、太陽位置データを内部記憶装置203に読み込む(ステップS110)。次に、CPU201は、逆光推定処理を実行する(ステップS200)。   When the backlight image sorting process is started, the CPU 201 reads the shooting attribute information and the sun position data of the shooting moving image to be a backlight determination target into the internal storage device 203 (step S110). Next, the CPU 201 executes a backlight estimation process (step S200).

図4は、逆光推定処理の処理ステップを示すフローチャートである。逆光推定処理は、撮影動画が撮影された走行経路を直線道路単位(走行方向が同一と見なせる単位)で区間(撮影区間)に区切り、撮影区間単位で撮影動画を構成するフレーム画像が逆光画像であるか否かを一次的に判定する処理である。   FIG. 4 is a flowchart showing the processing steps of the backlight estimation processing. In the backlight estimation process, the travel route in which the captured video is captured is divided into sections (capturing sections) in units of straight roads (units in which the traveling direction can be regarded as the same), and the frame images constituting the captured videos in units of the captured sections are backlight images. This is a process of primarily determining whether or not there is.

逆光推定処理が開始されると、CPU201は、処理対象の撮影区間について撮影位置情報と撮影時刻情報を取得する(ステップS210)。CPU201は、次に、撮影位置情報により特定される撮影区間の位置(緯度、経度)に近い、または、撮影区間の位置の属する日の出入りデータ(太陽位置データ)を読み込み、撮影時刻情報により特定される撮影時刻の属する日の日の出入り時刻、方位を取得する(ステップS220)。   When the backlight estimation process is started, the CPU 201 acquires shooting position information and shooting time information for the shooting section to be processed (step S210). Next, the CPU 201 reads the sunrise data (sun position data) that is close to the position (latitude, longitude) of the shooting section specified by the shooting position information or belongs to the position of the shooting section, and is specified by the shooting time information. The sunrise time and direction of the day to which the shooting time belongs are acquired (step S220).

日の出入り時刻、方位を取得すると、CPU201は、対象の撮影区間における撮影時刻の太陽の方角を算出する(ステップS230)。太陽の方角は、地表を平面とする座標系における方向ベクトルで、例えば、南北方向と東西方向を軸とする平面上のベクトルで算出される。次いで、CPU201は、対象の撮影区間における撮像装置110の撮影方向を算出する(ステップS240)。上述したように、本実施例では、撮像装置110は車両100の前方を撮影するように設置されているので、撮影方向は、撮影区間における車両100の走行方向とされる。撮影方向は、太陽の方角と同様に、地表を平面とする座標系における方向ベクトルで、例えば、南北方向と東西方向を軸とする平面上のベクトルで算出される。次に、CPU201は、太陽の方角と撮影方向との相対角度を算出する(ステップS250)。相対角度は、計算機上は、太陽方向を表すベクトルと、撮影方向を表すベクトルの内積として算出されるが、以下では理解の容易のため、一周を360等分した度数法で表記する。   When the sunrise time and azimuth are acquired, the CPU 201 calculates the direction of the sun at the shooting time in the target shooting section (step S230). The direction of the sun is a direction vector in a coordinate system having the ground surface as a plane, for example, a vector on a plane with the north-south direction and the east-west direction as axes. Next, the CPU 201 calculates the shooting direction of the imaging device 110 in the target shooting section (step S240). As described above, in the present embodiment, the imaging device 110 is installed so as to photograph the front of the vehicle 100, so the photographing direction is the traveling direction of the vehicle 100 in the photographing section. The shooting direction is calculated by a direction vector in a coordinate system having the ground surface as a plane, like the direction of the sun, for example, a vector on a plane having the north-south direction and the east-west direction as axes. Next, the CPU 201 calculates a relative angle between the direction of the sun and the shooting direction (step S250). On the computer, the relative angle is calculated as an inner product of a vector representing the sun direction and a vector representing the shooting direction. However, for the sake of easy understanding, the relative angle is represented by a frequency method in which one round is divided into 360 equal parts.

相対角度が算出されると、CPU201は、相対角度に応じて、対象の撮影区間に対して、逆光、順光に関するフラグを出力する。すなわち、対象の撮影区間に当該フラグが関連付けされる。図5は、相対角度と出力されるフラグとの関係を示す図である。図5において、撮像装置110の撮影方向は、垂直に上の方向である。図5において太陽のマークの中心に付された2桁の数値がフラグを示している。相対角度は、撮影方向と、撮影位置から見て太陽が位置する方角とが一致している場合を0度とし、撮影方向と、撮影位置から見て太陽が位置する方角とが正反対の場合を180度として説明する。相対角度が0度から右回りに30度までおよび左周りに30度までの60度の範囲にある場合に、出力されるフラグは「10」である。相対角度が右回りに30度から60度までの範囲にある場合に、出力されるフラグは「11」である。相対角度が右回りに60度から120度までの範囲にある場合に、出力されるフラグは「21」である。相対角度が右回りに120度から150度までの範囲にある場合に、出力されるフラグは「01」である。相対角度が右回りに150度から210度までの範囲にある場合に、出力されるフラグは「00」である。相対角度が左回りに30度から60度までの範囲にある場合に、出力されるフラグは「12」である。相対角度が左回りに60度から120度までの範囲にある場合に、出力されるフラグは「22」である。相対角度が左回りに120度から150度までの範囲にある場合に、出力されるフラグは「02」である。本実施例では、フラグ「10」、「11」、「12」、「22」、「21」は、逆光を示すフラグであり、逆光フラグとも呼ぶ。本実施例では、フラグ「02」、「00」、「01」は、順光を示すフラグであり、順光フラグとも呼ぶ。フラグが出力されると逆光推定処理は終了される。   When the relative angle is calculated, the CPU 201 outputs a flag relating to backlight and forward light for the target shooting section according to the relative angle. That is, the flag is associated with the target shooting section. FIG. 5 is a diagram illustrating the relationship between the relative angle and the output flag. In FIG. 5, the shooting direction of the imaging device 110 is a vertically upward direction. In FIG. 5, a 2-digit numerical value attached to the center of the sun mark indicates a flag. The relative angle is 0 degree when the shooting direction is coincident with the direction in which the sun is located when viewed from the shooting position, and the relative direction is when the shooting direction is opposite to the direction in which the sun is located when viewed from the shooting position. It will be described as 180 degrees. When the relative angle is in the range of 60 degrees from 0 degrees to 30 degrees clockwise and 30 degrees counterclockwise, the output flag is “10”. When the relative angle is in the range of 30 to 60 degrees clockwise, the output flag is “11”. When the relative angle is in the range from 60 degrees to 120 degrees clockwise, the output flag is “21”. When the relative angle is in the range from 120 degrees to 150 degrees clockwise, the output flag is “01”. When the relative angle is in the range from 150 degrees to 210 degrees clockwise, the output flag is “00”. When the relative angle is in the range of 30 to 60 degrees counterclockwise, the output flag is “12”. When the relative angle is in the range from 60 degrees to 120 degrees counterclockwise, the output flag is “22”. When the relative angle is in the range from 120 degrees to 150 degrees counterclockwise, the output flag is “02”. In this embodiment, the flags “10”, “11”, “12”, “22”, and “21” are flags indicating backlight and are also referred to as backlight flags. In the present embodiment, the flags “02”, “00”, and “01” are flags indicating a follow light and are also referred to as a follow light flag. When the flag is output, the backlight estimation process ends.

図3に戻って説明を続ける。逆光推定処理が終了されると、CPU201は、対象の撮影区間において撮影されたフレーム画像を読み込む(ステップS300)。フレーム画像を読み込むと、CPU201は、これらのフレーム画像について逆光判定処理をそれぞれ行う(ステップS400)。以下では、理解の容易のため、一つのフレーム画像についての逆光判定処理について説明する。   Returning to FIG. 3, the description will be continued. When the backlight estimation process is completed, the CPU 201 reads a frame image shot in the target shooting section (step S300). When the frame images are read, the CPU 201 performs backlight determination processing for these frame images (step S400). Hereinafter, for easy understanding, a backlight determination process for one frame image will be described.

図6は、逆光判定処理の処理ステップを示すフローチャートである。逆光判定処理が開始されると、CPU201は、対象の撮影区間が逆光区間か否かを撮影区間に関連付けられたフラグを参照して判断する(ステップS410)。ここで、逆光区間とは、先に説明した逆光推定処理において逆光フラグが関連付けられた撮影区間を言う。CPU201は、対象の撮影区間が逆光区間ではない、すなわち、順光フラグが関連付けられている撮影区間であると判断すると(ステップS410:NO)、逆光推定処理を終了する。すなわち、順光フラグが関連付けられている撮影区間に撮影されたフレーム画像は、順光画像であると判断されることになる。   FIG. 6 is a flowchart showing the processing steps of the backlight determination process. When the backlight determination process is started, the CPU 201 determines whether or not the target shooting section is a backlight section with reference to a flag associated with the shooting section (step S410). Here, the backlight section refers to a shooting section associated with a backlight flag in the backlight estimation process described above. If the CPU 201 determines that the target shooting section is not a backlight section, that is, a shooting section associated with a follow light flag (step S410: NO), the backlight estimation process is terminated. That is, the frame image shot in the shooting section associated with the follow light flag is determined to be a follow light image.

CPU201は、対象の撮影区間が逆光区間ではあると判断すると(ステップS410:YES)、フレーム画像の画素値をHSV色空間に変換する(ステップS420)。本実施例では、撮影画像はRGB色空間で表現されているので、本ステップでは、RGB色空間からHSV色空間に変換する処理が行われる。始めから撮影画像がHSV色空間で表現されていれば本ステップは必要ない。HSV色空間は、色を色相(Hue)、彩度(Saturation)、明度(Value)の三つの成分からなる色空間である。HSB色空間(Hue、Saturation、Brightness)とも言われる。本実施例では、各成分が0〜255の値で表されるHSV色空間を用いている。   When the CPU 201 determines that the target shooting section is a backlight section (step S410: YES), the CPU 201 converts the pixel value of the frame image into the HSV color space (step S420). In this embodiment, since the photographed image is expressed in the RGB color space, in this step, processing for converting from the RGB color space to the HSV color space is performed. If the captured image is expressed in the HSV color space from the beginning, this step is not necessary. The HSV color space is a color space composed of three components of hue (Hue), saturation (Saturation), and lightness (Value). Also called HSB color space (Hue, Saturation, Brightness). In this embodiment, an HSV color space in which each component is represented by a value from 0 to 255 is used.

次に、CPU201は、処理対象のフレーム画像において、空領域を抽出し、空領域とその他の領域(他領域)とに分割する(ステップS430)。空領域の抽出条件は、以下のとおりである。
1.所定の画素値の範囲にある画素(空色画素)であること
2.フレーム画像の上端と他の空色画素を介して、または、直接に連続していること
なお、空色画素とされる画素値の範囲は、例えば、以下の1、または、2の範囲である。
1.明度Vが220≦V≦255の範囲にある
2.明度Vが150≦V≦255かつ彩度Sが20≦S≦255かつ色相Hが100≦H≦255の範囲にある
Next, the CPU 201 extracts an empty area from the processing target frame image, and divides it into an empty area and another area (another area) (step S430). The extraction conditions for the empty area are as follows.
1. 1. A pixel (sky blue pixel) in a predetermined pixel value range. It is continuous via the upper end of the frame image and other sky blue pixels or directly. Note that the range of pixel values that are the sky blue pixels is, for example, the following 1 or 2.
1. 1. Brightness V is in the range of 220 ≦ V ≦ 255. Lightness V is in the range of 150 ≦ V ≦ 255, saturation S is in the range of 20 ≦ S ≦ 255, and hue H is in the range of 100 ≦ H ≦ 255.

図7は、逆光判定処理について説明する図である。図7には、処理対象のフレーム画像500が図示されている。フレーム画像500において、太線で囲まれた部分が空領域として抽出された領域を示しており、太線で囲まれた部分を除く部分が他領域を示している。   FIG. 7 is a diagram for explaining the backlight determination process. FIG. 7 shows a frame image 500 to be processed. In the frame image 500, a portion surrounded by a thick line indicates a region extracted as an empty region, and a portion excluding a portion surrounded by a thick line indicates another region.

CPU201は、次いで、他領域を3つの領域に分割する。本実施例では、フレーム画像500は、左領域510と中領域520と右領域530とに、縦方向の分割線(図7:破線の太線)で分割される。本実施例では、フレーム画像500は、縦480ピクセル、横780ピクセルの大きさである。左領域510は、本実施例では、左から250ピクセル(横幅に対して約32%)の範囲の領域であり、右領域530は右から250ピクセルの領域である。左領域510および右領域530の横幅に対する割合は、25%〜40%が好ましく、30%〜35%がより好ましい。以下における逆光判定では、左領域510と右領域530の画素の画素値が用いられる。理由は、本実施例における逆光判定は、交通標識を画像処理によって認識するための前処理であり、撮影動画は走行中の車から前方を撮影した動画を用いているからである。この場合、交通標識が存在する可能性が高いのは、左領域510または右領域530であり、中領域520には車両100のボンネット、空、道路が被写体のほとんどを示す可能性が高い。このため、被写体が暗くなってしまう逆光画像であるか否かは、交通標識が存在する可能性が高い左領域510および右領域530の画素を用いて判定することが好ましいからである。   Next, the CPU 201 divides the other area into three areas. In the present embodiment, the frame image 500 is divided into a left region 510, a middle region 520, and a right region 530 by vertical dividing lines (FIG. 7: bold broken lines). In this embodiment, the frame image 500 has a size of 480 pixels vertically and 780 pixels horizontally. In this embodiment, the left area 510 is an area in the range of 250 pixels from the left (about 32% with respect to the horizontal width), and the right area 530 is an area of 250 pixels from the right. The ratio of the left region 510 and the right region 530 to the lateral width is preferably 25% to 40%, and more preferably 30% to 35%. In the backlight determination below, the pixel values of the pixels in the left region 510 and the right region 530 are used. The reason is that the backlight determination in the present embodiment is a pre-process for recognizing a traffic sign by image processing, and the captured moving image uses a moving image captured in front of a running car. In this case, there is a high possibility that a traffic sign exists in the left region 510 or the right region 530, and in the middle region 520, the hood, sky, and road of the vehicle 100 are likely to indicate most of the subject. For this reason, it is preferable to determine whether or not the image is a backlight image in which the subject becomes dark using the pixels of the left region 510 and the right region 530 that are highly likely to have traffic signs.

他領域を3つに分割すると、CPU201は、左領域510と右領域530の画素の明度の平均値をそれぞれ算出する(ステップS450)。すなわち、CPU201は、左領域510を構成する全ての画素の明度Vの平均値である左平均明度VLと、右領域530を構成する全ての画素の明度Vの右平均明度VRとを算出する。   When the other area is divided into three, the CPU 201 calculates the average value of the brightness of the pixels in the left area 510 and the right area 530, respectively (step S450). That is, the CPU 201 calculates a left average brightness VL that is an average value of the brightness V of all the pixels constituting the left area 510 and a right average brightness VR of the brightness V of all the pixels constituting the right area 530.

左平均明度VLと右平均明度VRとが算出されると、CPU201は逆光判定を行う(ステップS460)。本ステップの逆光判定は、フレーム画像500の撮影区間に関連付けられた逆光フラグと、左平均明度VLと、右平均明度VRとに基づいて、フレーム画像500が逆光画像であるか、準逆光画像であるかを判定するものである。準逆光画像は、例えば、太陽の方角から言えば、逆光である可能性が高いが被写体はそれほど暗くはなっていないと推定される画像である。   When the left average lightness VL and the right average lightness VR are calculated, the CPU 201 performs backlight determination (step S460). The backlight determination in this step is performed based on whether the frame image 500 is a backlight image or a quasi-backlight image based on the backlight flag associated with the shooting section of the frame image 500, the left average brightness VL, and the right average brightness VR. It is to determine whether there is. The quasi-backlight image is, for example, an image that is estimated that the subject is not so dark although there is a high possibility of being backlit in the direction of the sun.

以下の条件を満たす場合、フレーム画像500は逆光画像であると判断され、満たさない場合、フレーム画像500は準逆光画像であると判断される。
1.逆光フラグ「10」、かつ、右平均明度VRと左平均明度VLの平均値<85
2.逆光フラグ「11」、かつ、右平均明度VR<98
3.逆光フラグ「12」、かつ、左平均明度VL<98
4.逆光フラグ「21」、かつ、右平均明度VR<98、かつ、左平均明度VL>98
5.逆光フラグ「22」、かつ、左平均明度VL<98、かつ、右平均明度VR>98
When the following conditions are satisfied, the frame image 500 is determined to be a backlight image, and when the conditions are not satisfied, the frame image 500 is determined to be a quasi-backlight image.
1. Backlight flag “10”, and average value of right average brightness VR and left average brightness VL <85
2. Backlight flag “11” and right average brightness VR <98
3. Backlight flag “12” and left average brightness VL <98
4). Backlight flag “21”, right average brightness VR <98, and left average brightness VL> 98
5). Backlight flag “22”, left average brightness VL <98, and right average brightness VR> 98

逆光判定の結果、逆光画像であると判定された場合には(ステップS460:YES)、そのまま処理を終了する。すなわち、フレーム画像500は、逆光フラグと関連付けられたままとなる。逆光判定の結果、準逆光画像であると判定された場合には(ステップS460:NO)、逆光フラグに代えて準逆光フラグを出力する、すなわち、フレーム画像500に逆光フラグに代えて準逆光フラグを関連付けて(ステップS470)、処理を終了する。   As a result of the backlight determination, when it is determined that the image is a backlight image (step S460: YES), the processing is ended as it is. That is, the frame image 500 remains associated with the backlight flag. As a result of the backlight determination, if it is determined that the image is a quasi-backlight image (step S460: NO), the quasi-backlight flag is output instead of the backlight flag, that is, the quasi-backlight flag is output to the frame image 500 instead of the backlight flag. (Step S470), and the process ends.

以上説明した本実施例によれば、太陽の方角と撮影方向との相対角度を用いて、フレーム画像500が逆光であるか否かを推定し、さらに、フレーム画像500の画素値を用いた逆光判定処理と組み合わせて、最終的にフレーム画像500が逆光画像であるか順光画像であるか準逆光画像であるか否かを判定する。この結果、フレーム画像500が逆光画像か否かを精度良く判定することができる。また、本実施例では、左領域510と右領域530の画素値を用いて逆光画像であるか準逆光画像であるかを判断するので、道路を走行しながら撮影したフレーム画像500に特化して、フレーム画像500が逆光画像か否かを精度良く判定することができる。また、空領域を除く他領域の画素値を用いて逆光画像であるか準逆光画像であるかを判断するので、逆光画像において暗く写りやすい、空以外の領域の画素に基づいてフレーム画像500が逆光画像か否かを精度良く判定することができる。また、太陽の方角と撮影方向に基づいた推定結果に応じて、逆光判定処理において逆光判定に適用する条件を変更するので、フレーム画像500が逆光画像か否かを精度良く判定することができる。   According to the present embodiment described above, it is estimated whether or not the frame image 500 is backlit using the relative angle between the direction of the sun and the shooting direction, and further backlit using the pixel values of the frame image 500. In combination with the determination process, it is finally determined whether the frame image 500 is a backlight image, a follow light image, or a quasi-backlight image. As a result, it can be accurately determined whether or not the frame image 500 is a backlight image. In this embodiment, since the pixel values of the left region 510 and the right region 530 are used to determine whether the image is a backlight image or a quasi-backlight image, the frame image 500 taken while traveling on a road is specialized. It can be accurately determined whether or not the frame image 500 is a backlight image. Further, since it is determined whether the image is a backlight image or a quasi-backlight image using the pixel values of other regions excluding the sky region, the frame image 500 is based on the pixels of the region other than the sky, which is likely to appear dark in the backlight image. It is possible to accurately determine whether the image is a backlight image. In addition, since the conditions applied to the backlight determination in the backlight determination process are changed according to the estimation result based on the direction of the sun and the shooting direction, it can be accurately determined whether or not the frame image 500 is a backlight image.

B.変形例
・第1変形例:
上記実施例では、フレーム画像500を左領域510と中領域520と右領域530とに3分割したが、フレーム画像500の分割の手法は他にも各種考えられる。図8および図9は、変形例におけるフレーム画像の分割について説明する図である。例えば、図8に示すような形状にフレーム画像500aを左領域510aと中領域520aと右領域530aとに3分割しても良い。フレーム画像500aの下部は、車両100のボンネットや車道が写る可能性が高いので、その部分は逆光判定に考慮しない中領域520aに含めることが好ましいからである。図9に示す例では、フレーム画像500bの下半分を下領域540bとし、フレーム画像500bの上半分を左領域510bと中領域520bと右領域530bとに3分割している。逆光判定において考慮するのは左領域510bと右領域530bである。フレーム画像500aの下部は、車両100のボンネットや車道が写る可能性が高いので、その部分は逆光判定に考慮しない中領域520aに含めることが好ましいからである。また、逆光判定の後に行う画像処理が交通標識の認識処理である場合には、交通標識は一般的に画面上部に写り込む可能性が高いことから当該領域が逆光になっているか否かを精度良く判定できることが好ましい。したがって、図9に示すように分割することがより好ましい場合がある。
B. Modifications-First modification:
In the above embodiment, the frame image 500 is divided into the left region 510, the middle region 520, and the right region 530, but various other methods for dividing the frame image 500 are conceivable. 8 and 9 are diagrams for explaining division of the frame image in the modification. For example, the frame image 500a may be divided into three parts into a left area 510a, a middle area 520a, and a right area 530a in a shape as shown in FIG. This is because the lower part of the frame image 500a is highly likely to show the hood and roadway of the vehicle 100, and therefore, it is preferable to include that part in the middle region 520a that is not considered in the backlight determination. In the example shown in FIG. 9, the lower half of the frame image 500b is a lower region 540b, and the upper half of the frame image 500b is divided into a left region 510b, a middle region 520b, and a right region 530b. The left region 510b and the right region 530b are considered in the backlight determination. This is because the lower part of the frame image 500a is highly likely to show the hood and roadway of the vehicle 100, and therefore, it is preferable to include that part in the middle region 520a that is not considered in the backlight determination. In addition, when the image processing performed after the backlight determination is a traffic sign recognition process, the traffic sign generally has a high possibility of being reflected in the upper part of the screen. It is preferable that the determination can be made well. Therefore, it may be more preferable to divide as shown in FIG.

・第2変形例:
上記実施例では、撮像装置110の設置方向(撮影方向)が車両100の走行方向と同じであるが、車両100の走行方向に対して撮像装置110の設置方向がある角度をなしていても良い。この場合、例えば、撮像装置110が設置方向の前方ではなく、少し右向きに設置されている場合には、フレーム画像500において、道路や空が写り込む領域と、道路に沿った地物が写り込む領域とが変わってくるので、分割の分割比率、分割形状などを適宜変更することが好ましい。その例を図10〜図12を参照して説明する。
・ Second modification:
In the above embodiment, the installation direction (imaging direction) of the imaging device 110 is the same as the traveling direction of the vehicle 100, but the installation direction of the imaging device 110 may be at an angle with respect to the traveling direction of the vehicle 100. . In this case, for example, when the imaging device 110 is installed slightly to the right rather than in front of the installation direction, in the frame image 500, a region where roads and sky are reflected and features along the road are reflected. Since the area changes, it is preferable to change the division ratio, the division shape, and the like as appropriate. An example thereof will be described with reference to FIGS.

図10は、変形例における撮像装置を示す図である。図10には、撮像装置110A〜110Eの5つの撮像装置が示されている。撮像装置110Aは、実施例と同様に、走行方向と撮影方向が一致している。撮像装置110Bの撮像方向は、走行方向に対して、右回りに72度の角度をなしている。撮像装置110Cの撮像方向は、走行方向に対して、右回りに144度の角度をなしている。撮像装置110Dの撮像方向は、走行方向に対して、左回りに144度の角度をなしている。撮像装置110Eの撮像方向は、走行方向に対して、左回りに72度の角度をなしている。   FIG. 10 is a diagram illustrating an imaging apparatus according to a modification. FIG. 10 shows five imaging devices 110A to 110E. In the imaging apparatus 110A, the traveling direction and the shooting direction coincide with each other as in the embodiment. The imaging direction of the imaging device 110B is 72 degrees clockwise with respect to the traveling direction. The imaging direction of the imaging device 110C is at an angle of 144 degrees clockwise relative to the traveling direction. The imaging direction of the imaging device 110D forms an angle of 144 degrees counterclockwise with respect to the traveling direction. The imaging direction of the imaging device 110E is 72 degrees counterclockwise with respect to the traveling direction.

図11は、図10に示す各撮像装置によって撮影された画像と、各撮像装置によって撮影された画像における逆光判定処理において用いられる画像の分割の態様を示す図である。図11(A)〜(E)は、それぞれ、撮像装置110A〜110Eにおいて撮影された画像を示している。撮像装置110Aにおいて撮影された画像は、実施例と同様に、逆光判定処理において3分割される。これに対して、撮像装置110B、110Eにおいて撮影された画像は、画像全体に建物、交通標識などの高さのある地物が被写体となる可能性がある(図11(B)、(E))ので、逆光判定処理において分割されない。その結果、撮像装置110B、110Eにおいて撮影された画像の逆光判定処理では、画像全体の画素が考慮される。   FIG. 11 is a diagram illustrating an image captured by each imaging device illustrated in FIG. 10 and an image division mode used in the backlight determination process in the image captured by each imaging device. FIGS. 11A to 11E show images taken by the imaging devices 110A to 110E, respectively. The image photographed by the imaging device 110A is divided into three in the backlight determination process, as in the embodiment. On the other hand, in the images taken by the imaging devices 110B and 110E, there is a possibility that a feature having a height such as a building or a traffic sign is the subject as a whole (FIGS. 11B and 11E). Therefore, it is not divided in the backlight determination process. As a result, the pixels of the entire image are taken into account in the backlight determination process for the images captured by the imaging devices 110B and 110E.

一方、撮像装置110Cにおいて撮影された画像は、画像の右半分において、道路、空などが被写体になる可能性が高く、画像の左半分において、建物、交通標識などの高さのある地物が被写体となる可能性が高い。このため、撮像装置110Cにおいて撮影された画像の逆光判定処理では、撮影画像は左右に等分割される(図11(C))。そして、撮像装置110Cにおいて撮影された画像の逆光判定処理では、左側の領域の画素のみが考慮され、右側の領域の画素は考慮されない。また、撮像装置110Dにおいて撮影された画像は、画像の左半分において、道路、空などが被写体になる可能性が高く、画像の右半分において、建物、交通標識などの高さのある地物が被写体となる可能性が高い。このため、撮像装置110Dにおいて撮影された画像の逆光判定処理では、撮影画像は左右に等分割される(図11(D))。そして、撮像装置110Cにおいて撮影された画像の逆光判定処理では、右側の領域の画素のみが考慮され、左側の領域の画素は考慮されない。   On the other hand, in the image captured by the imaging device 110C, there is a high possibility that roads, sky, and the like are subjects in the right half of the image, and there are high-level features such as buildings and traffic signs in the left half of the image. There is a high possibility of becoming a subject. For this reason, in the backlight determination process for the image captured by the imaging device 110C, the captured image is equally divided into left and right (FIG. 11C). In the backlight determination process for the image captured by the imaging device 110C, only the pixels in the left area are considered, and the pixels in the right area are not considered. In addition, in the image captured by the imaging device 110D, there is a high possibility that roads, sky, and the like are subjects in the left half of the image, and in the right half of the image, there are tall features such as buildings and traffic signs. There is a high possibility of becoming a subject. For this reason, in the backlight determination process for the image captured by the imaging device 110D, the captured image is equally divided into left and right (FIG. 11D). In the backlight determination process for the image captured by the imaging device 110C, only the pixels in the right region are considered, and the pixels in the left region are not considered.

図12は、撮像装置110Bの撮影方向とフラグとの関係を示す図である。図12に示すように、本変形例における逆光推定処理では、実施例と同様に、撮像装置110Bの撮影方向と太陽の方角との相対角度に対応して順光フラグまたは出力フラグが出力される。走行方向と太陽の方角との相対角度は無関係であり、撮影方向と太陽の方角との相対角度に対応してフラグが出力される。   FIG. 12 is a diagram illustrating the relationship between the shooting direction of the imaging apparatus 110B and the flags. As shown in FIG. 12, in the backlight estimation process in the present modification, a follow light flag or an output flag is output corresponding to the relative angle between the shooting direction of the imaging device 110B and the sun direction, as in the embodiment. . The relative angle between the traveling direction and the sun direction is irrelevant, and a flag is output corresponding to the relative angle between the shooting direction and the sun direction.

・第3変形例:
上記実施例では、フレーム画像500を左領域510と中領域520と右領域530とに分割し、空の領域を除いた左領域510と右領域530の明度を逆光の判定に用いているが、左領域510と右領域530の領域において、エッジ抽出などにより道路の領域をさらに除いた領域の明度を逆光の判定に用いても良い。立体の地物の部分が逆光画像であるか否かを判断するために好ましい被写体であり、道路などの平面の被写体は逆光画像であるか否かを判断するために好ましい被写体ではないからである。
・ Third modification:
In the above embodiment, the frame image 500 is divided into the left region 510, the middle region 520, and the right region 530, and the brightness of the left region 510 and the right region 530 excluding the sky region is used for backlight determination. In the areas of the left area 510 and the right area 530, the brightness of the area excluding the road area by edge extraction or the like may be used for the backlight determination. This is because it is a preferable subject for determining whether or not a three-dimensional feature portion is a backlight image, and a plane subject such as a road is not a preferable subject for determining whether or not it is a backlight image. .

・第4変形例:
上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしても良い。
-Fourth modification:
In the above embodiment, a part of the configuration realized by hardware may be replaced with software, and conversely, a part of the configuration realized by software may be replaced by hardware.

以上、本発明の実施例および変形例について説明したが、本発明はこれらの実施例および変形例になんら限定されるものではなく、その要旨を逸脱しない範囲内において種々の態様での実施が可能である。   As mentioned above, although the Example and modification of this invention were demonstrated, this invention is not limited to these Example and modification at all, and implementation in a various aspect is possible within the range which does not deviate from the summary. It is.

100…車両
110…撮像装置
120…GPS受信機
130…計算機
200…画像処理装置
201…CPU
202…入出力部
203…内部記憶装置
204…外部記憶装置
500…フレーム画像
DESCRIPTION OF SYMBOLS 100 ... Vehicle 110 ... Imaging device 120 ... GPS receiver 130 ... Calculator 200 ... Image processing apparatus 201 ... CPU
202 ... Input / output unit 203 ... Internal storage device 204 ... External storage device 500 ... Frame image

Claims (6)

画像処理装置であって、
撮影画像を取得する撮影画像取得部と、
前記撮影画像の撮影方向と、前記撮影画像の撮影位置における太陽の方角との相対角度を推定し、該相対角度に基づいて、前記撮影画像が逆光画像であるか否かを推定する逆光推定部と、
前記逆光推定部の推定結果に応じて用いるべき前記撮影画像の領域を決定し、前記決定された領域の画素の画素値に基づいて前記撮影画像が逆光画像であるか否かを判定する逆光判定部と、
を備える、画像処理装置。
An image processing apparatus,
A captured image acquisition unit for acquiring captured images;
A backlight estimation unit that estimates a relative angle between the shooting direction of the captured image and the direction of the sun at the shooting position of the captured image, and estimates whether the captured image is a backlight image based on the relative angle. When,
Backlight determination that determines a region of the captured image to be used according to an estimation result of the backlight estimation unit, and determines whether the captured image is a backlight image based on a pixel value of a pixel in the determined region And
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記撮影画像を複数の領域に分割する撮影画像分割部を備え、
前記逆光判定部は、少なくとも1つの前記領域の画素の画素値に基づいて判定する、画像処理装置。
The image processing apparatus according to claim 1,
A captured image dividing unit that divides the captured image into a plurality of regions;
The said backlight determination part is an image processing apparatus determined based on the pixel value of the pixel of at least 1 of the said area | region.
請求項2に記載の画像処理装置であって、
前記撮影画像分割部は、空が被写体である空領域とその他の領域とに前記撮影画像を分割し、
前記逆光判定部は、前記その他の領域の画素の画素値に基づいて判定する、画像処理装置。
The image processing apparatus according to claim 2,
The photographed image dividing unit divides the photographed image into a sky region where the sky is a subject and other regions,
The said backlight determination part is an image processing apparatus determined based on the pixel value of the pixel of the said other area | region.
請求項2に記載の画像処理装置であって、
前記撮影画像は、道路を走行しながら前方を撮影した画像であり、
前記撮影画像分割部は、左領域、中領域および右領域に前記撮影画像を分割し、
前記逆光判定部は、前記左領域または右領域の画素の画素値に基づいて判定する、画像処理装置。
The image processing apparatus according to claim 2,
The photographed image is an image of the front taken while traveling on the road,
The captured image dividing unit divides the captured image into a left region, a middle region, and a right region,
The said backlight determination part is an image processing apparatus determined based on the pixel value of the pixel of the said left area | region or a right area | region.
画像処理方法であって、
(a)コンピュータが、撮影画像を取得する撮影画像取得工程と、
(b)コンピュータが、前記撮影画像の撮影方向と、前記撮影画像の撮影位置における太陽の方角との相対角度を推定し、該相対角度に基づいて、前記撮影画像が逆光画像であるか否かを推定する逆光推定工程と、
(c)コンピュータが、前記逆光推定工程の推定結果に応じて用いるべき前記撮影画像の領域を決定し、前記決定された領域の画素の画素値に基づいて前記撮影画像が逆光画像であるか否かを判定する逆光判定工程と、
を備える、画像処理方法。
An image processing method comprising:
(A) a captured image acquisition step in which the computer acquires a captured image;
(B) The computer estimates a relative angle between the photographing direction of the photographed image and the direction of the sun at the photographing position of the photographed image, and whether the photographed image is a backlight image based on the relative angle. A backlight estimation process for estimating
(C) A computer determines an area of the captured image to be used according to an estimation result of the backlight estimation step, and whether the captured image is a backlight image based on a pixel value of a pixel of the determined area A backlight determination step for determining whether or not
An image processing method comprising:
コンピュータに画像処理を実行させるためのコンピュータプログラムであって、
撮影画像を取得する撮影画像取得機能と、
前記撮影画像の撮影方向と、前記撮影画像の撮影位置における太陽の方角との相対角度を推定し、該相対角度に基づいて、前記撮影画像が逆光画像であるか否かを推定する逆光推定機能と、
前記逆光推定機能の推定結果に応じて用いるべき前記撮影画像の領域を決定し、前記決定された領域の画素の画素値に基づいて前記撮影画像が逆光画像であるか否かを判定する逆光判定機能と、
を前記コンピュータに実現させるコンピュータプログラム。
A computer program for causing a computer to execute image processing,
A captured image acquisition function for acquiring captured images;
A backlight estimation function that estimates a relative angle between the shooting direction of the captured image and the direction of the sun at the shooting position of the captured image and estimates whether the captured image is a backlight image based on the relative angle. When,
Backlight determination that determines a region of the captured image to be used according to an estimation result of the backlight estimation function and determines whether or not the captured image is a backlight image based on a pixel value of a pixel of the determined region Function and
A computer program for causing the computer to realize the above.
JP2009074260A 2009-03-25 2009-03-25 Image processing apparatus, image processing method, and computer program Pending JP2010226652A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009074260A JP2010226652A (en) 2009-03-25 2009-03-25 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009074260A JP2010226652A (en) 2009-03-25 2009-03-25 Image processing apparatus, image processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2010226652A true JP2010226652A (en) 2010-10-07

Family

ID=43043316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009074260A Pending JP2010226652A (en) 2009-03-25 2009-03-25 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2010226652A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015132925A1 (en) * 2014-03-06 2015-09-11 三菱電機株式会社 Map information processing device and method for processing map information
JP2016151955A (en) * 2015-02-18 2016-08-22 キヤノン株式会社 Image processing apparatus, imaging device, distance measuring device, and image processing method
JP2017028349A (en) * 2015-07-15 2017-02-02 株式会社デンソー Video processing device, operation support display system and video processing method
WO2020105124A1 (en) * 2018-11-20 2020-05-28 本田技研工業株式会社 Autonomous work machine, autonomous work machine control method, and program
WO2020105123A1 (en) * 2018-11-20 2020-05-28 本田技研工業株式会社 Autonomous work machine, autonomous work machine control method, and program
WO2021140721A1 (en) * 2020-01-06 2021-07-15 株式会社Jvcケンウッド Image processing device, image processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015132925A1 (en) * 2014-03-06 2015-09-11 三菱電機株式会社 Map information processing device and method for processing map information
JP2016151955A (en) * 2015-02-18 2016-08-22 キヤノン株式会社 Image processing apparatus, imaging device, distance measuring device, and image processing method
JP2017028349A (en) * 2015-07-15 2017-02-02 株式会社デンソー Video processing device, operation support display system and video processing method
WO2020105124A1 (en) * 2018-11-20 2020-05-28 本田技研工業株式会社 Autonomous work machine, autonomous work machine control method, and program
WO2020105123A1 (en) * 2018-11-20 2020-05-28 本田技研工業株式会社 Autonomous work machine, autonomous work machine control method, and program
JPWO2020105123A1 (en) * 2018-11-20 2021-10-28 本田技研工業株式会社 Autonomous work machine, control method and program of autonomous work machine
JPWO2020105124A1 (en) * 2018-11-20 2021-10-28 本田技研工業株式会社 Autonomous work machine, control method and program of autonomous work machine
JP7152507B2 (en) 2018-11-20 2022-10-12 本田技研工業株式会社 AUTONOMOUS WORKING MACHINE, CONTROL METHOD AND PROGRAM FOR AUTONOMOUS WORKING MACHINE
US11782447B2 (en) 2018-11-20 2023-10-10 Honda Motor Co., Ltd. Autonomous work machine, method of controlling the same, and storage medium
WO2021140721A1 (en) * 2020-01-06 2021-07-15 株式会社Jvcケンウッド Image processing device, image processing method, and program
JP7375552B2 (en) 2020-01-06 2023-11-08 株式会社Jvcケンウッド Image processing device, image processing method and program

Similar Documents

Publication Publication Date Title
US9846927B2 (en) Systems and methods for haziness detection
JP4970516B2 (en) Surrounding confirmation support device
US8818026B2 (en) Object recognition device and object recognition method
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
US20200160561A1 (en) Vehicle-mounted camera pose estimation method, apparatus, and system, and electronic device
US9230300B2 (en) Method for creating a mosaic image using masks
JP5066558B2 (en) Vehicle shadow recognition device
US11004233B1 (en) Intelligent vision-based detection and ranging system and method
JP2010226652A (en) Image processing apparatus, image processing method, and computer program
JP2009157087A (en) Exposure control apparatus and exposure control program
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
WO2019156072A1 (en) Attitude estimating device
US10462378B2 (en) Imaging apparatus
US8428341B2 (en) Apparatus for calculating 3D spatial coordinates of digital images and method thereof
JP2014106739A (en) In-vehicle image processing device
JP2018073275A (en) Image recognition device
JP2008269218A (en) Image processor, image processing method, and image processing program
CN111260538B (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
JP2010237798A (en) Image processor and image processing program
JP2016166794A (en) Image creating apparatus, image creating method, program for image creating apparatus, and image creating system
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP2008230561A (en) Photographing control device and photometry area adjustment method
JP2006178669A (en) Image processing method for tracking mobile object
JP2010218361A (en) Device and method for recognition of traffic sign, and computer program
WO2022186814A1 (en) Vehicle environment modeling with a camera