JP6221682B2 - Image processing apparatus, imaging system, image processing method, and program - Google Patents

Image processing apparatus, imaging system, image processing method, and program Download PDF

Info

Publication number
JP6221682B2
JP6221682B2 JP2013241870A JP2013241870A JP6221682B2 JP 6221682 B2 JP6221682 B2 JP 6221682B2 JP 2013241870 A JP2013241870 A JP 2013241870A JP 2013241870 A JP2013241870 A JP 2013241870A JP 6221682 B2 JP6221682 B2 JP 6221682B2
Authority
JP
Japan
Prior art keywords
image
light image
visible light
hue
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013241870A
Other languages
Japanese (ja)
Other versions
JP2015103906A (en
Inventor
貴史 魚住
貴史 魚住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013241870A priority Critical patent/JP6221682B2/en
Publication of JP2015103906A publication Critical patent/JP2015103906A/en
Application granted granted Critical
Publication of JP6221682B2 publication Critical patent/JP6221682B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Description

本発明は、画像を補正して霧や黄砂等の外乱を除去する画像処理装置、撮像装置と画像処理装置を含む撮像システム、画像処理方法およびその方法をコンピュータに実行させるためのプログラムに関する。   The present invention relates to an image processing apparatus that corrects an image to remove disturbance such as fog and yellow sand, an imaging system including the imaging apparatus and the image processing apparatus, an image processing method, and a program for causing a computer to execute the method.

ダムの水量監視、駅ホームの乗降状況の確認、店舗、空港や学校内の監視等を行うために、監視カメラが使用されている。この監視カメラは、住宅等への侵入者の検知、不審物の検知や犯罪者の顔認証等を画像処理により行う場合にも使用されている。   Surveillance cameras are used to monitor the amount of water in the dam, check the status of getting on and off the station platform, monitor the store, airport and school. This surveillance camera is also used when detecting an intruder into a house or the like, detecting a suspicious object, face authentication of a criminal or the like by image processing.

監視カメラを屋外に設置した場合に、霧や黄砂等の、撮像された画像に対して外的に影響を与える外乱が発生すると、画像のコントラスト(明暗差)が低下し、侵入者の検知等の画像処理に失敗するという問題があった。   When a surveillance camera is installed outdoors, the contrast (brightness / darkness difference) of the image decreases if an external disturbance such as fog or yellow sand occurs that affects the captured image. There was a problem that the image processing failed.

この問題に鑑み、可視光画像と赤外光画像をレンズから取得し、可視光画像内で霧によりコントラストが低下した暗部を、赤外光画像に置き換えることで、明暗がはっきりした画像に補正する技術が提案されている(特許文献1参照)。   In view of this problem, a visible light image and an infrared light image are acquired from a lens, and a dark portion in which the contrast is reduced due to fog in the visible light image is replaced with an infrared light image, thereby correcting the image with clear light and darkness. A technique has been proposed (see Patent Document 1).

また、霧や黄砂等の外乱を除去する目的ではないが、赤外光画像から明度を、可視光画像から彩度を取得することにより、遠距離撮影時でも鮮鋭なカラー画像を取得することができる技術も提案されている(特許文献2参照)。   Also, it is not intended to remove disturbances such as fog and yellow sand, but by acquiring brightness from infrared light images and saturation from visible light images, it is possible to acquire sharp color images even during long-distance shooting. A technique that can be used has also been proposed (see Patent Document 2).

撮像された画像は、外乱によりコントラストに加えて彩度(色味)も低下する。上記従来の技術では、この彩度を復元する処理を行っていないため、外乱が発生する前に撮像された画像と比較してみると、色情報が失われている。   In addition to contrast, the captured image has reduced saturation (color) due to disturbance. In the above-described conventional technique, since the process of restoring the saturation is not performed, the color information is lost when compared with an image captured before a disturbance occurs.

また、外乱が発生すると、画像の鮮鋭性(鮮明さ)も失われるが、上記従来の技術は、この鮮鋭性も復元していないため、外乱が発生する前に撮像された画像と比較してみると、ぼけた画像になる。   Also, when a disturbance occurs, the sharpness (sharpness) of the image is also lost. However, since the above-mentioned conventional technique has not restored this sharpness, it is compared with an image taken before the disturbance occurs. When you look at it, it becomes a blurred image.

可視光は霧等により屈折するが、赤外光は霧等が発生してもほとんど屈折しない。このため、可視光画像と赤外光画像とをそのまま合成すると、位置がずれてしまう。しかしながら、上記従来の技術では、この位置がずれてしまうことを考慮していない。これでは、上記検知や顔認証等の画像処理の精度が低くなってしまう。   Visible light is refracted by fog or the like, but infrared light is hardly refracted even if fog or the like is generated. For this reason, if a visible light image and an infrared light image are combined as they are, the position is shifted. However, the above conventional technique does not consider that this position is shifted. This reduces the accuracy of image processing such as detection and face authentication.

そこで、彩度や鮮鋭性を復元し、位置ずれも考慮して、外乱を除去した画像に補正することができる装置や方法の提供が望まれている。   Therefore, it is desired to provide an apparatus and a method that can restore saturation and sharpness and correct an image from which disturbance has been removed in consideration of positional deviation.

本発明は、上記課題に鑑み、少なくとも1つの撮像装置により撮像された画像を処理するための画像処理装置であって、少なくとも1つの撮像装置から画像として赤外光画像と可視光画像とを取得する画像取得部と、画像取得部により取得された可視光画像に対して彩度補正を行う画像補正部と、画像取得部により取得された赤外光画像の明度情報と、画像補正部により補正された可視光画像の彩度情報および色相情報とを用いて、赤外光画像と補正された可視光画像との位置ずれを補正し、位置ずれを補正した後の赤外光画像と可視光画像とを合成して合成画像を生成する合成画像生成部とを含む、画像処理装置が提供される。   In view of the above problems, the present invention is an image processing device for processing an image picked up by at least one image pickup device, and obtains an infrared light image and a visible light image as an image from the at least one image pickup device. The image acquisition unit, the image correction unit that performs saturation correction on the visible light image acquired by the image acquisition unit, the lightness information of the infrared light image acquired by the image acquisition unit, and the image correction unit Using the saturation information and hue information of the visible light image thus corrected, the misalignment between the infrared light image and the corrected visible light image is corrected, and the infrared light image and the visible light after correcting the misalignment are corrected. An image processing apparatus is provided that includes a composite image generation unit that generates a composite image by combining the images.

本発明の装置、システム、方法およびプログラムを提供することにより、彩度や鮮鋭性を復元し、位置ずれも考慮して、外乱を除去した画像に補正することができ、上記検知や顔認証等の画像処理の精度を向上させることができる。   By providing the apparatus, system, method, and program of the present invention, it is possible to restore saturation and sharpness, and to correct the image from which disturbance has been removed in consideration of misalignment. The accuracy of image processing can be improved.

本実施形態の撮像システムの概略構成を示した図。The figure which showed schematic structure of the imaging system of this embodiment. 図1に示す撮像装置の第1のハードウェア構成を示した図。The figure which showed the 1st hardware constitutions of the imaging device shown in FIG. 図1に示す撮像装置の第2のハードウェア構成を示した図。The figure which showed the 2nd hardware constitutions of the imaging device shown in FIG. 図1に示す撮像装置の第3のハードウェア構成を示した図。The figure which showed the 3rd hardware constitutions of the imaging device shown in FIG. 図1に示す撮像装置の第4のハードウェア構成を示した図。The figure which showed the 4th hardware constitutions of the imaging device shown in FIG. 図1に示す画像処理装置のハードウェア構成を例示した図。The figure which illustrated the hardware constitutions of the image processing apparatus shown in FIG. 図6に示す画像処理装置の機能ブロック図。7 is a functional block diagram of the image processing apparatus shown in FIG. 大気外乱の要因に合わせたRGB色空間における彩度補正について説明する図。The figure explaining the saturation correction | amendment in RGB color space matched with the factor of atmospheric disturbance. 他の色空間における彩度補正について説明する図。The figure explaining the saturation correction | amendment in another color space. エッジ検出について説明する図。The figure explaining edge detection. 色相分割について説明する図。The figure explaining hue division. 視差について説明する図。The figure explaining parallax. 大気外乱による悪影響について説明する図。The figure explaining the bad influence by atmospheric disturbance. 赤外光画像と可視光画像の合成について説明する図。The figure explaining the synthesis | combination of an infrared-light image and a visible light image. 位置ずれ補正の第1例について説明する図。The figure explaining the 1st example of position shift correction. 位置ずれ補正の第2例について説明する図。The figure explaining the 2nd example of position shift correction. 位置ずれ補正の第3例について説明する図。The figure explaining the 3rd example of position shift correction. 位置ずれ補正の第4例について説明する図。The figure explaining the 4th example of position shift amendment. 位置ずれ補正の第5例について説明する図。The figure explaining the 5th example of position shift correction. 位置ずれ補正の第6例について説明する図。The figure explaining the 6th example of position shift correction. 位置ずれ補正の第7例について説明する図。The figure explaining the 7th example of position shift correction. 図1に示す画像処理装置により実行される画像処理の流れを示したフローチャート。2 is a flowchart showing a flow of image processing executed by the image processing apparatus shown in FIG. 1.

図1は、本実施形態の撮像装置と画像処理装置とを含む撮像システムの構成例を示した図である。図1に示す撮像システムは、撮像装置としての2つのカメラ10、11と、画像処理装置としてのPC12とから構成されている。ここでは、画像処理装置としてPC12を用いているが、カメラ10、11に画像処理エンジンを搭載し、その画像処理エンジンを画像処理装置として用いることも可能である。また、画像処理を行う装置として、PC12以外の機器を用いることも可能である。カメラ10、11とPC12とは、直接ケーブルにより、もしくはネットワークを介して接続され、撮像した画像の画像データを、カメラ10、11からPC12へ送信することができるようになっている。   FIG. 1 is a diagram illustrating a configuration example of an imaging system including an imaging apparatus and an image processing apparatus according to the present embodiment. The imaging system shown in FIG. 1 includes two cameras 10 and 11 as imaging devices and a PC 12 as an image processing device. Here, the PC 12 is used as the image processing apparatus, but it is also possible to mount an image processing engine on the cameras 10 and 11 and use the image processing engine as the image processing apparatus. In addition, it is possible to use a device other than the PC 12 as an apparatus for performing image processing. The cameras 10 and 11 and the PC 12 are directly connected via a cable or via a network, and image data of captured images can be transmitted from the cameras 10 and 11 to the PC 12.

カメラ10、11とPC12とを接続する場合、有線接続、無線接続のいずれの方式で接続してもよい。無線接続する場合、Bluetooth(登録商標)やWi−Fi等の無線LAN等を利用することができる。無線LANを利用する場合、ネットワークに接続されたアクセスポイントと呼ばれる無線通信を中継する中継装置を介して通信を行うことができる。   When the cameras 10 and 11 and the PC 12 are connected, they may be connected by either wired connection or wireless connection. For wireless connection, a wireless LAN such as Bluetooth (registered trademark) or Wi-Fi can be used. When using a wireless LAN, communication can be performed via a relay device that relays wireless communication called an access point connected to a network.

カメラ10は、赤外線の波長領域内にある赤外光により形成される画像(赤外光画像)を取得する赤外光カメラである。カメラ11は、可視光線の波長領域内にある可視光により形成される画像(可視光画像)を取得する可視光カメラである。これらカメラの詳細な構成については、後述する。なお、図1では、2つのカメラ10、11を使用する構成を例示しているが、赤外光画像と可視光画像の両方を取得することができれば、1台のカメラを使用してもよい。   The camera 10 is an infrared camera that acquires an image (infrared light image) formed by infrared light in the infrared wavelength region. The camera 11 is a visible light camera that acquires an image (visible light image) formed by visible light in the visible light wavelength region. The detailed configuration of these cameras will be described later. In addition, although the structure which uses the two cameras 10 and 11 is illustrated in FIG. 1, as long as both an infrared light image and a visible light image can be acquired, you may use one camera. .

PC12は、2つのカメラ10、11から送信された赤外光画像の画像データおよび可視光画像の画像データを受信し、それら画像データを用いて画像処理を行う。このように実際にやりとりされるものは、画像データであるが、以下、説明を容易にするために、画像として説明する。   The PC 12 receives the image data of the infrared light image and the image data of the visible light image transmitted from the two cameras 10 and 11, and performs image processing using the image data. In this way, what is actually exchanged is image data. However, in order to facilitate the description, it will be described as an image.

PC12における画像処理では、各画像につき補正を行い、各画像の位置を調整し、2つの画像を合成して、合成画像を出力する。出力された合成画像は、例えば、データベースに登録されている複数の画像と照合され、上述した侵入者の検知、不審物の検知、犯罪者の顔認証等の画像処理に使用される。このデータベースは、別途設けられていてもよいし、PC12に実装されていてもよい。   In the image processing in the PC 12, each image is corrected, the position of each image is adjusted, the two images are combined, and a combined image is output. The output composite image is collated with, for example, a plurality of images registered in the database, and used for image processing such as intruder detection, suspicious object detection, and criminal face authentication described above. This database may be provided separately or may be mounted on the PC 12.

図2〜図5を参照して、カメラ10、11のハードウェア構成について説明する。図2では、カメラ10、11は、光が入力されるレンズ20、21と、レンズ20、21を通過した光を受光するセンサ22、23とを含んで構成されている。カメラ10、11は、図示していないが、そのほか、レンズ20、21に近隣して配置される絞り、その絞りとセンサ22、23との間に配置されるシャッタ等を備えることができる。   The hardware configuration of the cameras 10 and 11 will be described with reference to FIGS. In FIG. 2, the cameras 10 and 11 include lenses 20 and 21 to which light is input and sensors 22 and 23 that receive light that has passed through the lenses 20 and 21. Although not shown, the cameras 10 and 11 may further include a diaphragm disposed in the vicinity of the lenses 20 and 21, a shutter disposed between the diaphragm and the sensors 22 and 23, and the like.

レンズ20、21は、焦点距離が固定された単焦点レンズであってもよいし、焦点距離を連続的に変化させることができるズームレンズであってもよい。センサ22は、CCDイメージセンサまたはCMOSイメージセンサと、カラーフィルタとを用いた、RGrGbBセンサとすることができる。   The lenses 20 and 21 may be single focal lenses having a fixed focal length, or may be zoom lenses capable of continuously changing the focal length. The sensor 22 can be an RGrGbB sensor using a CCD image sensor or a CMOS image sensor and a color filter.

図2では、センサ22の総画素数Nに対して、緑(Gr、Gb)の画素をN/2とし、赤(R)および青(B)の画素をN/4として主走査方向および副走査方向に1つ置きに配置したベイヤ配列されたセンサを用いている。このセンサ22において、可視領域の光(可視光線)を受光し、電気信号に変換(ベイヤ変換)することで、RGBの三原色からなるカラーの可視光画像を取得することができる。ここで、主走査方向は、例えば、画像に向かって横方向(左から右へ向かう方向)であり、副走査方向は、主走査方向に対して垂直な縦方向(上から下へ向かう方向)である。   In FIG. 2, the green (Gr, Gb) pixels are set to N / 2 and the red (R) and blue (B) pixels are set to N / 4 with respect to the total number N of pixels of the sensor 22. Bayer-arranged sensors arranged every other in the scanning direction are used. The sensor 22 receives light in the visible region (visible light) and converts it into an electrical signal (Bayer conversion), thereby obtaining a visible light image of the three primary colors RGB. Here, the main scanning direction is, for example, the horizontal direction (the direction from left to right) toward the image, and the sub-scanning direction is the vertical direction (the direction from top to bottom) perpendicular to the main scanning direction. It is.

センサ23は、赤外領域の光(赤外線)を受光し、電気信号に変換する専用の赤外線センサ(Irセンサ)を用いることができる。このIrセンサにより電気信号に変換することで、赤外光画像を取得することができる。なお、これらのセンサ22、23から出力される電気信号はアナログ信号である。このため、A/Dコンバータを用い、アナログ信号をデジタルデータへ変換し、このデジタルデータを可視光画像の画像データや赤外光画像の画像データとして取得することができる。   The sensor 23 may be a dedicated infrared sensor (Ir sensor) that receives light in the infrared region (infrared rays) and converts the light into an electrical signal. An infrared light image can be acquired by converting to an electrical signal by the Ir sensor. The electrical signals output from these sensors 22 and 23 are analog signals. Therefore, an analog signal can be converted into digital data using an A / D converter, and the digital data can be acquired as image data of a visible light image or image data of an infrared light image.

図2では、カメラを2台用いて、赤外光画像と可視光画像とをそれぞれ別個に取得する構成を例示した。カメラを2台用いると、装置コストがかかることから、それら2つの画像をカメラ1台で取得することができれば、1台のほうが望ましい。図3には、1台のカメラ10のみを用い、2つの画像を取得する構成の一例が示されている。この構成では、レンズ20と、センサ22、23とのほか、3つのミラー24〜26と、赤外光カットフィルタ27と、可視光カットフィルタ28とを備えている。   FIG. 2 illustrates a configuration in which two cameras are used to separately acquire an infrared light image and a visible light image. If two cameras are used, the cost of the apparatus is increased. Therefore, if one of the two images can be acquired by one camera, one is preferable. FIG. 3 shows an example of a configuration that uses only one camera 10 and acquires two images. In this configuration, in addition to the lens 20 and the sensors 22 and 23, three mirrors 24 to 26, an infrared light cut filter 27, and a visible light cut filter 28 are provided.

ミラー24は、2枚のミラーがV字形に連結されていて、入射された光を2方向へ分離することができるようになっている。このため、レンズ20に入射された光は、ミラー24により2方向への光に分離された後、一方がミラー25を介して赤外光カットフィルタ27へ送られ、他方がミラー26を介して可視光カットフィルタ28へ送られる。赤外光カットフィルタ27では、入射された光の赤外領域の光(波長が約0.7μm〜約1mm)の透過を阻止し、それより短い波長の可視光(波長が約380nm〜約810nm)を透過させる。赤外光カットフィルタ27を透過した可視光は、センサ22により受光され、電気信号に変換される。そして、A/Dコンバータにより変換され、可視光画像が画像データとして取得される。   The mirror 24 has two mirrors connected in a V shape so that incident light can be separated in two directions. For this reason, after the light incident on the lens 20 is separated into light in two directions by the mirror 24, one is sent to the infrared light cut filter 27 through the mirror 25, and the other through the mirror 26. It is sent to the visible light cut filter 28. The infrared light cut filter 27 blocks the transmission of incident light in the infrared region (wavelength of about 0.7 μm to about 1 mm), and visible light having a shorter wavelength (wavelength of about 380 nm to about 810 nm). ). Visible light transmitted through the infrared light cut filter 27 is received by the sensor 22 and converted into an electrical signal. And it converts with an A / D converter and a visible light image is acquired as image data.

可視光カットフィルタ28では、入射された光のうち可視光の透過を阻止し、それより波長が長い赤外光を透過させる。可視光カットフィルタ28を透過した赤外光は、センサ23により受光され、電気信号に変換される。そして、A/Dコンバータにより変換され、赤外光画像が画像データとして取得される。   The visible light cut filter 28 blocks visible light from the incident light and transmits infrared light having a longer wavelength. The infrared light transmitted through the visible light cut filter 28 is received by the sensor 23 and converted into an electrical signal. And it converts with an A / D converter and an infrared-light image is acquired as image data.

カメラ1台のみを用いる構成としては、図4や図5に示すような構成を採用することもできる。図4に示す構成では、レンズ20とセンサ29のみが使用される。センサ29は、特殊なセンサで、ベイヤ配列ではなく、R、G、B、Irが1つのセンサに実装され、この1つのセンサにより可視光画像と赤外光画像を取得することができるようになっている。ただし、このセンサ29は、専用のIrセンサに対して実質1/4の画素数しかないので、実質1/4の解像度となる。   As a configuration using only one camera, a configuration as shown in FIG. 4 or FIG. 5 can be adopted. In the configuration shown in FIG. 4, only the lens 20 and the sensor 29 are used. The sensor 29 is a special sensor, and R, G, B, and Ir are mounted in one sensor, not a Bayer array, and a visible light image and an infrared light image can be acquired by this one sensor. It has become. However, since the sensor 29 has substantially a 1/4 pixel number as compared with the dedicated Ir sensor, the resolution is substantially 1/4.

図5に示す構成では、レンズ20と、センサ22、23と、フレーム単位で切り替えて使用する赤外光カットフィルタ27、可視光カットフィルタ28、ミラー30とを備えている。図2〜図4の構成では、赤外光画像と可視光画像とを同じタイミングで取得することができたが、図5に示す構成では、フレーム単位で切り替えて使用するため、同じタイミングで取得することはできない。   The configuration shown in FIG. 5 includes a lens 20, sensors 22 and 23, an infrared light cut filter 27, a visible light cut filter 28, and a mirror 30 that are switched and used in units of frames. 2 to 4, the infrared light image and the visible light image can be acquired at the same timing. However, in the configuration shown in FIG. I can't do it.

したがって、あるタイミングでは、赤外光カットフィルタ27を使用し、赤外光の透過を阻止し、可視光を透過させ、センサ22へ入射させる。これにより、センサ22では、入射された光を電気信号へ変換し、可視光画像を取得する。その次のタイミングでは、可視光カットフィルタ28とミラー30とを使用し、可視光の透過を阻止し、赤外光を透過させ、ミラー30によりセンサ23へ入射させる。これにより、センサ23では、入射された光を電気信号へ変換し、赤外光画像を取得する。例えば、偶数フレームは、赤外光カットフィルタ27を使用し、奇数フレームは、可視光カットフィルタ28およびミラー30を使用して、可視光画像および赤外光画像を取得することができる。   Therefore, at a certain timing, the infrared light cut filter 27 is used to block the transmission of infrared light, transmit visible light, and enter the sensor 22. Thereby, in the sensor 22, the incident light is converted into an electric signal, and a visible light image is acquired. At the next timing, the visible light cut filter 28 and the mirror 30 are used to block transmission of visible light, transmit infrared light, and enter the sensor 23 through the mirror 30. Thereby, in the sensor 23, the incident light is converted into an electric signal and an infrared light image is acquired. For example, the visible light image and the infrared light image can be acquired by using the infrared light cut filter 27 for the even frame and the visible light cut filter 28 and the mirror 30 for the odd frame.

図5に示す構成では、2つのフレームに対して、それぞれ1枚の画像しか得られないため、図2〜図4に示す構成と同じ撮影速度を出すためには、それらの2倍の速度で撮影する必要がある。なお、図2〜図5に示した構成は、一例を示したものであり、可視光画像と赤外光画像とを取得することができる構成であれば、これ以外のいかなる構成を採用してもよい。   In the configuration shown in FIG. 5, only one image can be obtained for each of the two frames. Therefore, in order to obtain the same shooting speed as the configuration shown in FIGS. I need to shoot. The configurations shown in FIGS. 2 to 5 are only examples, and any configuration other than this may be adopted as long as a visible light image and an infrared light image can be acquired. Also good.

図6は、PC12のハードウェア構成を例示した図である。PC12は、カメラ10、11から出力された赤外光画像および可視光画像を画像データとして取得し、それら2つの画像に対して画像処理を施し、合成して合成画像を生成する処理を行う。このため、これらの処理を実行するためのプログラムが記憶された記憶装置と、その記憶装置からそのプログラムを読み出して実行するCPU40とを備える。記憶装置は、ブートプログラムやファームウェア等を記憶するROM41と、CPU40に対して作業領域を提供するRAM42と、上記のプログラムやOS、その他のアプリケーション等を記憶するHDD43とを含んで構成される。なお、HDD43に代えてSSDを用いることもできる。   FIG. 6 is a diagram illustrating a hardware configuration of the PC 12. The PC 12 acquires the infrared light image and the visible light image output from the cameras 10 and 11 as image data, performs image processing on the two images, and combines them to generate a combined image. For this reason, a storage device in which a program for executing these processes is stored, and a CPU 40 that reads and executes the program from the storage device are provided. The storage device includes a ROM 41 that stores a boot program, firmware, and the like, a RAM 42 that provides a work area to the CPU 40, and an HDD 43 that stores the above-described program, OS, and other applications. An SSD can be used instead of the HDD 43.

PC12は、カメラ10、11とケーブル等により接続するための入出力インタフェース44と、ネットワークを介して通信を可能にする図示しない通信インタフェースとを備えることができる。また、PC12は、記録メディア45への読み書きを可能にする外部記憶インタフェース46、処理状況等を表示するための表示装置47、各種データや設定値の入力、アイコンの選択等を行う入力装置48を備えることができる。入力装置48としては、キーボードやマウス等を用いることができる。   The PC 12 can include an input / output interface 44 for connecting to the cameras 10 and 11 by a cable or the like, and a communication interface (not shown) that enables communication via a network. In addition, the PC 12 includes an external storage interface 46 that enables reading and writing to the recording medium 45, a display device 47 for displaying processing statuses, an input device 48 for inputting various data and setting values, selecting icons, and the like. Can be provided. As the input device 48, a keyboard, a mouse, or the like can be used.

CPU40、ROM41、RAM42、HDD43、入出力インタフェース44等は、バス49に接続され、バス49を介して互いにデータ等のやりとりを行うことができるようになっている。   The CPU 40, ROM 41, RAM 42, HDD 43, input / output interface 44, etc. are connected to a bus 49 so that data can be exchanged with each other via the bus 49.

図7は、PC12の機能ブロック図である。CPU40がHDD43に記憶されたプログラムを読み出し実行することにより、以下に示す各機能部として機能させることができる。PC12は、カメラ10、11といった少なくとも1つの撮像装置により撮像された画像を処理するための画像処理装置として機能する。PC12は、カメラ10、11から赤外光画像と可視光画像とを取得する画像取得部50と、画像取得部50により取得された可視光画像に対して彩度補正を行う画像補正部51と、合成画像生成部52とを備える。   FIG. 7 is a functional block diagram of the PC 12. When the CPU 40 reads out and executes the program stored in the HDD 43, it can function as the following functional units. The PC 12 functions as an image processing device for processing an image captured by at least one imaging device such as the cameras 10 and 11. The PC 12 includes an image acquisition unit 50 that acquires an infrared light image and a visible light image from the cameras 10 and 11, and an image correction unit 51 that performs saturation correction on the visible light image acquired by the image acquisition unit 50. A composite image generation unit 52.

合成画像生成部52は、赤外光画像の明度情報と、補正された可視光画像の彩度情報および色相情報とを用いて、赤外光画像とその補正された可視光画像との位置ずれを補正する。そして、合成画像生成部52は、位置ずれを補正した後の赤外光画像と可視光画像とを合成して合成画像を生成する。   The composite image generation unit 52 uses the lightness information of the infrared light image and the saturation information and hue information of the corrected visible light image to shift the position of the infrared light image from the corrected visible light image. Correct. Then, the composite image generation unit 52 generates a composite image by combining the infrared light image and the visible light image after correcting the positional deviation.

PC12は、そのほか、フィルタ部53と、エッジ検出部54と、色相分割部55とを備えることができる。これらの機能部は、必要に応じて設けることができる。フィルタ部53は、フィルタ処理をかけ、入力された画像のノイズを除去し、エッジ強調を行う。ノイズ除去は、カメラ10、11が備える撮像素子の不良等に起因して発生するノイズを取り除く処理である。例えば、移動平均フィルタやメディアンフィルタ等を使用してノイズを除去することができる。エッジ強調は、画像の輪郭の濃度勾配を急峻にし、画像をシャープにする処理である。この処理には、例えば、アンシャープマスク等を使用することができる。これらの処理は、よく知られた処理であり、ここでは詳述しない。   In addition, the PC 12 can include a filter unit 53, an edge detection unit 54, and a hue division unit 55. These functional units can be provided as necessary. The filter unit 53 performs filter processing, removes noise from the input image, and performs edge enhancement. The noise removal is a process for removing noise generated due to a defect of an image sensor provided in the cameras 10 and 11. For example, noise can be removed using a moving average filter, a median filter, or the like. Edge enhancement is a process for sharpening an image by making the density gradient of the image contour steep. For this process, for example, an unsharp mask or the like can be used. These processes are well-known processes and will not be described in detail here.

エッジ検出部54は、画像の明度が急峻、すなわち不連続に変化するエッジを検出する。例えば、明度が閾値を超えるかどうかを判定することにより、エッジかどうかを決定することができる。このエッジ検出は、例えば、ラプラシアンフィルタ、ソーベルフィルタ、プレヴィッツフィルタ等を使用して行うことができる。   The edge detection unit 54 detects an edge where the brightness of the image is steep, that is, discontinuously changes. For example, it can be determined whether it is an edge by determining whether the brightness exceeds a threshold. This edge detection can be performed using, for example, a Laplacian filter, a Sobel filter, a Prewitz filter, or the like.

色相分割部55は、彩度補正後の可視光画像の色相を分割し、画素毎にどの色相にあるかを判定する。この色相は、例えば、8分割であってもよいし、16分割であってもよい。分割数は、任意に設定することができる。   The hue dividing unit 55 divides the hue of the visible light image after the saturation correction, and determines which hue is present for each pixel. This hue may be, for example, 8 divisions or 16 divisions. The number of divisions can be set arbitrarily.

画像取得部50は、カメラ10、11から赤外光画像と可視光画像とを取得する。ここで、各画像の特徴について説明しておく。赤外光画像は、霧や黄砂といった外乱の影響を受けにくく、鮮鋭性が高く、コントラストも高いという長所をもつ反面、モノクロ画像になってしまうという短所をもつ。可視光画像は、外乱の影響を受けやすく、鮮鋭性が低下しやすく、コントラストも低下しやすい。可視光画像は、カラー画像であるため、ある程度の彩度をもつが、外乱が発生した場合、その外乱の影響により彩度等は低下する。   The image acquisition unit 50 acquires an infrared light image and a visible light image from the cameras 10 and 11. Here, the characteristics of each image will be described. Infrared light images are less susceptible to disturbances such as fog and yellow sand, have the advantages of high sharpness and high contrast, but have the disadvantage of becoming monochrome images. Visible light images are susceptible to disturbance, sharpness is likely to be reduced, and contrast is likely to be reduced. Since the visible light image is a color image, it has a certain degree of saturation. However, when a disturbance occurs, the saturation and the like decrease due to the influence of the disturbance.

画像取得部50は、取得した赤外光画像をフィルタ部53へ出力し、フィルタ部53が、その赤外光画像に対してフィルタ処理をかける。フィルタ処理では、上述したノイズ処理とエッジ強調を実施する。フィルタ部53は、フィルタ処理をかけた後、エッジ検出部54へフィルタ処理後の赤外線画像を出力する。また、フィルタ部53は、合成画像生成部52へも、そのフィルタ処理後の赤外光画像を出力する。   The image acquisition unit 50 outputs the acquired infrared light image to the filter unit 53, and the filter unit 53 performs a filtering process on the infrared light image. In the filter processing, the above-described noise processing and edge enhancement are performed. After performing the filtering process, the filter unit 53 outputs the infrared image after the filtering process to the edge detection unit 54. The filter unit 53 also outputs the infrared light image after the filtering process to the composite image generation unit 52.

エッジ検出部54は、その赤外光画像に対してエッジ検出を行う。エッジ検出は、赤外光画像の画素毎にエッジであるか、非エッジであるかを判定し、1ビットのエッジ情報として記録する。エッジ情報は、図6に示したRAM42等の記憶装置に記憶することにより記録することができる。エッジ検出部54は、この記録したエッジ情報を合成画像生成部52へ出力することができる。なお、エッジ情報は、エッジ検出部54が合成画像生成部52へ出力する形ではなく、合成画像生成部52が取得する形であってもよい。   The edge detection unit 54 performs edge detection on the infrared light image. In the edge detection, it is determined for each pixel of the infrared light image whether it is an edge or a non-edge, and is recorded as 1-bit edge information. The edge information can be recorded by being stored in a storage device such as the RAM 42 shown in FIG. The edge detection unit 54 can output the recorded edge information to the composite image generation unit 52. Note that the edge information may be in a form acquired by the composite image generation unit 52 instead of being output by the edge detection unit 54 to the composite image generation unit 52.

画像取得部50は、取得した可視光画像を画像補正部51へ渡し、画像補正部51が、その可視光画像に対して彩度補正を行う。彩度補正では、外乱の影響を受けて低下した可視光画像の彩度を補正し、その彩度を向上させる。彩度補正は、RGBという三原色の色空間をもつ可視光画像の場合、YUVという別の色空間に変換した後に、補正パラメータとしてのLUTを用いて実施することもできるし、そのYUVに変換する際のマスキング処理において実施することもできる。   The image acquisition unit 50 passes the acquired visible light image to the image correction unit 51, and the image correction unit 51 performs saturation correction on the visible light image. In the saturation correction, the saturation of the visible light image that is lowered due to the influence of disturbance is corrected, and the saturation is improved. Saturation correction can be performed using a LUT as a correction parameter after conversion to another color space called YUV in the case of a visible light image having the three primary colors of RGB, or converted to YUV. It can also be carried out in the masking process.

ここで、YUVは、輝度信号(Y)、輝度信号と青色成分の差分信号(U)、輝度信号と赤色成分の差分信号(V)の3要素によって色を表現する色空間である。LUTは、色の変換元と変換先を記したテーブルである。マスキング処理は、色変換の1つの手法で、入力色空間にマトリクス演算を施して出力色空間を求める手法である。   Here, YUV is a color space that expresses a color by three elements: a luminance signal (Y), a difference signal (U) between the luminance signal and the blue component, and a difference signal (V) between the luminance signal and the red component. The LUT is a table describing color conversion sources and conversion destinations. The masking process is a technique for color conversion, and is a technique for obtaining an output color space by performing a matrix operation on the input color space.

彩度補正は、霧や黄砂等の撮影時の外乱の種類に応じてLUTを切り替えることができる。その詳細については後述する。そして、色相分割部55が、彩度補正後の可視光画像に対して色相分割する。この色相分割により、可視光画像の色味に関わるYUVという3つの成分のうち、UVの2つの成分(UV版)のバランスに応じて色相を決定する。色相分割部55は、こうして得られた色相情報と、可視光画像とを後段の合成画像生成部52へ出力する。   In the saturation correction, the LUT can be switched according to the type of disturbance such as fog or yellow sand. Details thereof will be described later. Then, the hue division unit 55 divides the hue of the visible light image after the saturation correction. By this hue division, the hue is determined according to the balance of the two components (UV version) of UV among the three components YUV related to the color of the visible light image. The hue division unit 55 outputs the hue information thus obtained and the visible light image to the subsequent composite image generation unit 52.

合成画像生成部52は、赤外光画像と可視光画像とを、その位置座標を合わせる位置ずれ補正を行ってから合成する。合成画像は、YUV版をもち、Yにはフィルタ部53から出力された赤外光画像のY版を、UVにはYUVに変換した可視光画像のUV版を用いる。合成の際、最初にレンズの位置関係(視差)の補正を行う。この視差補正を行っても、外乱の屈折の影響で、赤外光画像の画素と、可視光画像の画素の位置がずれる可能性が高い。ちなみに、赤外光はほとんど屈折しない。YUVが重ならないと、異常な画像に見えることから、赤外光画像におけるエッジの位置と可視光画像における色相の境界とが重なるように位置合わせして合成する。   The composite image generation unit 52 combines the infrared light image and the visible light image after performing positional deviation correction that matches the position coordinates. The composite image has a YUV version, where Y is a Y version of an infrared light image output from the filter unit 53, and UV is a UV version of a visible light image converted into YUV. At the time of synthesis, first, the positional relationship (parallax) of the lens is corrected. Even if this parallax correction is performed, there is a high possibility that the positions of the pixels of the infrared light image and the pixels of the visible light image are shifted due to the influence of refraction of the disturbance. Incidentally, infrared light hardly refracts. If the YUV does not overlap, it looks like an abnormal image. Therefore, the position of the edge in the infrared light image and the hue boundary in the visible light image are aligned and combined.

このように合成して合成画像を生成することにより、霧や黄砂等の外乱の影響を受けても、鮮鋭性、コントラスト、彩度が高い画像を出力することができる。以降、各機能部が実行する各処理の内容について1つずつ順に、詳細に説明していく。   By generating a composite image by synthesizing in this way, an image with high sharpness, contrast, and saturation can be output even under the influence of disturbance such as fog or yellow sand. Hereinafter, the contents of each process executed by each functional unit will be described in detail one by one in order.

図8は、外乱として大気外乱の要因に合わせたRGB色空間における彩度補正について説明する図である。ここでは、彩度補正の例として、LUTを用いた処理を説明する。図8(a)は、大気外乱の一例として、霧が発生した場合の彩度補正について説明する図であり、図8(b)は、黄砂が発生した場合の彩度補正について説明する図である。   FIG. 8 is a diagram for explaining saturation correction in the RGB color space according to the cause of atmospheric disturbance as disturbance. Here, processing using an LUT will be described as an example of saturation correction. FIG. 8A is a diagram for explaining saturation correction when fog occurs as an example of atmospheric disturbance, and FIG. 8B is a diagram for explaining saturation correction when yellow sand occurs. is there.

図8(a)に示すグラフの横軸は、入力の画素値を示し、縦軸は、出力の画素値を示す。グラフに示す直線は、彩度補正を行わない場合の入力および出力の画素値の関係を示している。曲線は、霧が発生した場合の各色につき設定されたLUTを表している。例えば、彩度補正前の入力の画素値がR、G、Bのいずれも100であったとする。彩度補正を行わない場合、横軸の100に相当する位置から上に垂線を引き、直線との交点の縦軸座標がその出力の画素値となる。すなわち、その出力の画素値は(R,G,B)=(100,100,100)となる。   The horizontal axis of the graph shown in FIG. 8A indicates the input pixel value, and the vertical axis indicates the output pixel value. The straight line shown in the graph indicates the relationship between input and output pixel values when saturation correction is not performed. The curve represents the LUT set for each color when fog occurs. For example, it is assumed that the input pixel value before saturation correction is 100 for all of R, G, and B. When saturation correction is not performed, a vertical line is drawn upward from a position corresponding to 100 on the horizontal axis, and the vertical axis coordinate of the intersection with the straight line becomes the pixel value of the output. That is, the output pixel value is (R, G, B) = (100,100,100).

これに対し、彩度補正を行った場合は、横軸の100に相当する位置から上に垂線を引き、各曲線との交点の縦軸座標が彩度補正後の画素値となる。すなわち、その出力の画素値は(R,G,B)=(R100,G100,B100)となる。   On the other hand, when saturation correction is performed, a vertical line is drawn upward from a position corresponding to 100 on the horizontal axis, and the vertical axis coordinate of the intersection with each curve becomes the pixel value after saturation correction. That is, the output pixel value is (R, G, B) = (R100, G100, B100).

霧が発生した場合、霧による光の屈折、散乱、吸収が起こり、その影響はその光の波長が短いほど受けやすい。RGB版の可視光画像では、B、G、Rの順に霧の影響を受けやすいことになる。このため、B版は彩度が低下しやすいが、R版は彩度が低下しにくい。また、図8(a)の斜線で示した低彩度部や高彩度部は、比較的霧の影響を受けにくい傾向がある。そこで、RGBの色毎にLUTを表す曲線の形状を変え、影響を受けやすい中彩度部の彩度が向上するようにしている。なお、LUTの形状は、図8(a)に示したような形状に限られるものではなく、他の形状であってもよい。また、ここでは各色につき、LUTの形状を変えているが、同じ形状としてもよい。   When fog is generated, light is refracted, scattered, and absorbed by the fog, and the influence is more likely as the wavelength of the light is shorter. In the RGB version of the visible light image, it is easily affected by fog in the order of B, G, and R. For this reason, the saturation of the B version tends to decrease, but the saturation of the R version does not easily decrease. Further, the low saturation portion and the high saturation portion indicated by the oblique lines in FIG. 8A tend to be relatively less susceptible to fog. Therefore, the shape of the curve representing the LUT is changed for each RGB color, so that the saturation of the intermediate saturation portion that is easily affected is improved. The shape of the LUT is not limited to the shape shown in FIG. 8A, and may be another shape. Here, the shape of the LUT is changed for each color, but the same shape may be used.

図8(b)に示すグラフも、横軸は、入力の画素値を示し、縦軸は、出力の画素値を示す。グラフに示す直線は、彩度補正を行わない場合の入力および出力の画素値の関係を示している。曲線は、黄砂が発生した場合の各色につき設定されたLUTを表している。   In the graph shown in FIG. 8B, the horizontal axis indicates the input pixel value, and the vertical axis indicates the output pixel value. The straight line shown in the graph indicates the relationship between input and output pixel values when saturation correction is not performed. The curve represents the LUT set for each color when yellow sand is generated.

黄砂が発生した場合、黄砂による光の屈折、散乱、吸収が起こるが、黄砂の主成分である黄色の補色である青(B)がその影響を強く受け、彩度が低下する。これに対し、緑(G)、赤(R)はその影響を受けにくい。そこで、B版のみを彩度を大きく持ち上げたLUTの形状とし、G版、R版については彩度を極端に上げないようにしたLUTの形状とする。これもまた、LUTの形状は、図8(b)に示したような形状に限られるものではなく、他の形状であってもよい。また、ここでは各色につき、LUTの形状を変えているが、同じ形状としてもよい。図8では、大気外乱として霧と黄砂を例として挙げたが、他の大気外乱に適用することも可能である。   When yellow sand is generated, light is refracted, scattered, and absorbed by the yellow sand. Blue (B), which is a yellow complementary color that is the main component of yellow sand, is strongly affected by this, and the saturation is lowered. In contrast, green (G) and red (R) are not easily affected. Therefore, only the B plate has an LUT shape in which the saturation is greatly increased, and the G plate and R plate have an LUT shape in which the saturation is not extremely increased. Again, the shape of the LUT is not limited to the shape shown in FIG. 8B, but may be other shapes. Here, the shape of the LUT is changed for each color, but the same shape may be used. In FIG. 8, fog and yellow sand are taken as an example of the atmospheric disturbance, but it is also possible to apply to other atmospheric disturbances.

図9は、他の色空間における彩度補正について説明する図である。図8ではRGB色空間で彩度補正を行っているが、この図9では、RGBを一般的な変換式を用いてYUV色空間に変換し、明度であるY版に対しては処理をかけず、彩度・色相であるUV版のみ処理をかけてもよい。大気外乱が霧である場合、霧の影響を受けやすい青(B)を表現するU版のLUTの傾きを大きく、霧の影響を受けにくい赤(R)を表現するV版のLUTの傾きを小さくしている。ここでは、YUV色空間を一例に挙げたが、他の色空間で彩度補正を行ってもよく、また、LUTの傾きは自由に変えることができる。また、外乱は、霧以外の黄砂やその他のものであってもよい。   FIG. 9 is a diagram for explaining saturation correction in another color space. In FIG. 8, saturation correction is performed in the RGB color space. In FIG. 9, however, RGB is converted into the YUV color space using a general conversion formula, and processing is applied to the Y version that is lightness. Alternatively, only the UV version having the saturation and hue may be processed. If the atmospheric disturbance is fog, increase the slope of the U version LUT that expresses blue (B) that is susceptible to fog, and increase the slope of the V version LUT that expresses red (R) that is less susceptible to fog. It is small. Here, the YUV color space is taken as an example, but saturation correction may be performed in another color space, and the slope of the LUT can be freely changed. Further, the disturbance may be yellow sand other than fog or other things.

これまで彩度補正について説明したので、次に、エッジ検出について、図10を参照して詳細に説明する。被写体を文字「A」とし、赤外光カメラで撮像された赤外光画像のエッジ検出は、その赤外光画像に対して、エッジ強調やノイズ除去等の汎用的なフィルタ処理をかけた画像について行う。図10(a)は、そのフィルタ処理をかけた後の赤外光画像である。この赤外光画像は、彩度がなく(彩度0)、明度情報のみで構成される画像である。   Since the saturation correction has been described so far, the edge detection will be described in detail with reference to FIG. Edge detection of an infrared image captured by an infrared camera with the subject “A” is an image obtained by applying general-purpose filter processing such as edge enhancement and noise removal to the infrared image. Do about. FIG. 10A shows an infrared light image after the filtering process. This infrared light image is an image having no saturation (saturation 0) and composed only of lightness information.

図10(b)は、図10(a)に示した赤外光画像に対して、エッジ検出を行うために用いられるフィルタの一例として、ラプラシアンフィルタを示した図である。このラプラシアンフィルタは、一般的なもので、係数、マトリクスサイズはこれに限られるものではなく、その他の係数、マトリクスサイズであってもよい。また、フィルタは、ラプラシアンフィルタに限られるものではなく、ソーベルフィルタ等のエッジ検出を行うことができる他のフィルタを用いることもできる。   FIG. 10B is a diagram showing a Laplacian filter as an example of a filter used for performing edge detection on the infrared light image shown in FIG. The Laplacian filter is a general filter, and the coefficients and matrix size are not limited to these, and other coefficients and matrix sizes may be used. Further, the filter is not limited to the Laplacian filter, and other filters capable of performing edge detection such as a Sobel filter can also be used.

図10(c)は、図10(a)に示す赤外光画像に対して、図10(b)に示すフィルタを用いてエッジ検出を行った結果を示した図である。エッジ検出は、上記フィルタを用いてマトリクス演算を行い、予め設定した閾値を超えたか否かを判定し、閾値を超えた箇所をエッジとして決定し、そのエッジを検出する。図10(c)では、エッジとして検出された箇所が白色で示された線で表されている。   FIG. 10C is a diagram illustrating a result of edge detection performed on the infrared light image illustrated in FIG. 10A using the filter illustrated in FIG. In the edge detection, matrix calculation is performed using the filter, it is determined whether or not a preset threshold value is exceeded, a portion exceeding the threshold value is determined as an edge, and the edge is detected. In FIG. 10C, a portion detected as an edge is represented by a white line.

図11を参照して、色相分割について詳細に説明する。色相分割は、可視光画像について彩度補正を行った後の画像に対して行われる。この色相分割では、その画像を分割し、画素毎にどの色相にあるかを判定する。図11では、彩度補正を行った後の可視光画像をYUV版に変換し、その彩度情報であるUV版の情報を用い、8つの色相に分割している。図11では、V、Uを軸に、V、Uの大小の比較結果と正負の判定結果を利用し、(1)〜(8)の色相に分解している。分割された結果は、画素単位で3ビットの色相情報として保持し、この色相情報は、合成画像生成部52へ出力される。   The hue division will be described in detail with reference to FIG. The hue division is performed on the image after the saturation correction is performed on the visible light image. In this hue division, the image is divided to determine which hue is in each pixel. In FIG. 11, the visible light image after the saturation correction is converted into the YUV version, and is divided into eight hues using the UV version information that is the saturation information. In FIG. 11, with V and U as axes, the comparison result of V and U and the determination result of positive and negative are used to divide the hue into (1) to (8). The result of the division is held as 3-bit hue information in units of pixels, and this hue information is output to the composite image generation unit 52.

色相分割は、図11に示したような8分割に限定されるものではなく、16分割や24分割等、自由に分割数を設定することができ、また、その分割方法も自由に設定することができる。また、分割対象の色空間も、YUVに限定されるものではなく、RGB等の他の色空間で色相分割を行ってもよい。   Hue division is not limited to eight divisions as shown in FIG. 11, and the number of divisions can be freely set, such as 16 divisions or 24 divisions, and the division method can also be set freely. Can do. Further, the color space to be divided is not limited to YUV, and hue division may be performed in another color space such as RGB.

カメラを2台使用して同時に撮像を行い、赤外光画像と可視光画像とを取得する場合、図12(a)に示すように、被写体に対して各カメラの位置が異なるため、被写体を含む撮影範囲が変わる。このため、撮像して得られた画像は、図12(b)に示すように、視差が発生する。この視差は、一般的に知られている視差補正技術を用いて取り除くことができる。具体的には、カメラの撮影レンジ、カメラ間の距離、被写体までの距離等の情報を用いて補正を行い、図12(c)に示すような画像を得ることができる。このように、被写体の画像の位置を画素単位で合わせることにより、後の合成処理で容易かつ正確に画像合成を行うことが可能となる。   When two cameras are used for simultaneous imaging and an infrared light image and a visible light image are acquired, the position of each camera is different from the subject as shown in FIG. The shooting range is changed. For this reason, parallax occurs in the image obtained by imaging as shown in FIG. This parallax can be removed using a generally known parallax correction technique. Specifically, it is possible to obtain an image as shown in FIG. 12C by performing correction using information such as the shooting range of the camera, the distance between the cameras, and the distance to the subject. As described above, by aligning the position of the image of the subject in units of pixels, it is possible to easily and accurately perform image composition in later composition processing.

視差補正は、図12(a)に示すような2台のカメラを使用して同時に撮像する場合に行えばよい。このため、1台のカメラを使用して撮像する場合や、2台のカメラを使用する場合でも同時に撮像せず、同じ位置にカメラを置いて撮像する場合には、視差補正を行う必要はない。また、カメラを2台使用して同時に撮像する場合であっても、その視差が大きい場合のみ行い、その視差が小さい場合には、後述する位置ずれ補正のみを行ってもよい。   The parallax correction may be performed when images are simultaneously captured using two cameras as shown in FIG. For this reason, it is not necessary to perform parallax correction when taking an image using one camera or using two cameras instead of simultaneously taking an image and placing the camera at the same position. . Further, even when two cameras are used to capture images simultaneously, it may be performed only when the parallax is large, and when the parallax is small, only positional deviation correction described later may be performed.

図13を参照して、大気外乱によって画像に悪影響が及ぶ理由について説明する。ここでは、大気外乱として霧を例に挙げて説明する。図13(a)は、霧を構成する1つの水滴を示し、その水滴における光の屈折の様子を示した図である。水滴は、周囲の空気と密度が異なるため、光が水滴を通過する際、図13(a)に示したような屈折が起こる。屈折率は、光の波長によって異なり、波長が長いほど屈折しにくい。このため、波長が長い赤外光はほとんど屈折せず、その波長が長い青(B)ほど屈折しやすい。屈折しやすさは、この例で言うと、B、G、B、赤外光の順となる。   With reference to FIG. 13, the reason why an image is adversely affected by atmospheric disturbance will be described. Here, fog will be described as an example of atmospheric disturbance. FIG. 13A shows one water droplet constituting the mist, and shows how light is refracted in the water droplet. Since the water droplet has a density different from that of the surrounding air, refraction as shown in FIG. 13A occurs when light passes through the water droplet. The refractive index varies depending on the wavelength of light, and the longer the wavelength, the harder it is to refract. For this reason, infrared light having a long wavelength hardly refracts, and blue (B) having a longer wavelength tends to be refracted. In this example, the ease of refraction is in the order of B, G, B, and infrared light.

図13(b)は、その水滴が集まって霧を構成し、その霧がカメラによる撮像に及ぼす影響を示した図である。図13(a)では、水滴により光が屈折のみしているが、図13(b)では、光の反射、吸収、散乱も起こっている。このように光の屈折、反射、吸収、散乱が起こることで、本来ならばカメラに入ってくる被写体の像がにじんだり、色ずれを生じたり、鮮鋭性が低下したりする。このようなにじみ等が、コントラストの低下、彩度の低下、鮮鋭性の低下の原因となる。   FIG. 13B is a diagram showing the influence of the water droplets gathering to form a mist, and the mist affecting the imaging by the camera. In FIG. 13A, light is only refracted by water droplets, but in FIG. 13B, reflection, absorption, and scattering of light also occur. Thus, the refraction, reflection, absorption, and scattering of light cause the image of the subject that normally enters the camera to blur, cause color shift, and reduce sharpness. Such blurring or the like causes a decrease in contrast, saturation, and sharpness.

赤外光は、霧であっても、図13(a)に示したように、ほとんど屈折しないので、反射、吸収、散乱等は起こりにくい。このため、コントラストや鮮鋭性の低下はほとんどない。ただし、色情報が欠落するので、彩度が0になる。   As shown in FIG. 13A, infrared light hardly refracts even in the case of fog, so that reflection, absorption, scattering, and the like hardly occur. For this reason, there is almost no decrease in contrast or sharpness. However, since the color information is missing, the saturation is zero.

図13(c)は、霧が発生していない状態で撮像して得られた赤外光画像と可視光画像を示した図である。なお、これらの画像は、視差補正を行った後の画像である。これらの画像は、霧の影響がないため、可視光でもほとんど屈折は起こらず、視差補正後の赤外光画像と可視光画像における被写体の像はほぼ同じ位置に存在し、位置ずれが生じていない。   FIG.13 (c) is the figure which showed the infrared-light image and visible light image which were obtained by imaging in the state where fog has not generate | occur | produced. Note that these images are images after performing parallax correction. Since these images are not affected by fog, almost no refraction occurs even in the visible light, and the image of the subject in the infrared light image after the parallax correction and the visible light image are almost at the same position, and there is a displacement. Absent.

図13(d)は、霧が発生した状態で撮像して得られた赤外光画像と可視光画像を示した図である。赤外光は、霧がある状態でも屈折が起こりにくいので、赤外光画像における被写体の像は中央に位置しているが、可視光は屈折が起こるので、被写体の像がその中央からずれる。また、色が異なると、屈折の影響も異なるため、色が異なる場所(図13(d)中の網点と斜線部)では、その位置のずれ方が異なっている。   FIG. 13D is a diagram showing an infrared light image and a visible light image obtained by imaging in a state where fog is generated. Infrared light is less likely to be refracted even in the presence of fog, so the subject image in the infrared light image is located at the center, but visible light is refracted, so the subject image is deviated from the center. In addition, since the influence of refraction is different when the color is different, the displacement of the position is different at a place where the color is different (a halftone dot and a hatched portion in FIG. 13D).

このような位置ずれを補正し、位置合わせして赤外光画像と可視光画像とを合成して合成画像を生成するが、図14を参照して、その合成処理について詳細に説明する。ここでも、大気外乱として霧を例にとり、説明する。図14(a)、(b)は、霧が発生していない状態で撮像した赤外光画像と可視光画像とを例示した図である。これらの画像は、被写体の像の位置がほぼ中央にあり、位置ずれ等を補正する必要がないので、そのまま合成して合成画像を生成することができる。すると、合成画像は、図14(c)に示すような画像となる。   Such a misalignment is corrected, and a combined image is generated by combining the infrared light image and the visible light image after alignment, and the combining process will be described in detail with reference to FIG. Here, fog will be described as an example of atmospheric disturbance. FIGS. 14A and 14B are diagrams illustrating an infrared light image and a visible light image captured in a state where fog is not generated. Since these images have a substantially centered position of the subject image, and it is not necessary to correct misalignment or the like, they can be combined as they are to generate a combined image. Then, the composite image becomes an image as shown in FIG.

画像の合成は、まず、赤外光画像の色空間をYUV色空間に変換し、Y(明度)の情報だけを取り出す。次に、可視光画像の色空間もYUV色空間に変換し、UV(彩度・色相)の情報だけを取り出す。そして、赤外光画像の明度情報(Y値)と、彩度補正された可視光画像の彩度情報および色相情報(UV値)とを用い、それらを合わせたYUV画像を合成画像として生成し、出力する。   In image synthesis, first, the color space of an infrared light image is converted into a YUV color space, and only Y (lightness) information is extracted. Next, the color space of the visible light image is also converted to the YUV color space, and only UV (saturation / hue) information is extracted. Then, using the lightness information (Y value) of the infrared light image and the saturation information and hue information (UV value) of the saturation-corrected visible light image, a combined YUV image is generated as a composite image. ,Output.

なお、霧が発生していない場合は、図14(c)に示すように、YUVの位置ずれがないため、エッジの位置と、色が変化する箇所を表す色相境界とは一致している。このため、この位置とこの色相境界とが重なるように合成することで、合成画像を生成することができる。合成に使用する赤外光画像は、フィルタ処理がかけられ、可視光画像は、彩度補正が行われた画像が使用され、視差補正が必要である場合には、視差補正が行われたものとされる。   When fog is not generated, as shown in FIG. 14C, there is no YUV misalignment, and therefore the edge position and the hue boundary that represents the location where the color changes coincide. Therefore, a synthesized image can be generated by synthesizing the position and the hue boundary so as to overlap each other. The infrared light image used for composition is filtered, and the visible light image is an image that has been subjected to saturation correction. It is said.

図14(d)、(e)は、霧が発生している状態で撮像した赤外光画像と可視光画像とを例示した図である。図14(d)は、図13(d)に示した状態と同じで、赤外光画像における被写体の像と可視光画像における被写体の像との位置がずれている。このため、YUVをそれぞれ取り出し、合成したところで、図14(f)に示すようなエッジの境界(実線)と可視光画像の色相の境界がずれてしまう。このずれを補正するために、位置ずれの補正を行う。   14D and 14E are diagrams illustrating an infrared light image and a visible light image captured in a state where fog is generated. FIG. 14D is the same as the state shown in FIG. 13D, and the positions of the subject image in the infrared light image and the subject image in the visible light image are shifted. For this reason, when YUV is extracted and combined, the edge boundary (solid line) and the hue boundary of the visible light image are shifted as shown in FIG. In order to correct this deviation, the position deviation is corrected.

図15を参照して、その位置ずれの補正について詳細に説明する。図15では、矢線に示す、向かって横方向である主走査方向への位置ずれを補正する例について示している。このため、主走査方向への位置ずれ補正についてのみ説明するが、主走査方向に対して垂直な副走査方向への位置ずれも同様な方法により補正することができる。   With reference to FIG. 15, the correction of the positional deviation will be described in detail. FIG. 15 shows an example of correcting the positional deviation in the main scanning direction, which is the lateral direction, as indicated by the arrow. For this reason, only misregistration correction in the main scanning direction will be described, but misregistration in the sub-scanning direction perpendicular to the main scanning direction can also be corrected by a similar method.

主走査方向への位置ずれを補正する場合、図15(a)に示すように、画像に向かって左上隅を基準点(例えば、座標(0,0))として、その基準点から主走査方向へ1ラインずつ走査する。このとき、画素毎にエッジ検出結果と色相分割を行った結果とを参照する。エッジ検出結果は、図15(b)に示すような、エッジ部が白色の線で示された部分で、走査しているラインの画素毎にエッジ部であるか、非エッジ部であるかを示した情報である。エッジ部と判定された画素が複数左右に隣接している場合、その隣接している塊を1つのエッジ部として取り扱う。   When correcting the positional shift in the main scanning direction, as shown in FIG. 15A, the upper left corner toward the image is set as a reference point (for example, coordinates (0, 0)), and the reference point is moved from the reference point to the main scanning direction. Scan one line at a time. At this time, the edge detection result and the result of the hue division are referred to for each pixel. As shown in FIG. 15B, the edge detection result is a portion indicated by a white line as to whether the edge portion is an edge portion or a non-edge portion for each pixel of the line being scanned. It is the information shown. When a plurality of pixels determined to be edge portions are adjacent to each other on the left and right, the adjacent blocks are handled as one edge portion.

色相分割を行った結果は、図15(c)に示すような、色毎に、その領域を区別する。ここでは、白地、網点、斜線という3つの領域に区別する。領域が別の領域に切り替わる箇所を、色相境界とする。   As a result of the hue division, the region is distinguished for each color as shown in FIG. Here, a distinction is made between three areas: a white background, a halftone dot, and a diagonal line. A portion where the region switches to another region is set as a hue boundary.

位置ずれの補正は、エッジ部と判定された画素と、色相境界と判定された画素の位置が一致しているかどうかを基準とし、画素毎に行う。例えば、エッジ部と判定された画素の位置と、色相境界と判定された画素の位置が閾値th1以上、閾値th2未満のときに位置ずれ補正を行うことができる。この閾値th1、th2は、任意に設定することができる。   The positional deviation is corrected on a pixel-by-pixel basis based on whether or not the pixel determined as the edge portion matches the position of the pixel determined as the hue boundary. For example, the positional deviation correction can be performed when the position of the pixel determined to be the edge portion and the position of the pixel determined to be the hue boundary are greater than or equal to the threshold th1 and less than the threshold th2. The thresholds th1 and th2 can be set arbitrarily.

具体的な位置ずれ補正の手順について、図16〜図22を参照して説明する。これらの例は、すべて主走査方向への位置ずれ補正の場合を示し、画像に向かって左側から右側へ走査する場合である。なお、走査方向は、その反対の右側から左側へ行ってもよい。また、副走査方向への位置ずれ補正は、その方向が向かって上側から下側へ走査し、同様の方法により行うことができる。   A specific procedure for correcting misregistration will be described with reference to FIGS. These examples all show the case of misalignment correction in the main scanning direction, and is a case of scanning from the left side to the right side toward the image. The scanning direction may be performed from the opposite right side to the left side. Further, the positional deviation correction in the sub-scanning direction can be performed in the same manner by scanning from the upper side to the lower side in the direction.

図16は、その第1例を示した図で、主走査方向にエッジの位置または色相境界を検出する際、エッジ、色相境界、エッジ、色相境界が交互に検出された場合の例を示した図である。1つのエッジと、1つの色相境界とをセットで処理する。これは以降の処理も同様である。   FIG. 16 is a diagram illustrating the first example, in which an edge, a hue boundary, an edge, and a hue boundary are alternately detected when detecting an edge position or a hue boundary in the main scanning direction. FIG. One edge and one hue boundary are processed as a set. The same applies to the subsequent processing.

図16(a)に示すように、この例では、エッジ1、色相境界1、エッジ2、色相境界2の順に、エッジおよび色相境界が検出されている。最初に、エッジ1と色相境界1とをセット(1つの組)にする。色相境界1のすぐ右側にある画素(網点)のUV値を記録する。図16(b)に示すように、色相境界1をエッジ1に合わせるために、エッジ1と色相境界1との間の画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図16(c)に示すように、エッジ1と色相境界1との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ1と色相境界1とが同じ位置となり、見た目上の違和感、色ずれがなくなる。   As shown in FIG. 16A, in this example, the edge and the hue boundary are detected in the order of edge 1, hue boundary 1, edge 2, and hue boundary 2. First, the edge 1 and the hue boundary 1 are set (one set). The UV value of the pixel (halftone dot) immediately to the right of hue boundary 1 is recorded. As shown in FIG. 16B, in order to align the hue boundary 1 with the edge 1, for all pixels between the edge 1 and the hue boundary 1, all the UV values are replaced with the recorded UV values. . Accordingly, as shown in FIG. 16C, the UV values of all the pixels between the edge 1 and the hue boundary 1 become the recorded UV values. As a result, the edge 1 and the hue boundary 1 are in the same position, and there is no sense of incongruity and color shift.

次に、エッジ2と色相境界2とをセットにする。色相境界2のすぐ右側にある画素(網点)のUV値を記録する。図16(c)に示すように、エッジ2と色相境界2との間の画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図16(d)に示すように、エッジ2と色相境界2との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ2と色相境界2とが同じ位置となり、見た目上の違和感、色ずれがなくなる。   Next, edge 2 and hue boundary 2 are set. The UV value of the pixel (halftone dot) immediately to the right of hue boundary 2 is recorded. As shown in FIG. 16C, all the UV values of the pixels between the edge 2 and the hue boundary 2 are replaced with the recorded UV values. Thereby, as shown in FIG. 16D, the UV values of all the pixels between the edge 2 and the hue boundary 2 become the recorded UV values. Then, the edge 2 and the hue boundary 2 are in the same position, and there is no apparent discomfort and color shift.

エッジと色相境界とが交互に連続する場合は、以降も同じ処理をくり返せばよい。セットしたエッジと色相境界が、エッジ、色相境界の順に繰り返されている場合、色相境界の右側にある画素のUV値へ、エッジの位置と色相境界との間にある画素のUV値を置き換える。   If the edge and the hue boundary are alternately continued, the same process may be repeated thereafter. When the set edge and the hue boundary are repeated in the order of the edge and the hue boundary, the UV value of the pixel between the position of the edge and the hue boundary is replaced with the UV value of the pixel on the right side of the hue boundary.

図16では、エッジ、色相境界の順に交互に検出される例を示したが、図17では、色相境界、エッジの順に交互に検出される例について示す。この例では、図17(a)に示すように、色相境界1、エッジ1、色相境界2、エッジ2の順に、エッジおよび色相境界が検出されている。最初に、エッジ1と色相境界1とをセットにする。色相境界1のすぐ左側にある画素(斜線)のUV値を記録する。図17(b)に示すように、色相境界1をエッジ1に合わせるために、エッジ1と色相境界1との間の画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図17(c)に示すように、エッジ1と色相境界1との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ1と色相境界1が同じ位置となり、見た目上の違和感、色ずれがなくなる。   FIG. 16 shows an example in which the edges are detected alternately in the order of the hue boundary, but FIG. 17 shows an example in which the detection is alternately performed in the order of the hue boundary and the edges. In this example, as shown in FIG. 17A, edges and hue boundaries are detected in the order of hue boundary 1, edge 1, hue boundary 2, and edge 2. First, edge 1 and hue boundary 1 are set. Record the UV value of the pixel (hatched) immediately to the left of Hue Boundary 1. As shown in FIG. 17B, in order to match the hue boundary 1 to the edge 1, all the UV values for the pixels between the edge 1 and the hue boundary 1 are replaced with the recorded UV values. . Thus, as shown in FIG. 17C, the UV values of all the pixels between the edge 1 and the hue boundary 1 become the recorded UV values. Then, the edge 1 and the hue boundary 1 are in the same position, and there is no apparent discomfort or color shift.

次に、エッジ2と色相境界2とをセットにする。色相境界2のすぐ左側にある画素(網点)のUV値を記録する。図17(c)に示すように、エッジ2と色相境界2との間の画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図17(d)に示すように、エッジ2と色相境界2との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ2と色相境界2が同じ位置となり、見た目上の違和感、色ずれがなくなる。   Next, edge 2 and hue boundary 2 are set. The UV value of the pixel (halftone dot) immediately to the left of the hue boundary 2 is recorded. As shown in FIG. 17C, for all pixels between the edge 2 and the hue boundary 2, all the UV values are replaced with the recorded UV values. Thereby, as shown in FIG. 17D, the UV values of all the pixels between the edge 2 and the hue boundary 2 become the recorded UV values. Then, the edge 2 and the hue boundary 2 are in the same position, and there is no apparent discomfort or color shift.

この場合も、エッジと色相境界とが交互に連続するとき、以降も同じ処理を繰り返すことにより、位置ずれの補正を行うことができる。また、セットにしたエッジと色相境界とが、色相境界、エッジの順に交互に検出される場合は、色相境界の右側にある画素のUV値へ、エッジの位置と色相境界との間にある画素のUV値を置き換える。   Also in this case, when the edge and the hue boundary are alternately continued, the same process can be repeated thereafter to correct the positional deviation. Further, when the set edge and the hue boundary are alternately detected in the order of the hue boundary and the edge, the pixel between the edge position and the hue boundary is changed to the UV value of the pixel on the right side of the hue boundary. Replace the UV value of.

図16および図17では、エッジと色相境界とが交互に連続している場合について説明してきた。実際には、交互に連続する以外に、エッジ、色相境界、色相境界、エッジといったように、不連続に検出される場合もある。以下、このように不連続に検出される場合について説明する。   16 and 17, the case where the edge and the hue boundary are alternately continued has been described. Actually, in addition to being alternately continuous, there may be cases where discontinuity is detected, such as an edge, a hue boundary, a hue boundary, and an edge. Hereinafter, the case where such discontinuity is detected will be described.

図18は、エッジ、色相境界、色相境界、エッジといったエッジと色相境界が途中で切り替わる場合の例を示した図である。図18(a)に示すように、この例では、エッジ1、色相境界1、色相境界2、エッジ2の順に、エッジおよび色相境界が検出されている。最初に、エッジ1と色相境界1とをセットにする。色相境界1のすぐ右側にある画素(網点)のUV値を記録する。図18(b)に示すように、色相境界1をエッジ1に合わせるために、エッジ1と色相境界1との間にある画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図18(c)に示すように、エッジ1と色相境界1との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ1と色相境界1が同じ位置となり、見た目上の違和感、色ずれがなくなる。   FIG. 18 is a diagram illustrating an example in which an edge and a hue boundary such as an edge, a hue boundary, a hue boundary, and an edge are switched halfway. As shown in FIG. 18A, in this example, edges and hue boundaries are detected in the order of edge 1, hue boundary 1, hue boundary 2, and edge 2. First, edge 1 and hue boundary 1 are set. The UV value of the pixel (halftone dot) immediately to the right of hue boundary 1 is recorded. As shown in FIG. 18B, in order to align the hue boundary 1 with the edge 1, all the UV values for the pixels between the edge 1 and the hue boundary 1 are set to the recorded UV values. replace. Thereby, as shown in FIG. 18C, the UV values of all the pixels between the edge 1 and the hue boundary 1 become the recorded UV values. Then, the edge 1 and the hue boundary 1 are in the same position, and there is no apparent discomfort or color shift.

次に、エッジ2と色相境界2とをセットにする。色相境界2のすぐ左側にある画素(網点)のUV値を記録する。図18(c)に示すように、エッジ2と色相境界2との間の画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図18(d)に示すように、エッジ2と色相境界2との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ2と色相境界2が同じ位置となり、見た目上の違和感、色ずれがなくなる。   Next, edge 2 and hue boundary 2 are set. The UV value of the pixel (halftone dot) immediately to the left of the hue boundary 2 is recorded. As shown in FIG. 18C, all the UV values of the pixels between the edge 2 and the hue boundary 2 are replaced with the recorded UV values. Accordingly, as shown in FIG. 18D, the UV values of all the pixels between the edge 2 and the hue boundary 2 become the recorded UV values. Then, the edge 2 and the hue boundary 2 are in the same position, and there is no apparent discomfort or color shift.

このように不連続であっても、エッジと色相境界とをセットにし、その順を考慮して同様の処理を実施することで、位置ずれ補正を行うことができる。   Even in such a discontinuous state, it is possible to perform positional deviation correction by setting the edge and the hue boundary as a set and performing the same processing in consideration of the order.

図19は、図18に示した実施例とは反対に、色相境界、エッジ、エッジ、色相境界の順に、エッジと色相境界が途中で切り替わる場合の例を示した図である。図19(a)に示すように、この例では、色相境界1、エッジ1、エッジ2、色相境界2の順に、エッジおよび色相境界が検出されている。最初に、エッジ1と色相境界1とをセットにする。色相境界1のすぐ左側にある画素(斜線)のUV値を記録する。図19(b)に示すように、色相境界1をエッジ1に合わせるために、エッジ1と色相境界1との間にある画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図19(c)に示すように、エッジ1と色相境界1との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ1と色相境界1が同じ位置となり、見た目上の違和感、色ずれがなくなる。   FIG. 19 is a diagram illustrating an example in which the edge and the hue boundary are switched in the order of the hue boundary, the edge, the edge, and the hue boundary, contrary to the embodiment illustrated in FIG. As shown in FIG. 19A, in this example, edges and hue boundaries are detected in the order of hue boundary 1, edge 1, edge 2, and hue boundary 2. First, edge 1 and hue boundary 1 are set. Record the UV value of the pixel (hatched) immediately to the left of Hue Boundary 1. As shown in FIG. 19 (b), in order to match the hue boundary 1 to the edge 1, for all pixels between the edge 1 and the hue boundary 1, all the UV values are the recorded UV values. replace. Accordingly, as shown in FIG. 19C, the UV values of all the pixels between the edge 1 and the hue boundary 1 become the recorded UV values. Then, the edge 1 and the hue boundary 1 are in the same position, and there is no apparent discomfort or color shift.

次に、エッジ2と色相境界2とをセットにする。色相境界2のすぐ右側にある画素(横縞)のUV値を記録する。図19(c)に示すように、エッジ2と色相境界2との間にある画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図19(d)に示すように、エッジ2と色相境界2との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ2と色相境界2が同じ位置となり、見た目上の違和感、色ずれがなくなる。   Next, edge 2 and hue boundary 2 are set. Record the UV value of the pixel (horizontal stripe) just to the right of hue boundary 2. As shown in FIG. 19C, for all pixels between the edge 2 and the hue boundary 2, all the UV values are replaced with the recorded UV values. Thereby, as shown in FIG. 19D, the UV values of all the pixels between the edge 2 and the hue boundary 2 become the recorded UV values. Then, the edge 2 and the hue boundary 2 are in the same position, and there is no apparent discomfort or color shift.

図18および図19は、エッジと色相境界のセットの並び順が途中で切り替わった例について説明した。不連続に検出される例として、エッジ、色相境界、色相境界、色相境界、エッジといったように、エッジあるいは色相境界が3つ以上連続して並び、エッジと色相境界をセットにすることができない場合もある。   FIG. 18 and FIG. 19 have described an example in which the arrangement order of the set of edges and hue boundaries is changed in the middle. As an example of discontinuous detection, when there are three or more consecutive edges or hue boundaries such as edges, hue boundaries, hue boundaries, hue boundaries, and edges, and the edges and hue boundaries cannot be set as a set There is also.

図20は、エッジ、色相境界、色相境界、色相境界、エッジという色相境界が途中に3つ連続して検出される場合の例を示した図である。図20(a)に示すように、この例では、エッジ1、色相境界1、色相境界1’、色相境界2、エッジ2の順に、エッジおよび色相境界が検出されている。エッジ1と色相境界1とでセットにすることができるので、最初に、これらをセットにする。そして、色相境界1のすぐ右側にある画素(網点)のUV値を記録する。図20(b)に示すように、エッジ1と色相境界1との間にある画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図20(c)に示すように、エッジ1と色相境界1との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ1と色相境界1が同じ位置となり、見た目上の違和感、色ずれがなくなる。   FIG. 20 is a diagram illustrating an example in which three hue boundaries such as an edge, a hue boundary, a hue boundary, a hue boundary, and an edge are detected in the middle. As shown in FIG. 20A, in this example, edges and hue boundaries are detected in the order of edge 1, hue boundary 1, hue boundary 1 ', hue boundary 2, and edge 2. Since the edge 1 and the hue boundary 1 can be set, first, these are set. Then, the UV value of the pixel (halftone dot) immediately on the right side of the hue boundary 1 is recorded. As shown in FIG. 20B, all the UV values of the pixels between the edge 1 and the hue boundary 1 are replaced with the recorded UV values. Thus, as shown in FIG. 20C, the UV values of all the pixels between the edge 1 and the hue boundary 1 become the recorded UV values. Then, the edge 1 and the hue boundary 1 are in the same position, and there is no apparent discomfort or color shift.

次に、セットを組む場合、色相境界1’と色相境界2がセットになるが、色相境界の2つはセットにして処理を行わない。そのため、次の色相境界2とエッジ2とをセットにし、処理を行う。したがって、色相境界が4つ連続する場合は、途中の2つの色相境界はセットにして処理は行わず、エッジを検出したところで、そのエッジとそのエッジの直前に検出された色相境界とをセットにして処理を行う。   Next, when forming a set, the hue boundary 1 ′ and the hue boundary 2 are set, but two of the hue boundaries are set and no processing is performed. Therefore, the next hue boundary 2 and edge 2 are set and processed. Therefore, when four hue boundaries are continuous, the two hue boundaries in the middle are set and processing is not performed. When an edge is detected, the edge and the hue boundary detected immediately before the edge are set. Process.

次の処理では、エッジ2と色相境界2とをセットにする。色相境界2のすぐ左側にある画素(高密度の網点)のUV値を記録する。図20(c)に示すように、エッジ2と色相境界2との間にある画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図20(d)に示すように、エッジ2と色相境界2との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ2と色相境界2が同じ位置となり、見た目上の違和感、色ずれがなくなる。   In the next process, edge 2 and hue boundary 2 are set. Record the UV value of the pixel (high-density halftone dot) immediately to the left of hue boundary 2. As shown in FIG. 20C, all the UV values of the pixels between the edge 2 and the hue boundary 2 are replaced with the recorded UV values. As a result, as shown in FIG. 20D, the UV values of all the pixels between the edge 2 and the hue boundary 2 become the recorded UV values. Then, the edge 2 and the hue boundary 2 are in the same position, and there is no apparent discomfort or color shift.

このような色相境界が連続して3つ以上検出される例としては、グラデーションを挙げることができる。このようなグラデーションの場合、途中の色相境界上にエッジがなくても、位置ずれは目立たないものである。   As an example in which three or more such hue boundaries are continuously detected, a gradation can be mentioned. In the case of such gradation, even if there is no edge on the middle hue boundary, the positional deviation is not noticeable.

図20に示した例とは反対に、エッジが3つ以上連続して検出される場合もある。図21は、色相境界、エッジ、エッジ、エッジ、色相境界というエッジが途中に3つ連続して検出される場合の例を示した図である。図21(a)に示すように、この例では、色相境界1、エッジ1、エッジ1’、エッジ2、色相境界2の順に、エッジおよび色相境界が検出されている。エッジ1と色相境界1とはセットにすることができるので、最初に、これらをセットにする。そして、色相境界1のすぐ左側にある画素(網点)のUV値を記録する。図21(b)に示すように、色相境界1をエッジ1に合わせるために、エッジ1と色相境界1との間にある画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図21(c)に示すように、エッジ1と色相境界1との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ1と色相境界1が同じ位置となり、見た目上の違和感、色ずれがなくなる。   Contrary to the example shown in FIG. 20, three or more edges may be detected in succession. FIG. 21 is a diagram illustrating an example in which three edges such as a hue boundary, an edge, an edge, an edge, and a hue boundary are continuously detected in the middle. As shown in FIG. 21A, in this example, the edge and the hue boundary are detected in the order of the hue boundary 1, the edge 1, the edge 1 ', the edge 2 and the hue boundary 2. Since edge 1 and hue boundary 1 can be set, first, they are set. Then, the UV value of the pixel (halftone dot) immediately to the left of the hue boundary 1 is recorded. As shown in FIG. 21 (b), in order to match the hue boundary 1 to the edge 1, for all pixels between the edge 1 and the hue boundary 1, all the UV values are the recorded UV values. replace. Thus, as shown in FIG. 21C, the UV values of all the pixels between the edge 1 and the hue boundary 1 become the recorded UV values. Then, the edge 1 and the hue boundary 1 are in the same position, and there is no apparent discomfort or color shift.

次にセットを組む場合、エッジ1’とエッジ2ということになるが、上記の2つの色相境界の場合と同様、2つのエッジをセットにして処理は行わない。このため、連続するエッジの次にある色相境界を検出する。そして、検出した色相境界2とその直前に検出されたエッジ2とをセットする。   Next, when a set is formed, the edge 1 'and the edge 2 are used. However, as in the case of the two hue boundaries described above, the processing is not performed with the two edges set. For this reason, the hue boundary next to the continuous edge is detected. Then, the detected hue boundary 2 and the edge 2 detected immediately before are set.

色相境界2のすぐ右側にある画素(横縞)のUV値を記録する。図21(c)に示すように、エッジ2と色相境界2との間にある画素に対して、その全てのUV値を、その記録したUV値と置き換える。これにより、図21(d)に示すように、エッジ2と色相境界2との間にある全ての画素のUV値が、その記録したUV値となる。すると、エッジ2と色相境界2が同じ位置となり、見た目上の違和感、色ずれがなくなる。   Record the UV value of the pixel (horizontal stripe) just to the right of hue boundary 2. As shown in FIG. 21C, all the UV values of the pixels between the edge 2 and the hue boundary 2 are replaced with the recorded UV values. Thereby, as shown in FIG. 21D, the UV values of all the pixels between the edge 2 and the hue boundary 2 become the recorded UV values. Then, the edge 2 and the hue boundary 2 are in the same position, and there is no apparent discomfort or color shift.

このようなエッジが3つ以上連続して検出される例としては、背景と同じ色のエッジがある場合が挙げられる。このような場合、途中のエッジ上に色相境界がなくても、位置ずれは目立たないものである。   An example in which three or more such edges are detected in succession is when there is an edge of the same color as the background. In such a case, even if there is no hue boundary on the middle edge, the positional deviation is not noticeable.

これまで実施例をもって画像処理装置および撮像システムの構成および機能について詳細に説明してきた。また、各機能部が実行する処理についても説明してきた。ここに、この画像処理装置により実行される全体の処理の流れについてまとめる。   The configuration and functions of the image processing apparatus and the imaging system have been described in detail with examples. The processing executed by each functional unit has also been described. Here, the overall processing flow executed by the image processing apparatus is summarized.

図22は、画像処理装置が実行する全体の処理の流れを示したフローチャートである。ステップ2200から開始し、ステップ2210では、画像取得部50が、少なくとも1つのカメラから出力された赤外光画像と可視光画像とを取得する。ステップ2220では、画像取得部50が、取得した2つの画像のうち、赤外光画像をフィルタ部53に渡し、可視光画像を画像補正部51へ渡す。   FIG. 22 is a flowchart showing the flow of the entire process executed by the image processing apparatus. Starting from step 2200, in step 2210, the image acquisition unit 50 acquires an infrared light image and a visible light image output from at least one camera. In step 2220, the image acquisition unit 50 passes the infrared light image of the two acquired images to the filter unit 53 and passes the visible light image to the image correction unit 51.

ステップ2230では、フィルタ部53が、上述したノイズ除去、エッジ強調といったフィルタ処理を行う。そして、ステップ2240において、エッジ検出部54が、ノイズが除去され、エッジが強調された赤外光画像に対して、図10を参照して説明した方法により、そのエッジを検出するエッジ検出を行う。エッジ検出部54は、検出結果を、合成画像生成部52へ出力する。上記のステップ2230では、フィルタ部53は、ノイズ除去、エッジ強調を行った赤外光画像を、エッジ検出部54へ出力するとともに、合成画像生成部52へも出力する。   In step 2230, the filter unit 53 performs the filter processing such as noise removal and edge enhancement described above. In step 2240, the edge detection unit 54 performs edge detection for detecting the edge of the infrared light image from which noise is removed and the edge is enhanced by the method described with reference to FIG. 10. . The edge detection unit 54 outputs the detection result to the composite image generation unit 52. In step 2230 described above, the filter unit 53 outputs the infrared light image subjected to noise removal and edge enhancement to the edge detection unit 54 and also to the composite image generation unit 52.

ステップ2250では、画像補正部51が、可視光画像に対して彩度補正を行う。彩度補正は、図8および図9を参照して説明した方法により行うことができる。画像補正部51は、彩度補正を行った後の可視光画像を、色相分割部55へ出力する。ステップ2260では、色相分割部55が、図11を参照して説明した方法により、その可視光画像の色相を分割し、どの色相にあるかを判定する。色相分割部55は、その判定した結果を、色相分割を行った結果として合成画像生成部52へ出力する。このとき、画像補正部51は、彩度補正を行った後の可視光画像を、合成画像生成部52へ出力する。上記ステップ2250では、画像補正部51は、彩度補正を行った後の可視光画像を、色相分割部55へ出力するとともに、合成画像生成部52へも出力する。   In step 2250, the image correction unit 51 performs saturation correction on the visible light image. The saturation correction can be performed by the method described with reference to FIGS. The image correcting unit 51 outputs the visible light image after the saturation correction to the hue dividing unit 55. In step 2260, the hue dividing unit 55 divides the hue of the visible light image by the method described with reference to FIG. 11, and determines which hue it is. The hue division unit 55 outputs the determined result to the composite image generation unit 52 as a result of the hue division. At this time, the image correction unit 51 outputs the visible light image after the saturation correction to the composite image generation unit 52. In step 2250, the image correction unit 51 outputs the visible light image after the saturation correction to the hue division unit 55 and also outputs it to the composite image generation unit 52.

図22では、ステップ2230およびステップ2240の処理を、ステップ2250およびステップ2260の処理より先に行っているが、その順番は反対であってもよいし、同時に並行して行ってもよい。   In FIG. 22, the processing of step 2230 and step 2240 is performed prior to the processing of step 2250 and step 2260, but the order may be reversed or may be performed concurrently.

ステップ2270では、合成画像生成部52が、必要に応じて、図12を参照して説明した方法により視差補正を行い、赤外光画像と可視光画像との位置ずれを補正して合成し、合成画像を生成する。合成は、図14を参照して説明した方法により行うことができる。また、合成の際に実施する2つの画像の位置合わせについては、図15を参照して説明した方法により位置ずれを補正し、図16〜図21を参照して説明した方法により行うことができる。   In Step 2270, the composite image generation unit 52 performs parallax correction by the method described with reference to FIG. 12 as necessary, corrects the positional deviation between the infrared light image and the visible light image, and combines them. Generate a composite image. The synthesis can be performed by the method described with reference to FIG. Further, the alignment of the two images performed at the time of combining can be performed by the method described with reference to FIGS. 16 to 21 by correcting the positional deviation by the method described with reference to FIG. .

合成画像生成部52は、合成画像を生成した後、その合成画像を出力し、ステップ2280でこの処理を終了する。出力された合成画像は、侵入者の検知、不審物の検知、犯罪者の顔認証等に使用される。   The composite image generation unit 52 generates the composite image, and then outputs the composite image. In step 2280, this process ends. The output composite image is used for intruder detection, suspicious object detection, criminal face authentication, and the like.

このように、赤外光画像と可視光画像を取得し、可視光画像に対して彩度補正を行い、赤外光画像と補正後の可視光画像とが位置ずれしないように合成することで、上記の検知や認証等の画像処理精度を向上させることができる。   In this way, an infrared light image and a visible light image are acquired, saturation correction is performed on the visible light image, and the infrared light image and the corrected visible light image are combined so as not to be misaligned. Thus, it is possible to improve image processing accuracy such as detection and authentication.

これまで本発明を、画像処理装置、撮像システムおよび画像処理方法として上述した実施の形態をもって説明してきたが、本発明は上述した実施の形態に限定されるものではない。したがって、他の実施の形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。よって、上記画像処理方法をコンピュータに実行させるためのプログラムや、そのプログラムが記録された記録媒体等も提供することができるものである。   The present invention has been described with the above-described embodiments as an image processing apparatus, an imaging system, and an image processing method, but the present invention is not limited to the above-described embodiments. Therefore, other embodiments, additions, changes, deletions, and the like can be changed within a range that can be conceived by those skilled in the art, and as long as the effects and advantages of the present invention are exhibited in any aspect, the present invention It is included in the range. Therefore, it is possible to provide a program for causing a computer to execute the image processing method, a recording medium on which the program is recorded, and the like.

10、11…カメラ、12…PC、20、21…レンズ、22、23、29…センサ、24〜26、30…ミラー、27…赤外光カットフィルタ、28…可視光カットフィルタ、40…CPU、41…ROM、42…RAM、43…HDD、44…入出力インタフェース、45…記録メディア、46…外部記憶インタフェース、47…表示装置、48…入力装置、49…バス、50…画像取得部、51…画像補正部、52…合成画像生成部、53…フィルタ部、54…エッジ検出部、55…色相分割部 DESCRIPTION OF SYMBOLS 10, 11 ... Camera, 12 ... PC, 20, 21 ... Lens, 22, 23, 29 ... Sensor, 24-26, 30 ... Mirror, 27 ... Infrared light cut filter, 28 ... Visible light cut filter, 40 ... CPU 41 ... ROM, 42 ... RAM, 43 ... HDD, 44 ... input / output interface, 45 ... recording medium, 46 ... external storage interface, 47 ... display device, 48 ... input device, 49 ... bus, 50 ... image acquisition unit, DESCRIPTION OF SYMBOLS 51 ... Image correction part, 52 ... Composite image generation part, 53 ... Filter part, 54 ... Edge detection part, 55 ... Hue division part

特開2012−054904号公報JP 2012-054904 A 特開2008−252639号公報JP 2008-252639 A

Claims (10)

少なくとも1つの撮像装置により撮像された画像を処理するための画像処理装置であって、
前記少なくとも1つの撮像装置から前記画像として赤外光画像と可視光画像とを取得する画像取得部と、
前記画像取得部により取得された前記可視光画像に対して彩度補正を行う画像補正部と、
前記画像取得部により取得された前記赤外光画像の明度情報と、前記画像補正部により補正された可視光画像の彩度情報および色相情報とを用いて、前記赤外光画像と前記補正された可視光画像との位置ずれを補正し、前記位置ずれを補正した後の赤外光画像と可視光画像とを合成して合成画像を生成する合成画像生成部とを含む、画像処理装置。
An image processing apparatus for processing an image captured by at least one imaging apparatus,
An image acquisition unit that acquires an infrared light image and a visible light image as the image from the at least one imaging device;
An image correction unit that performs saturation correction on the visible light image acquired by the image acquisition unit;
Using the brightness information of the infrared light image acquired by the image acquisition unit and the saturation information and hue information of the visible light image corrected by the image correction unit, the infrared light image and the corrected image are corrected. An image processing apparatus comprising: a composite image generation unit configured to correct a positional deviation with respect to the visible light image and to synthesize the infrared light image after correcting the positional deviation and the visible light image to generate a composite image.
前記画像補正部は、外乱の影響を受けて低下した前記可視光画像の彩度を、補正パラメータを用いて補正する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image correction unit corrects the saturation of the visible light image, which has been lowered due to the influence of disturbance, using a correction parameter. 前記画像補正部は、前記可視光画像の色を表現する色空間の要素のうち、色情報を有する要素に対して設定された前記補正パラメータを用い、前記可視光画像の彩度を補正する、請求項2に記載の画像処理装置。   The image correction unit corrects the saturation of the visible light image using the correction parameter set for the element having color information among the elements of the color space expressing the color of the visible light image. The image processing apparatus according to claim 2. 前記画像補正部は、外乱の種類に応じて前記補正パラメータを切り替える、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the image correction unit switches the correction parameter according to a type of disturbance. 前記合成画像生成部は、前記明度情報から得られる明度が不連続に変化するエッジの位置と、前記彩度情報および前記色相情報から得られる色が変化する箇所を表す色相境界とを用いて、前記位置ずれを補正する、請求項1〜4のいずれか1項に記載の画像処理装置。   The composite image generation unit uses a position of an edge where the lightness obtained from the lightness information changes discontinuously, and a hue boundary representing a location where the color obtained from the saturation information and the hue information changes, The image processing apparatus according to claim 1, wherein the positional deviation is corrected. 前記合成画像生成部は、前記エッジの位置と前記色相境界とが重なるように前記位置ずれを補正する、請求項5に記載の画像処理装置。   The image processing device according to claim 5, wherein the composite image generation unit corrects the positional shift so that the position of the edge and the hue boundary overlap each other. 前記合成画像生成部は、前記赤外光画像および前記補正された可視光画像の主走査方向および副走査方向の各々に対して前記位置ずれを補正する、請求項5または6に記載の画像処理装置。   The image processing according to claim 5 or 6, wherein the composite image generation unit corrects the positional deviation with respect to each of a main scanning direction and a sub-scanning direction of the infrared light image and the corrected visible light image. apparatus. 請求項1〜7のいずれか1項に記載の画像処理装置と、前記画像処理装置に対して撮像して得られた赤外光画像と可視光画像とを入力する少なくとも1つの撮像装置とを含む、撮像システム。   The image processing device according to claim 1, and at least one imaging device that inputs an infrared light image and a visible light image obtained by imaging the image processing device. Including an imaging system. 少なくとも1つの撮像装置により撮像された画像を処理するための画像処理装置により実行される画像処理方法であって、
前記少なくとも1つの撮像装置から前記画像として赤外光画像と可視光画像とを取得するステップと、
取得された前記可視光画像に対して彩度補正を行うステップと、
取得された前記赤外光画像の明度情報と、彩度補正された前記可視光画像の彩度情報および色相情報とを用いて、前記赤外光画像と前記彩度補正された可視光画像との位置ずれを補正し、前記位置ずれを補正した後の赤外光画像と可視光画像とを合成して合成画像を生成するステップとを含む、画像処理方法。
An image processing method executed by an image processing apparatus for processing an image captured by at least one imaging apparatus,
Obtaining an infrared light image and a visible light image as the image from the at least one imaging device;
Performing saturation correction on the obtained visible light image;
Using the brightness information of the acquired infrared light image and the saturation information and hue information of the visible light image subjected to saturation correction, the infrared light image and the saturation light corrected visible light image, And a step of generating a composite image by combining the infrared light image and the visible light image after correcting the positional shift.
少なくとも1つの撮像装置により撮像された画像を処理する画像処理方法をコンピュータに実行させるためのプログラムであって、
前記少なくとも1つの撮像装置から前記画像として赤外光画像と可視光画像とを取得するステップと、
取得された前記可視光画像に対して彩度補正を行うステップと、
取得された前記赤外光画像の明度情報と、彩度補正された前記可視光画像の彩度情報および色相情報とを用いて、前記赤外光画像と前記彩度補正された可視光画像との位置ずれを補正し、前記位置ずれを補正した後の赤外光画像と可視光画像とを合成して合成画像を生成するステップとを前記コンピュータに実行させる、プログラム。
A program for causing a computer to execute an image processing method for processing an image captured by at least one imaging device,
Obtaining an infrared light image and a visible light image as the image from the at least one imaging device;
Performing saturation correction on the obtained visible light image;
Using the brightness information of the acquired infrared light image and the saturation information and hue information of the visible light image subjected to saturation correction, the infrared light image and the saturation light corrected visible light image, A program for causing the computer to execute a step of generating a composite image by correcting an infrared light image and a visible light image after correcting the positional shift.
JP2013241870A 2013-11-22 2013-11-22 Image processing apparatus, imaging system, image processing method, and program Active JP6221682B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013241870A JP6221682B2 (en) 2013-11-22 2013-11-22 Image processing apparatus, imaging system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013241870A JP6221682B2 (en) 2013-11-22 2013-11-22 Image processing apparatus, imaging system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015103906A JP2015103906A (en) 2015-06-04
JP6221682B2 true JP6221682B2 (en) 2017-11-01

Family

ID=53379301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013241870A Active JP6221682B2 (en) 2013-11-22 2013-11-22 Image processing apparatus, imaging system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6221682B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6891808B2 (en) * 2015-08-19 2021-06-18 日本電気株式会社 Image alignment system, method and program
JP7139243B2 (en) * 2015-09-16 2022-09-20 サーモ エレクトロン サイエンティフィック インストルメンツ リミテッド ライアビリティ カンパニー Image analysis system and method
JP2017097645A (en) * 2015-11-25 2017-06-01 ソニー株式会社 Information processing device, information processing method, and program
JP6436358B2 (en) * 2016-03-03 2018-12-12 京セラドキュメントソリューションズ株式会社 Image forming apparatus
KR101806045B1 (en) 2016-10-17 2017-12-07 한국기초과학지원연구원 Real time image composing equipment using infrared camera and visible camera and method for controlling the same
JP6341396B1 (en) * 2017-02-28 2018-06-13 パナソニックIpマネジメント株式会社 Motion monitoring device, server device, and motion monitoring system
CN109903230B (en) * 2017-12-11 2023-03-28 上银科技股份有限公司 Medical defogging image correction method
JP7310354B2 (en) * 2019-06-25 2023-07-19 株式会社リコー Image processing device, image forming device and image processing method
CN111507930B (en) * 2020-06-18 2023-10-10 杭州海康威视数字技术股份有限公司 Image fusion method, device, storage medium and computer equipment
JP7324329B1 (en) 2022-03-18 2023-08-09 維沃移動通信有限公司 Image processing method, device, electronic device and readable storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286577A (en) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd Image pickup device, display method and vehicle
JP2008141328A (en) * 2006-11-30 2008-06-19 Nec Saitama Ltd Portable telephone set with camera and photography mode setting method

Also Published As

Publication number Publication date
JP2015103906A (en) 2015-06-04

Similar Documents

Publication Publication Date Title
JP6221682B2 (en) Image processing apparatus, imaging system, image processing method, and program
US7916937B2 (en) Image processing device having color shift correcting function, image processing program and electronic camera
US8379976B2 (en) Image processing apparatus and method and a computer-readable recording medium on which an image processing program is stored
EP2589226B1 (en) Image capture using luminance and chrominance sensors
US9581436B2 (en) Image processing device, image capturing apparatus, and image processing method
US10217034B2 (en) Image processing device, imaging device, and image processing method
US20130113888A1 (en) Device, method and program for determining obstacle within imaging range during imaging for stereoscopic display
US7362895B2 (en) Image processing apparatus, image-taking system and image processing method
US8494260B2 (en) Image processing device, image processing method, program, and imaging device
US8988546B2 (en) Image processing device, image processing method, image capturing device, and program
JP4084402B2 (en) Imaging device
JP4803156B2 (en) SIGNAL PROCESSING DEVICE FOR SOLID-STATE IMAGING ELEMENT, IMAGING DEVICE HAVING SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM
US8774551B2 (en) Image processing apparatus and image processing method for reducing noise
KR20100086510A (en) Solid-state imaging element and imaging device using the same
US20140092220A1 (en) Image capturing element capturing stereoscopic moving image and planar moving image and image capturing apparatus equipped with the same
US20140168385A1 (en) Video signal processing apparatus and video signal processing method
JP4717294B2 (en) Image processing method, imaging apparatus, and program
KR101178777B1 (en) Image processing apparatus, image processing method and computer readable-medium
US20130278801A1 (en) Image Processing Device, Image Processing Method, Program, and Imaging Device
KR101600312B1 (en) Apparatus and method for processing image
US8629917B2 (en) Image processing apparatus, method, and recording medium
KR100869134B1 (en) Image processing apparatus and method
JP5673186B2 (en) Imaging apparatus and interpolation processing method of imaging apparatus
CN112866554B (en) Focusing method and device, electronic equipment and computer readable storage medium
JP2011155365A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R151 Written notification of patent or utility model registration

Ref document number: 6221682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151