JP2018056786A - Image processing device, imaging apparatus, movable body and image processing method - Google Patents

Image processing device, imaging apparatus, movable body and image processing method Download PDF

Info

Publication number
JP2018056786A
JP2018056786A JP2016190457A JP2016190457A JP2018056786A JP 2018056786 A JP2018056786 A JP 2018056786A JP 2016190457 A JP2016190457 A JP 2016190457A JP 2016190457 A JP2016190457 A JP 2016190457A JP 2018056786 A JP2018056786 A JP 2018056786A
Authority
JP
Japan
Prior art keywords
image
time point
processor
abnormality
sun
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016190457A
Other languages
Japanese (ja)
Other versions
JP6629700B2 (en
Inventor
敦志 山崎
Atsushi Yamazaki
敦志 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016190457A priority Critical patent/JP6629700B2/en
Publication of JP2018056786A publication Critical patent/JP2018056786A/en
Application granted granted Critical
Publication of JP6629700B2 publication Critical patent/JP6629700B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable detection of abnormality in an image due to damage on an image pick-up device following burn-in of a far infrared ray from the sun.SOLUTION: An image processing device 3 being the image processing device 3 mounted on a movable body 6 includes: an acquisition unit 31 being the acquisition unit 31 which acquires an image captured by a far infrared camera 1, acquires a first image at the first time point when the movable body 6 is stopped, and acquires a second image at the second time point before the movable body 6 starts moving again after the first time point; and a processor 35 which detects abnormality in the second image due to the trajectory of a sun image formed on the image pick-up device 22 of the far infrared camera 1 on the basis of the comparison between the first image and the second image, and corrects an area where the abnormality is detected in the second image with respect to an image acquired from the acquisition unit 31 subsequently to the second time point.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、撮像装置、移動体、及び画像処理方法に関する。   The present invention relates to an image processing device, an imaging device, a moving body, and an image processing method.

従来、露光時間(シャッタースピード)を調整するメカニカルシャッターを備えないカメラが知られている。このようなカメラにおいては、メカニカルシャッターの代わりに撮像素子の電荷を放電してから一定時間で蓄積された電荷に基づいて画像信号を生成する電子シャッターを備える。   2. Description of the Related Art Conventionally, cameras that do not include a mechanical shutter that adjusts an exposure time (shutter speed) are known. Such a camera includes an electronic shutter that generates an image signal based on the electric charge accumulated in a predetermined time after discharging the electric charge of the image sensor instead of the mechanical shutter.

特開2007−201807号公報JP 2007-201807 A

しかしながら、上述の従来技術のような、メカニカルシャッターを備えないカメラが屋外に配置されるような状況にある場合、カメラによる撮像のための動作の有無によらず、撮像素子の結像面は太陽からの遠赤外線を受けることがある。   However, when a camera that does not include a mechanical shutter is placed outdoors as in the prior art described above, the imaging surface of the image sensor is not sunlit regardless of whether or not there is an operation for imaging by the camera. May receive far infrared rays.

特に、カメラが同一の位置及び方向で長時間、屋外に配置され続けると、撮像素子の一部の領域のみが太陽からの遠赤外線を結像し続け、該領域は太陽からの遠赤外線の焼き付きによる損傷を受けることがある。この場合、撮像素子は、損傷を受けた領域で受光した光を正常に画像信号に変換することができず、損傷を受けた領域に対応する画像の画素値は、損傷を受けなかった場合の画素値とは異なるものとなる。すなわち、このような撮像素子を備えるカメラによって撮像された画像の一部には異常が発生する。   In particular, if the camera continues to be placed outdoors at the same position and direction for a long time, only a part of the image sensor continues to image far infrared rays from the sun, and these regions burn in far infrared rays from the sun. May cause damage. In this case, the imaging device cannot normally convert the light received in the damaged area into an image signal, and the pixel value of the image corresponding to the damaged area is not damaged. It is different from the pixel value. That is, an abnormality occurs in a part of an image captured by a camera including such an image sensor.

したがって、これらの点に着目してなされた本発明の目的は、太陽からの遠赤外線の焼き付きに伴う撮像素子の損傷による画像の異常を検出することができる画像処理装置、撮像装置、移動体、及び画像処理方法を提供することにある。   Therefore, the object of the present invention made by paying attention to these points is an image processing device, an imaging device, a moving body, which can detect an abnormality in an image due to damage of an imaging device due to burn-in of far infrared rays from the sun, And providing an image processing method.

上記課題を解決する画像処理装置は、移動体に搭載される画像処理装置であって、遠赤外線カメラによって撮像された画像を取得する取得部であって、前記移動体が停止している第1の時点に第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に第2の画像を取得する取得部と、前記第1の画像と前記第2の画像との比較に基づいて、前記遠赤外線カメラの撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得部から取得する画像に対し、前記第2の画像において異常が検出された領域を補正するプロセッサと、を備える。   An image processing apparatus that solves the above-described problem is an image processing apparatus mounted on a moving body, and is an acquisition unit that acquires an image captured by a far-infrared camera, and the moving body is stopped first. An acquisition unit that acquires a first image at a time point (a), and acquires a second image at a second time point after the first time point and before the moving body starts moving again; Based on the comparison between the image and the second image, an abnormality of the second image due to the locus of the sun image formed on the imaging device of the far-infrared camera is detected, and after the second time point, A processor that corrects an area in which an abnormality is detected in the second image with respect to the image acquired from the acquisition unit.

上記課題を解決する撮像装置は、移動体に搭載される撮像装置であって、遠赤外線により画像を撮像する撮像部と、前記移動体が停止している第1の時点に前記撮像部によって撮像された第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に前記撮像部によって撮像された第2の画像を取得する取得部と、前記第1の画像と前記第2の画像との比較に基づいて、前記撮像部の撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得部から取得する画像に対し、前記第2の画像において異常が検出された領域を補正するプロセッサと、を含む画像処理装置と、を備える。   An imaging device that solves the above-described problem is an imaging device that is mounted on a moving body, and is picked up by an imaging unit that captures an image using far-infrared rays and a first time point when the moving body is stopped. An acquisition unit that acquires the first image that has been acquired and acquires a second image captured by the imaging unit at a second time after the first time and before the moving body starts moving again And detecting the abnormality of the second image due to the trajectory of the sun image formed on the imaging element of the imaging unit based on the comparison between the first image and the second image, And a processor that corrects a region where an abnormality is detected in the second image with respect to the image acquired from the acquisition unit.

上記課題を解決する移動体は、遠赤外線により画像を撮像する撮像部と、移動体が停止している第1の時点に前記撮像部によって撮像された第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に前記撮像部によって撮像された第2の画像を取得する取得部と、前記第1の画像と前記第2の画像との比較に基づいて、前記撮像部の撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得部から取得する画像に対し、前記第2の画像において異常が検出された領域を補正するプロセッサと、を有する画像処理装置と、を含む撮像装置を備える。   A moving body that solves the above problem acquires an image capturing unit that captures an image using far infrared rays, and a first image captured by the image capturing unit at a first time point when the moving body is stopped. An acquisition unit that acquires a second image captured by the imaging unit at a second time point after the time point before the moving body starts moving again; and the first image and the second image Based on the comparison with the above, the abnormality of the second image due to the trajectory of the sun image formed on the image sensor of the imaging unit is detected, and the image acquired from the acquisition unit after the second time point is detected. And an image processing apparatus that includes a processor that corrects a region where an abnormality is detected in the second image.

上記課題を解決する画像処理方法は、移動体に搭載される画像処理装置が実行する画像処理方法であって、前記画像処理装置が、前記移動体が停止している第1の時点に遠赤外線カメラによって撮像された第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に前記遠赤外線カメラによって撮像された第2の画像を取得し、前記画像処理装置が、前記第1の画像と前記第2の画像との比較に基づいて、前記遠赤外線カメラの撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得した画像に対し、前記第2の画像において異常が検出された領域を補正する。   An image processing method for solving the above-described problem is an image processing method executed by an image processing device mounted on a moving body, and the image processing device detects a far infrared ray at a first time point when the moving body is stopped. A first image captured by the camera is acquired, and after the first time point, a second image captured by the far-infrared camera at a second time point before the moving body starts moving again. The image processing device acquires the second image based on a trajectory of the sun image formed on the image sensor of the far-infrared camera based on the comparison between the first image and the second image. An abnormality is detected, and after the second time point, an area where the abnormality is detected in the second image is corrected with respect to the acquired image.

本発明の一実施形態によれば、太陽からの遠赤外線の焼き付きに伴う撮像素子の損傷による画像の異常を検出することが可能となる。   According to an embodiment of the present invention, it is possible to detect an abnormality in an image due to damage to an image sensor due to burn-in of far infrared rays from the sun.

図1は、第1の実施形態に係る撮像装置の概略構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating a schematic configuration of the imaging apparatus according to the first embodiment. 図2は、図1に示す撮像装置を搭載した移動体の例を示す図である。FIG. 2 is a diagram illustrating an example of a moving object on which the imaging apparatus illustrated in FIG. 1 is mounted. 図3は、図1に示す画像処理装置で処理される画像の一例を示す模式図であり、図3(a)は第1の画像を示す例であり、図3(b)は第2の画像を示す例である。3 is a schematic diagram showing an example of an image processed by the image processing apparatus shown in FIG. 1, FIG. 3 (a) is an example showing a first image, and FIG. 3 (b) is a second image. It is an example which shows an image. 図4は、図1に示す画像処理装置の処理フローを示すフロー図である。FIG. 4 is a flowchart showing a processing flow of the image processing apparatus shown in FIG. 図5は、図4に示すフロー図の第1の判定処理の詳細を示すフロー図である。FIG. 5 is a flowchart showing details of the first determination process in the flowchart shown in FIG. 図6は、図4に示すフロー図の第2の判定処理の詳細を示すフロー図である。FIG. 6 is a flowchart showing details of the second determination process in the flowchart shown in FIG. 図7は、第2の実施形態に係る画像処理装置における第2の判定処理の詳細を示すフロー図である。FIG. 7 is a flowchart showing details of the second determination process in the image processing apparatus according to the second embodiment.

以下、本発明の第1の実施形態について、図面を参照して説明する。   A first embodiment of the present invention will be described below with reference to the drawings.

図1に示すように、遠赤外線カメラ(撮像装置)1は、撮像部2、画像処理装置3等を含んで構成される。遠赤外線カメラ1は、通信ケーブル等を介して、ECU(Engine Control Unit)4、表示装置5等と接続されて情報を送受信する。   As shown in FIG. 1, a far-infrared camera (imaging device) 1 includes an imaging unit 2, an image processing device 3, and the like. The far-infrared camera 1 is connected to an ECU (Engine Control Unit) 4, a display device 5, and the like via a communication cable and transmits and receives information.

また、遠赤外線カメラ1は、図2に示すように移動体6に搭載される。移動体6に搭載された遠赤外線カメラ1は、移動体6の、例えば前方を撮像する。遠赤外線カメラ1の撮像方向は移動体6の前方に限られず、移動体6の側方、後方を撮像してもよい。ここで、「移動体」は、例えば、乗用車、トラック、バスといった道路上を走行する車両等を意味する。   Further, the far-infrared camera 1 is mounted on a moving body 6 as shown in FIG. The far-infrared camera 1 mounted on the moving body 6 images, for example, the front side of the moving body 6. The imaging direction of the far-infrared camera 1 is not limited to the front of the moving body 6, and the side and rear of the moving body 6 may be imaged. Here, the “moving body” means, for example, a vehicle traveling on a road such as a passenger car, a truck, and a bus.

また、遠赤外線カメラ1は、遠赤外線による遠赤外画像(以降、「画像」という)を撮像するカメラである。遠赤外線は、温度に応じて物体から放出される波長約4μmから1mmの電磁波である。遠赤外線カメラ1は、例えば8μmから14μm程度の波長帯域の光を検出するカメラが使用できる。遠赤外線カメラ1の波長帯域はこれに限られず、この帯域以外の他の帯域、または、この帯域を含む他の帯域の光を撮像してよい。遠赤外線カメラ1を構成するレンズなどの光学部材としては、例えば、ゲルマニウム、シリコン、硫化亜鉛等が使用される。光学部材の材料としては、使用する遠赤外線の波長に応じて、他の材料を使用してよい。   The far-infrared camera 1 is a camera that captures a far-infrared image (hereinafter referred to as “image”) using far-infrared rays. Far-infrared rays are electromagnetic waves having a wavelength of about 4 μm to 1 mm emitted from an object according to temperature. As the far-infrared camera 1, for example, a camera that detects light in a wavelength band of about 8 μm to 14 μm can be used. The wavelength band of the far-infrared camera 1 is not limited to this, and light in other bands other than this band or in other bands including this band may be imaged. As an optical member such as a lens constituting the far-infrared camera 1, for example, germanium, silicon, zinc sulfide or the like is used. As the material of the optical member, other materials may be used according to the wavelength of far infrared rays to be used.

図1に示したように、撮像部2は、撮像レンズ21、撮像素子22、信号処理部23等を含んで構成される。   As shown in FIG. 1, the imaging unit 2 includes an imaging lens 21, an imaging element 22, a signal processing unit 23, and the like.

撮像レンズ21は、入射した光が撮像素子22で結像するように集光するレンズである。撮像レンズ21は、例えば、魚眼レンズ、超広角レンズで構成されてもよい。撮像レンズ21は、単レンズで構成されてもよいし、複数枚のレンズで構成されてもよい。   The imaging lens 21 is a lens that collects light so that incident light forms an image on the imaging element 22. The imaging lens 21 may be configured by, for example, a fisheye lens or an ultra wide angle lens. The imaging lens 21 may be composed of a single lens or a plurality of lenses.

撮像素子22は、撮像レンズ21によって結像された画像を撮像する撮像素子である。撮像素子22は、マイクロボロメータ型の検出器を使用することができる。遠赤外線カメラ1の撮像素子22としては、熱電素子及び焦電素子などの他の熱型赤外センサ、又は、量子型赤外線撮像素子等を用いることができる。   The imaging element 22 is an imaging element that captures an image formed by the imaging lens 21. The image sensor 22 can be a microbolometer type detector. As the image sensor 22 of the far-infrared camera 1, other thermal infrared sensors such as a thermoelectric element and a pyroelectric element, a quantum infrared image sensor, or the like can be used.

信号処理部23は、画像を処理するプロセッサであり、例えば特定の機能を実行するように形成した専用のマイクロプロセッサや特定のプログラムを読出すことにより特定の機能を実行するプロセッサである。   The signal processing unit 23 is a processor that processes an image, for example, a dedicated microprocessor formed to execute a specific function or a processor that executes a specific function by reading a specific program.

信号処理部23は、撮像素子22で結像された画像を表す画像信号を生成する。また、信号処理部23は、画像について、歪み補正、ゲイン調整、コントラスト調整、ガンマ補正等の任意の処理を行ってもよい。   The signal processing unit 23 generates an image signal representing an image formed by the image sensor 22. Further, the signal processing unit 23 may perform arbitrary processing such as distortion correction, gain adjustment, contrast adjustment, and gamma correction on the image.

画像処理装置3は、取得部31、画像メモリ32、太陽情報メモリ33、通信インターフェース34、プロセッサ35等を含んで構成される。   The image processing apparatus 3 includes an acquisition unit 31, an image memory 32, a solar information memory 33, a communication interface 34, a processor 35, and the like.

取得部31は、信号処理部23によって生成された画像信号を取得することによって、撮像部2が撮像した画像を取得するインターフェースである。取得部31は、物理コネクタ、及び無線通信機が採用できる。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタが含まれる。電気コネクタには、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、RCA端子に対応するコネクタ、EIAJ CP-1211Aに規定されるS端子に対応するコネクタ、EIAJ RC-5237に規定されるD端子に対応するコネクタ、HDMI(登録商標)規格に準拠するコネクタ、及びBNCを含む同軸ケーブルに対応するコネクタを含む。光コネクタは、IEC 61754に準拠する種々のコネクタを含む。無線通信機は、Bluetooth(登録商標)、及びIEEE802.11を含む各規格に準拠する無線通信機を含む。無線通信機は、少なくとも1つのアンテナを含む。   The acquisition unit 31 is an interface that acquires the image captured by the imaging unit 2 by acquiring the image signal generated by the signal processing unit 23. The acquisition unit 31 can employ a physical connector and a wireless communication device. The physical connector includes an electrical connector that supports transmission using an electrical signal, an optical connector that supports transmission using an optical signal, and an electromagnetic connector that supports transmission using electromagnetic waves. For electrical connectors, connectors conforming to IEC60603, connectors conforming to USB standards, connectors corresponding to RCA terminals, connectors corresponding to S terminals defined in EIAJ CP-1211A, D terminals defined in EIAJ RC-5237 , A connector conforming to the HDMI (registered trademark) standard, and a connector corresponding to a coaxial cable including BNC. The optical connector includes various connectors conforming to IEC 61754. The wireless communication device includes a wireless communication device that complies with each standard including Bluetooth (registered trademark) and IEEE802.11. The wireless communication device includes at least one antenna.

取得部31は、撮像部2が撮像した画像を取得する。具体的には、取得部31は、移動体6が停止している第1の時点に第1の画像を取得し、第1の時点の後、移動体6が移動を再び開始する前の第2の時点に第2の画像を取得する。   The acquisition unit 31 acquires an image captured by the imaging unit 2. Specifically, the acquisition unit 31 acquires the first image at the first time point when the moving body 6 is stopped, and after the first time point, the first time before the moving body 6 starts moving again. A second image is acquired at time 2.

例えば、取得部31は、通信インターフェース34が移動体6を停止するための制御が開始されたことを示す停止信号をECU4から受信した時点を第1の時点とし、遠赤外線カメラ1によって撮像された第1の画像を取得する。また、撮像部2は、通信インターフェース34が移動体6を停止状態から動作を開始させるための制御がなされた旨を示す開始信号をECU4から受信した時点を第2の時点とし、第2の画像を取得する。   For example, the acquisition unit 31 is captured by the far-infrared camera 1 with the first time point when the stop signal indicating that the communication interface 34 has started control for stopping the moving body 6 is received from the ECU 4. A first image is acquired. In addition, the imaging unit 2 sets the time point when the communication interface 34 receives the start signal indicating that the control for starting the operation of the moving body 6 from the stopped state is performed from the ECU 4 as the second time point, and the second image. To get.

第1の時点以降、第2の時点まで、移動体6は停止状態を継続している。そのため、第1の画像と第2の画像には、略同一の位置で略同一の方向が撮像されており、建造物、道路、空等の不動の被写体に関しては同一のものが画像内における同一の位置に撮像されている。一方、人物、他の移動体等の可動の被写体に関しては、第1の画像と第2の画像とで異なる場合がある。   From the first time point to the second time point, the moving body 6 continues to be stopped. Therefore, in the first image and the second image, substantially the same direction is imaged at substantially the same position, and the same thing in the image is the same in the stationary object such as a building, a road, and the sky. The image is taken at the position. On the other hand, there are cases where the first image and the second image are different for movable subjects such as people and other moving objects.

図3に示す例を参照して、第1の画像及び第2の画像について説明する。図3(a)に例示する第1の画像には、建造物、道路、空、木が撮像されている。また、図3(b)に例示する第2の画像においては、図3(a)と同様に建造物、道路、空、木が撮像されており、さらに、図3(a)には撮像されていない人物が領域b1に撮像されている。また、領域b2は、撮像素子22の結像面の領域b2に対応する部分が太陽から放射された遠赤外線を直接、受けたために撮像素子22が損傷を受けたことによって異常が検出された異常領域である。異常領域を構成する画素の画素値は、撮像素子22が損傷を受けていなかった場合に同じ撮像条件下で得られる画素値とは異なっている。   With reference to the example shown in FIG. 3, the first image and the second image will be described. In the first image illustrated in FIG. 3A, a building, a road, the sky, and a tree are captured. In addition, in the second image illustrated in FIG. 3B, buildings, roads, sky, and trees are imaged as in FIG. 3A, and further, images are captured in FIG. 3A. A person who is not photographed in the area b1. Further, the region b2 is an abnormality in which an abnormality is detected because the part corresponding to the region b2 of the imaging surface of the image sensor 22 directly receives far-infrared rays emitted from the sun and the image sensor 22 is damaged. It is an area. The pixel values of the pixels constituting the abnormal region are different from the pixel values obtained under the same imaging conditions when the image sensor 22 is not damaged.

また、取得部31は、撮像部2が撮像した画像をプロセッサ35に引き渡すことができる。   In addition, the acquisition unit 31 can deliver the image captured by the imaging unit 2 to the processor 35.

画像メモリ32は、撮像部2によって撮像され、取得部31によって取得された第1の画像を記憶することができる。画像メモリ32は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の揮発性メモリ、及び、およびフラッシュメモリ等の不揮発性メモリなどを用いることができる。   The image memory 32 can store the first image captured by the imaging unit 2 and acquired by the acquisition unit 31. As the image memory 32, volatile memory such as DRAM (Dynamic Random Access Memory), SRAM (Static Random Access Memory), and non-volatile memory such as flash memory can be used.

太陽情報メモリ33は、遠赤外線カメラ1によって撮像される太陽像の直径を記憶する。太陽像とは、太陽からの遠赤外線が直接、撮像素子22の結像面に結像された場合に画像空間に表される太陽の像である。太陽情報メモリ33は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の揮発性メモリ、及び、およびフラッシュメモリ等の不揮発性メモリなどを用いることができる。   The sun information memory 33 stores the diameter of the sun image captured by the far-infrared camera 1. The sun image is an image of the sun that appears in the image space when far infrared rays from the sun are directly imaged on the imaging surface of the image sensor 22. As the solar information memory 33, a volatile memory such as a DRAM (Dynamic Random Access Memory) and an SRAM (Static Random Access Memory), and a nonvolatile memory such as a flash memory can be used.

通信インターフェース34は、画像処理装置3がECU4、表示装置5と情報を送受信するためのインターフェースである。   The communication interface 34 is an interface for the image processing device 3 to transmit / receive information to / from the ECU 4 and the display device 5.

通信インターフェース34は、移動体6を停止するための制御が開始されたことを示す停止信号をECU4から受信する。また、通信インターフェース34は、移動体6を停止状態から動作を開始させるための制御がなされた旨を示す開始信号をECU4から受信する。   The communication interface 34 receives from the ECU 4 a stop signal indicating that control for stopping the moving body 6 has started. Further, the communication interface 34 receives from the ECU 4 a start signal indicating that control for starting the operation of the moving body 6 from the stopped state has been performed.

また、通信インターフェース34は、第2の時点以後に撮像された画像を表示装置5に送信する。   In addition, the communication interface 34 transmits images captured after the second time point to the display device 5.

通信インターフェース34は、物理コネクタ、無線通信機等とすることができる。物理コネクタには、電気コネクタ、光コネクタ、及び電磁コネクタが含まれる。また、無線通信機には、Bluetooth(登録商標)及びIEEE802.11を含む各規格に準拠する無線通信機、並びにアンテナが含まれる。   The communication interface 34 can be a physical connector, a wireless communication device, or the like. Physical connectors include electrical connectors, optical connectors, and electromagnetic connectors. The wireless communication device includes a wireless communication device that conforms to each standard including Bluetooth (registered trademark) and IEEE802.11, and an antenna.

プロセッサ35は、取得部31によって取得した画像を処理する。プロセッサ35は、一つまたは複数のプロセッサを含む。プロセッサ35は、種々の処理のためのプログラム及び演算中の情報を記憶する一つまたは複数のメモリを含んでよい。メモリは、揮発性メモリ及び不揮発性メモリが含まれる。メモリは、プロセッサ35と独立しているメモリ、及びプロセッサ35の内蔵メモリが含まれる。プロセッサ35には、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、特定の処理に特化した専用のプロセッサが含まれる。専用のプロセッサには、特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれる。プロセッサ35には、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれる。PLDには、FPGA(Field-Programmable Gate Array)が含まれる。プロセッサ35は、一つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。   The processor 35 processes the image acquired by the acquisition unit 31. The processor 35 includes one or more processors. The processor 35 may include one or a plurality of memories that store programs for various processes and information being calculated. The memory includes volatile memory and nonvolatile memory. The memory includes a memory independent of the processor 35 and a built-in memory of the processor 35. The processor 35 includes a general-purpose processor that reads a specific program and executes a specific function, and a dedicated processor specialized for specific processing. The dedicated processor includes an application specific integrated circuit (ASIC). The processor 35 includes a programmable logic device (PLD). The PLD includes a field-programmable gate array (FPGA). The processor 35 may be one of SoC (System-on-a-Chip) and SiP (System In a Package) in which one or more processors cooperate.

プロセッサ35は、第1の画像と第2の画像との比較に基づいて、撮像部2の撮像素子22に結像した太陽像による、第2の画像の異常を検出し、第2の時点以後、取得部31から取得する画像に対し、第2の画像において異常が検出された領域を補正する。   Based on the comparison between the first image and the second image, the processor 35 detects an abnormality of the second image due to the sun image formed on the imaging element 22 of the imaging unit 2, and after the second time point The region where the abnormality is detected in the second image is corrected with respect to the image acquired from the acquisition unit 31.

具体的には、プロセッサ35は、撮像部2によって撮像された第1の画像と第2の画像とに基づいて、第2の画像に焼き付きによる異常の可能性があるか否かを判定する第1の判定処理を行う。   Specifically, the processor 35 determines whether or not the second image has an abnormality due to burn-in based on the first image and the second image captured by the imaging unit 2. 1 determination processing is performed.

第1の判定処理において、プロセッサ35は、第1の画像を構成する各画素と、第1の画像の各画素の位置にそれぞれ対応する、第2の画像上の位置にある画素との画素値の差分をそれぞれ算出する。また、プロセッサ35は、このようにして算出された差分値と各画素の位置を対応付けて差分画像としてよい。プロセッサ35は、差分画像における差分が第1の閾値TH以上であるか否かを判定する。プロセッサ35は、差分が第1の閾値TH以上であると判定すると、第1の閾値TH以上である差分に係る、第2の画像を構成する画素を異常の可能性がある補正候補画素として抽出する。第1の閾値THとは、第1の画像と第2の画像とにおいて、太陽以外の被写体によって生じ得る画素値の差より大きい値に設定した閾値である。 In the first determination process, the processor 35 determines the pixel values of the pixels constituting the first image and the pixels at the positions on the second image corresponding to the positions of the pixels of the first image, respectively. Are respectively calculated. Further, the processor 35 may associate the difference value calculated in this way with the position of each pixel to obtain a difference image. The processor 35 determines whether or not the difference in the difference image is greater than or equal to the first threshold value TH1. The processor 35, when the difference is determined to be the first threshold value TH 1 or more, according to the difference of the first threshold value TH 1 or more, the correction candidate pixels the pixels constituting the second image is a possibility of abnormal Extract as The first and the threshold TH 1, in the first image and the second image, a threshold value set to a difference value larger than the pixel values may be caused by an object other than the sun.

第1の画像及び第2の画像がともにN×Mの解像度を有する場合、プロセッサ35は、第1の画像の座標(1,1)に位置する画素と、第2の画像の座標(1,1)に位置する画素の差分D11を算出する。同様にして、プロセッサ35は、第1の画像の座標(j,k)(j=1〜N,k=1〜M)に位置する画素と、第2の画像の座標(j,k)に位置する画素との差分Djkを算出する。そして、プロセッサ35は、全てのj及びkについての差分Djkが第1の閾値TH以上であるか否かを判定する。そして、プロセッサ35は、第1の閾値TH以上である差分Djkに係る第2の画像の画素を補正候補画素として抽出する。 When both the first image and the second image have N × M resolution, the processor 35 determines that the pixel located at the coordinates (1, 1) of the first image and the coordinates (1, 1, It calculates the difference D 11 pixels located in 1). Similarly, the processor 35 sets the pixel located at the coordinates (j, k) (j = 1 to N, k = 1 to M) of the first image and the coordinates (j, k) of the second image. The difference D jk from the pixel located is calculated. Then, the processor 35, the difference D jk for all j and k determines whether the first threshold value TH 1 or more. Then, the processor 35 extracts a pixel of the second image related to the difference D jk that is equal to or greater than the first threshold TH 1 as a correction candidate pixel.

上述のように、第1の画像の撮像時には焼き付きによる異常がなかった撮像素子22の部分に第2の画像の撮像時には異常が発生した場合、撮像素子22が焼き付いた部分に対応する画素は補正候補画素として抽出される。   As described above, when an abnormality occurs when the second image is captured in a portion of the image sensor 22 that is not abnormal due to burn-in when the first image is captured, the pixels corresponding to the portion where the image sensor 22 is burned are corrected. Extracted as candidate pixels.

また、プロセッサ35は、補正候補領域を抽出し、補正候補領域の形状と、太陽像の直径とに基づいて、補正候補領域が焼き付きによる異常であるかを判定する第2の判定処理を行う。補正候補領域とは、第2の画像の補正候補画素の集合によって構成される領域である。補正候補領域の形状には、補正候補領域の幅等が含まれる。   Further, the processor 35 extracts a correction candidate area and performs a second determination process for determining whether the correction candidate area is abnormal due to burn-in based on the shape of the correction candidate area and the diameter of the sun image. The correction candidate area is an area configured by a set of correction candidate pixels of the second image. The shape of the correction candidate area includes the width of the correction candidate area.

具体的には、プロセッサ35は、第2の画像において判定された補正候補画素の単位面積当たりの数が所定の密度閾値以上である連続した部分を抽出し、該抽出された部分を補正候補領域として設定してよい。密度閾値とは、補正候補画素の単位面積当たりの数がこの値以上である領域は、補正候補画素が集合しているとみなされる値である。また、プロセッサ35は、太陽情報メモリ33に記憶されている太陽像の直径を抽出する。   Specifically, the processor 35 extracts a continuous portion in which the number of correction candidate pixels determined in the second image per unit area is equal to or greater than a predetermined density threshold, and the extracted portion is used as a correction candidate region. May be set as The density threshold value is a value at which correction candidate pixels are considered to be gathered in a region where the number of correction candidate pixels per unit area is equal to or greater than this value. Further, the processor 35 extracts the diameter of the sun image stored in the sun information memory 33.

そして、プロセッサ35は、補正候補領域の幅と、太陽像の直径とに基づいて、補正候補領域を構成する画素を補正するか否か判定する。具体的には、プロセッサ35は、補正候補領域の幅と太陽像の直径との差分が所定の閾値(第2の閾値)TH以上であるか否かを判定する。ここで、第2の閾値THとは、補正候補領域の幅と太陽像の直径との差分がこの値未満である場合には、補正候補領域に係る撮像素子22の部分は焼き付きによる異常があるとみなされる、実験等により定められる値である。 Then, the processor 35 determines whether or not to correct the pixels constituting the correction candidate area based on the width of the correction candidate area and the diameter of the sun image. Specifically, processor 35, the difference between the diameter of the width and the sun image correction candidate region is equal to or a predetermined threshold (second threshold) TH 2 or more. Here, the second threshold TH 2 is that when the difference between the width of the correction candidate region and the diameter of the sun image is less than this value, the image sensor 22 related to the correction candidate region has an abnormality due to burn-in. It is a value determined by experimentation that is considered to be.

そして、プロセッサ35は、補正候補領域の幅と太陽像の直径との差分が第2の閾値TH未満であった場合、補正候補領域には太陽の焼き付きによる異常があると判定して、補正候補領域を異常のある領域として検出する。また、プロセッサ35は、差分が第2の閾値TH以上であった場合、補正候補領域には太陽の焼き付きによる異常がないと判定する。 The processor 35, when the difference between the diameter of the width and the sun image correction candidate region has a second less than the threshold value TH 2, it is determined that there is an abnormality due to seizure of the sun in the correction candidate region, corrected The candidate area is detected as an abnormal area. The processor 35, when the difference was the second threshold value TH 2 or more, determines that there is no abnormality caused by seizure of the sun to the correction candidate region.

第1の判定処理において、複数の補正候補領域が抽出された場合、プロセッサ35は、それぞれの補正候補領域について、補正候補領域の大きさと、太陽像の直径とに基づいて、補正候補領域が焼き付きによる異常であるか否かを判定する。   When a plurality of correction candidate areas are extracted in the first determination process, the processor 35 burns in the correction candidate areas for each correction candidate area based on the size of the correction candidate area and the diameter of the sun image. It is determined whether or not it is abnormal due to.

プロセッサ35は、補正候補領域に異常があると判定すると、すなわち補正候補領域を第2の画像における異常として検出すると、異常が検出された領域(異常領域)を補正する。具体的には、プロセッサ35は、第2の画像の異常領域を構成する各画素に対応する、第1の画像における画素の画素値を抽出する。そして、プロセッサ35は、第2の画像の異常領域を構成する各画素を、第1の画像において抽出した画素に基づいて変換する。このとき、プロセッサ35は、第2の画像の異常領域を構成する各画素を第1の画像において抽出した画素値に置換してもよい。また、プロセッサ35は、第2の画像の異常でない領域と、異常領域に対応する第1の画像の領域とに基づいて、第1の画像から抽出した画素値のゲインを変更して置換してもよい。   If the processor 35 determines that there is an abnormality in the correction candidate area, that is, detects the correction candidate area as an abnormality in the second image, the processor 35 corrects the area where the abnormality is detected (abnormal area). Specifically, the processor 35 extracts the pixel value of the pixel in the first image corresponding to each pixel constituting the abnormal region of the second image. Then, the processor 35 converts each pixel constituting the abnormal region of the second image based on the pixel extracted in the first image. At this time, the processor 35 may replace each pixel constituting the abnormal area of the second image with the pixel value extracted in the first image. Further, the processor 35 changes and replaces the gain of the pixel value extracted from the first image based on the non-abnormal region of the second image and the region of the first image corresponding to the abnormal region. Also good.

また、プロセッサ35は、補正候補領域に異常があると判定すると、すなわち第2の画像に異常が検出されると、第2の画像が撮像された後であって、移動体6が移動を開始した後に撮像部2によって撮像された画像における異常領域に対応する領域を補正する。例えば、プロセッサ35は、異常領域の画素の輝度を、異常領域の周辺の画素の平均輝度とするように、画素値を置換することができる。   Further, when the processor 35 determines that there is an abnormality in the correction candidate area, that is, when an abnormality is detected in the second image, the moving body 6 starts moving after the second image is captured. After that, the area corresponding to the abnormal area in the image captured by the imaging unit 2 is corrected. For example, the processor 35 can replace the pixel value so that the luminance of the pixels in the abnormal region is the average luminance of the pixels around the abnormal region.

続いて、第1の実施形態の画像処理装置3の画像処理方法について、図4を参照して説明する。   Next, an image processing method of the image processing apparatus 3 according to the first embodiment will be described with reference to FIG.

まず、取得部31は、移動体6が停止している第1の時点に第1の画像を取得する。例えば、通信インターフェース34が、移動体6を停止するための制御が開始されたことを示す停止信号をECU4から受信する(ステップS1)。ステップS1で停止信号が受信されると、取得部31が撮像部2によって生成された第1の画像を取得し、画像メモリ32が第1の画像を記憶する(ステップS2)。   First, the acquisition unit 31 acquires a first image at a first time point when the moving body 6 is stopped. For example, the communication interface 34 receives a stop signal indicating that control for stopping the moving body 6 has been started from the ECU 4 (step S1). When the stop signal is received in step S1, the acquisition unit 31 acquires the first image generated by the imaging unit 2, and the image memory 32 stores the first image (step S2).

そして、取得部31は、第1の時点の後、移動体6が移動を再び開始する前の第2の時点に第2の画像を取得する。例えば、通信インターフェース34が移動体6を停止状態から動作を開始させるための制御がなされた旨を示す開始信号をECU4から受信する(ステップS3)。ステップS3で開始信号が受信されると、取得部31が撮像部2によって生成された第2の画像を取得する(ステップS4)。   And the acquisition part 31 acquires a 2nd image at the 2nd time before the mobile body 6 starts a movement again after a 1st time. For example, the communication interface 34 receives from the ECU 4 a start signal indicating that control for starting the operation of the moving body 6 from the stopped state has been performed (step S3). When the start signal is received in step S3, the acquisition unit 31 acquires the second image generated by the imaging unit 2 (step S4).

ステップS4で、第2の画像が取得されると、プロセッサ35は、第1の画像と第2の画像とに基づいて、第2の画像に焼き付きによる異常の可能性があるか否かを判定する第1の判定処理を行う(ステップS5)。   When the second image is acquired in step S4, the processor 35 determines whether or not there is a possibility of an abnormality due to the burn-in in the second image based on the first image and the second image. A first determination process is performed (step S5).

ここで、ステップS5における第1の判定処理について、図5を参照して詳細に説明する。   Here, the first determination process in step S5 will be described in detail with reference to FIG.

図5に示すように、プロセッサ35は、第2の画像を構成する画素と、該画素にそれぞれ対応する、第1の画像を構成する画素との画素値の差分を算出する(ステップS51)。   As illustrated in FIG. 5, the processor 35 calculates a difference between pixel values of the pixels constituting the second image and the pixels constituting the first image corresponding to the pixels (step S51).

ステップS51で、差分が算出されると、プロセッサ35は、算出された差分が第1の閾値TH以上であるか否かを判定する(ステップS52)。 When the difference is calculated in step S51, the processor 35 determines whether or not the calculated difference is greater than or equal to the first threshold value TH1 (step S52).

ステップS52で、差分が第1の閾値TH以上であると判定されると、プロセッサ35は、第1の閾値TH以上の差分に係る第2の画像の画素を補正候補画素として抽出する(ステップS53) If it is determined in step S52 that the difference is greater than or equal to the first threshold value TH1, the processor 35 extracts pixels of the second image related to the difference greater than or equal to the first threshold value TH1 as correction candidate pixels ( Step S53)

ステップS52で、差分が第1の閾値TH未満であると判定されると、プロセッサ35は、第1の閾値TH以上の差分に係る第2の画像の画素を補正候補画素としない(ステップS54) In step S52, when the difference is determined to be less than a first threshold value TH 1, the processor 35 is not correct candidate pixel pixel of the second image according to the first threshold value TH 1 or more difference (step S54)

ステップS53又はS54の処理が終了すると、プロセッサ35は、第2の画像の全ての画素についてステップS51〜S54の処理がされたか否かを判定する(ステップS55)。   When the process of step S53 or S54 ends, the processor 35 determines whether or not the processes of steps S51 to S54 have been performed for all the pixels of the second image (step S55).

ステップS55で、全ての画素値について処理がされていないと判定されると、プロセッサ35は、まだ処理がされていない画素についてステップS51〜S54の処理を繰り返す。全ての画素値について処理がされたと判定されると、プロセッサ35は、第1の判定処理を終了する。   If it is determined in step S55 that all pixel values have not been processed, the processor 35 repeats the processes in steps S51 to S54 for pixels that have not been processed yet. When it is determined that all the pixel values have been processed, the processor 35 ends the first determination process.

第1の判定処理においては、ステップS51で、第2の画像を構成する全ての画素について、第1の画像における対応する画素との差分を算出してもよい。この場合、ステップS55で、全ての差分についてステップS52〜S54の処理がされたか否かを判定し、処理がされていない差分があると判定されると、プロセッサ35はまだ処理がされていない差分についてステップS52〜S54の処理を繰り返す。   In the first determination process, in step S51, for all the pixels constituting the second image, a difference from the corresponding pixel in the first image may be calculated. In this case, in step S55, it is determined whether or not the processing in steps S52 to S54 has been performed for all the differences. If it is determined that there is a difference that has not been processed, the processor 35 has not yet processed. Steps S52 to S54 are repeated.

図4に戻って、第1の判定処理が終了すると、プロセッサ35は、第2の画像に補正候補画素があるか否かを判定する(ステップS6)。   Returning to FIG. 4, when the first determination process ends, the processor 35 determines whether there is a correction candidate pixel in the second image (step S <b> 6).

ステップS6で第2の画像に補正候補画素がないと判定されると、プロセッサ35は第2の画像を補正せずに表示する(ステップS11)。   If it is determined in step S6 that there is no correction candidate pixel in the second image, the processor 35 displays the second image without correction (step S11).

ステップS6で第2の画像に補正候補画素があると判定されると、プロセッサ35は、第2の画像の補正候補画素の集合によって構成される補正候補領域に焼き付きによる異常があるか否かを判定する第2の判定処理を行う(ステップS7)。   If it is determined in step S6 that there are correction candidate pixels in the second image, the processor 35 determines whether or not there is an abnormality due to burn-in in the correction candidate region formed by the set of correction candidate pixels of the second image. A second determination process is performed (step S7).

具体的には、図6に示すように、プロセッサ35は、第2の画像における補正候補領域の幅を算出する(ステップS71)。   Specifically, as shown in FIG. 6, the processor 35 calculates the width of the correction candidate area in the second image (step S71).

ステップS71で補正候補領域の幅が算出されると、プロセッサ35は、太陽情報メモリ33に記憶されている太陽像の直径を抽出する(ステップS72)。   When the width of the correction candidate area is calculated in step S71, the processor 35 extracts the diameter of the sun image stored in the sun information memory 33 (step S72).

ステップS71で補正候補領域の幅が算出され、ステップS72で太陽像の直径が抽出されると、プロセッサ35は、補正候補領域の幅と太陽像の直径との差分を算出する(ステップS73)。   When the width of the correction candidate area is calculated in step S71 and the diameter of the sun image is extracted in step S72, the processor 35 calculates the difference between the width of the correction candidate area and the diameter of the sun image (step S73).

ステップS73で差分が算出されると、プロセッサ35は、補正候補領域の幅と太陽像の直径との差分が第2の閾値TH以上であるか否かを判定する(ステップS74)。 When the difference is calculated in step S73, the processor 35, the difference between the diameter of the width and the sun image correction candidate region is equal to or the second threshold value TH 2 or more (step S74).

ステップS74で、補正候補領域の幅と太陽像の直径との差分が第2の閾値TH未満であった場合、プロセッサ35は、補正候補領域は異常があると判定する(ステップS75)。 In step S74, the case difference between the diameter of the width and the sun image correction candidate region has a second less than the threshold value TH 2, the processor 35 determines that the correction candidate region is abnormal (step S75).

また、ステップS74で、補正候補領域の幅と太陽像の直径との差分が第2の閾値TH以上であった場合、プロセッサ35は、補正候補領域には異常がないと判定する(ステップS76)。 If the difference between the width of the correction candidate area and the diameter of the sun image is equal to or larger than the second threshold TH 2 in step S74, the processor 35 determines that there is no abnormality in the correction candidate area (step S76). ).

図4に戻って、ステップS7での第2の判定処理が終了すると、プロセッサ35は、第2の判定処理の結果に基づいて、処理を分岐させる(ステップS8)。   Returning to FIG. 4, when the second determination process in step S7 is completed, the processor 35 branches the process based on the result of the second determination process (step S8).

補正候補領域が異常領域でないと判定された場合(ステップS8でNoの場合)、プロセッサ35は第2の画像を補正せずに表示する(ステップS11)。   When it is determined that the correction candidate area is not an abnormal area (No in step S8), the processor 35 displays the second image without correction (step S11).

補正候補領域が異常領域であると判定された場合(ステップS8でYesの場合)、すなわち、第2の画像の補正候補領域から異常が検出された場合、プロセッサ35は、第2の画像が撮像された第2の時点に撮像された画像の異常が検出された領域を補正する(ステップS9)。具体的には、プロセッサ35は、第2の画像以後に撮像された画像の異常が検出された領域に対応する領域を構成する各画素に対応する、第1の画像における画素の画素値を抽出する。そして、プロセッサ35は、第2の画像の異常が検出された領域の各画素を、第1の画像において抽出した画素値に基づいて変換する。また、プロセッサ35は、第2の画像が撮像された後であって、移動体6が移動を開始した後に撮像部2によって撮像された画像については、異常領域の画素の輝度を、異常領域の周辺の画素の平均輝度とするように、画素値を置換することができる。   When it is determined that the correction candidate area is an abnormal area (Yes in step S8), that is, when an abnormality is detected from the correction candidate area of the second image, the processor 35 captures the second image. The region where the abnormality of the image captured at the second time point is detected is corrected (step S9). Specifically, the processor 35 extracts the pixel value of the pixel in the first image corresponding to each pixel constituting the region corresponding to the region where the abnormality of the image captured after the second image is detected. To do. Then, the processor 35 converts each pixel in the region where the abnormality of the second image is detected based on the pixel value extracted in the first image. In addition, the processor 35 determines the luminance of the pixels in the abnormal area for the image captured by the imaging unit 2 after the second image is captured and after the moving body 6 starts moving. The pixel value can be replaced so as to obtain the average luminance of surrounding pixels.

ステップS9で、第2の画像において異常が検出された領域について第2の画像が撮像された以後に撮像された画像が補正されると、通信インターフェース34は補正された画像を表示装置5に送信する(ステップS10)。   In step S <b> 9, when the image captured after the second image is captured for the region where abnormality is detected in the second image is corrected, the communication interface 34 transmits the corrected image to the display device 5. (Step S10).

ステップS10で、補正された画像が出力されると、表示装置5は画像処理装置3から出力された画像を表示する(ステップS11)。   When the corrected image is output in step S10, the display device 5 displays the image output from the image processing device 3 (step S11).

第1の実施形態において、画像処理装置3は、移動体6が動作を停止している第1の画像と移動体6が再び移動を開始する前の第2の画像とに基づいて、太陽の焼き付きによる第2の画像における異常領域を補正する。そのため、画像処理装置3は、太陽が放射した遠赤外線により、遠赤外線カメラ1の撮像素子22に損傷があった場合も、遠赤外線カメラ1の利用者は、異常が軽減された画像を参照することができる。また、画像処理装置3は、第2の時点以後に撮像された画像を利用して、各種の画像処理装置が処理を行う場合も、画像の異常に影響を受けた不適切な処理結果が出力されるのを軽減することができる。   In the first embodiment, the image processing apparatus 3 is based on the first image in which the moving body 6 stops operating and the second image before the moving body 6 starts moving again. An abnormal region in the second image due to burn-in is corrected. Therefore, the image processing apparatus 3 refers to the image in which the abnormality is reduced even when the image sensor 22 of the far-infrared camera 1 is damaged by the far-infrared radiation emitted by the sun. be able to. In addition, the image processing device 3 outputs an inappropriate processing result that is affected by the abnormality of the image even when various image processing devices perform processing using the image captured after the second time point. Can be reduced.

また、第1の実施形態において、プロセッサ35は、太陽像の直径に基づいて、第2の画像の異常を検出する。すなわち、画像処理装置3は、太陽の焼き付きによる異常に起因しない、第2の画像の第1の画像との差異を異常であるとして誤検出するのを減少させることができる。そのため、画像処理装置3は、第2の画像における太陽像による異常を正確に判定することができる。   In the first embodiment, the processor 35 detects an abnormality in the second image based on the diameter of the sun image. That is, the image processing apparatus 3 can reduce erroneous detection of a difference between the second image and the first image, which is not caused by an abnormality due to sun burning, as being abnormal. Therefore, the image processing device 3 can accurately determine the abnormality due to the sun image in the second image.

第1の実施形態において、プロセッサ35は、第1の判定により第2の画像に補正候補領域があると判定した場合、第2の判定を行ったがこの限りではない。例えば、プロセッサ35は、第1の判定により第2の画像に補正候補領域があると判定した場合、第2の判定を行わずに、該補正候補領域が異常領域であると判定してもよい。   In the first embodiment, when it is determined by the first determination that the second image has a correction candidate area, the processor 35 performs the second determination. However, the present invention is not limited to this. For example, when the processor 35 determines that there is a correction candidate area in the second image by the first determination, the processor 35 may determine that the correction candidate area is an abnormal area without performing the second determination. .

また、第1の実施形態において、プロセッサ35は、太陽像の直径に基づく判定に加え、さらに、遠赤外線カメラ1の方向に基づいて補正候補領域を判定してもよい。この場合、通信インターフェース34は、移動体6が有する方位センサ等から、移動体6の方向を示す情報を受信し、プロセッサ35は、移動体6の方向と移動体6における遠赤外線カメラ1の取り付け方向とに基づいて遠赤外線カメラ1の方向を算出する。例えば、遠赤外線カメラ1の方向が北向きである場合、太陽からの遠赤外線を直接受けることがないため撮像素子22が焼き付きによる損傷を受けていないと想定される。このため、プロセッサ35は、第2の画像には補正候補領域がないと判定することができる。これにより、プロセッサ35は、より高い精度で第2の画像の異常を検出することができる。   In the first embodiment, the processor 35 may determine the correction candidate area based on the direction of the far-infrared camera 1 in addition to the determination based on the diameter of the sun image. In this case, the communication interface 34 receives information indicating the direction of the moving body 6 from an orientation sensor or the like of the moving body 6, and the processor 35 attaches the far-infrared camera 1 to the direction of the moving body 6 and the moving body 6. The direction of the far-infrared camera 1 is calculated based on the direction. For example, when the direction of the far-infrared camera 1 is northward, it is assumed that the image sensor 22 is not damaged by image sticking because it does not directly receive far-infrared rays from the sun. Therefore, the processor 35 can determine that there is no correction candidate area in the second image. Thereby, the processor 35 can detect the abnormality of the second image with higher accuracy.

また、第1の実施形態において、プロセッサ35は、第1の判定及び第2の判定による異常領域に基づいて、第2の時点以後に撮像された画像を補正するとしたが、この限りではない。例えば、プロセッサ35は、異常補正領域を示す情報をメモリに記憶してもよい。この場合、プロセッサ35は、所定の時間前以降に行った第1の判定及び第2の判定に係る異常領域と、現時点で行った第1の判定及び第2の判定に係る異常領域とを補正することができる。所定の時間とは、焼き付きによって損傷を受けた撮像素子22の部分が損傷のない状態に戻るまでの時間とすればよく、実験等により定めることができる。   In the first embodiment, the processor 35 corrects the image captured after the second time point based on the abnormal region determined by the first determination and the second determination. However, the present invention is not limited to this. For example, the processor 35 may store information indicating the abnormality correction area in a memory. In this case, the processor 35 corrects the abnormal region related to the first determination and the second determination made after the predetermined time and the abnormal region related to the first determination and the second determination made at the present time. can do. The predetermined time may be a time until the portion of the image sensor 22 damaged by the burn-in returns to an undamaged state, and can be determined by an experiment or the like.

具体的には、画像処理装置3は、第1の判定及び第2の判定によって検出された異常領域の画素の位置を記憶する補正メモリを備える。そして、プロセッサ35は、取得部31から取得する画像について、補正メモリに記憶されている、異常領域の画素の位置の画素を補正する。   Specifically, the image processing device 3 includes a correction memory that stores the positions of the pixels in the abnormal region detected by the first determination and the second determination. Then, the processor 35 corrects the pixel at the position of the pixel in the abnormal region stored in the correction memory for the image acquired from the acquisition unit 31.

以下、本発明の第2の実施形態について、図面を参照して説明する。   Hereinafter, a second embodiment of the present invention will be described with reference to the drawings.

第2の実施形態に係る遠赤外線カメラ1は、第1の実施形態に係る遠赤外線カメラ1と同様に、撮像部2、画像処理装置3等を含んで構成される。また、撮像部2は、撮像レンズ21、撮像素子22、信号処理部23等を含んで構成される。また、画像処理装置3は、取得部31、画像メモリ32、太陽情報メモリ33、通信インターフェース34、プロセッサ35等を含んで構成される。   The far-infrared camera 1 according to the second embodiment includes an imaging unit 2, an image processing device 3, and the like, similarly to the far-infrared camera 1 according to the first embodiment. The imaging unit 2 includes an imaging lens 21, an imaging element 22, a signal processing unit 23, and the like. The image processing apparatus 3 includes an acquisition unit 31, an image memory 32, a solar information memory 33, a communication interface 34, a processor 35, and the like.

第2の実施形態に係る通信インターフェース34は、移動体6が有するGPS受信機及び方位センサ等から、移動体6の位置、方向、及び傾きを示す情報を受信する。また、通信インターフェース34は、移動体6が有する任意の情報機器から天候を示す情報を受信してもよい。通信インターフェース34は、移動体6の位置を表す情報を用いて、移動体6の外部の装置から通信ネットワークを介して天候を示す情報を受信してもよい。   The communication interface 34 according to the second embodiment receives information indicating the position, direction, and inclination of the moving body 6 from a GPS receiver, a direction sensor, and the like that the moving body 6 has. In addition, the communication interface 34 may receive information indicating weather from any information device included in the mobile body 6. The communication interface 34 may receive information indicating the weather from a device external to the mobile body 6 via a communication network using information indicating the position of the mobile body 6.

第2の実施形態に係るプロセッサ35は、第1の実施形態に係るプロセッサ35と同様であるが、さらに、第2の実施形態に係るプロセッサ35は、補正候補領域と、環境情報に基づいて算出された太陽像の軌跡とが少なくとも部分的に一致したとき補正候補領域には太陽像の焼き付きよる異常があると判定する。環境情報とは、遠赤外線カメラ1の位置、方向、及び傾き、並びに天候、第1の画像及び第2の画像が撮像された時刻の少なくとも1つを含む情報である。   The processor 35 according to the second embodiment is the same as the processor 35 according to the first embodiment, but the processor 35 according to the second embodiment further calculates based on the correction candidate area and the environment information. It is determined that the correction candidate region has an abnormality due to the burning of the sun image when the locus of the sun image at least partially matches. The environmental information is information including at least one of the position, direction, and tilt of the far-infrared camera 1, the weather, and the time when the first image and the second image are captured.

太陽像の軌跡とは、撮像素子22において太陽からの遠赤外線を直接結像した部分に対応する画素の集合である。太陽からの遠赤外線を直接結像することによって撮像素子22が何らかの損傷を受けている場合、撮像素子22の結像面の一部が太陽からの遠赤外線を直接、結像し、撮像素子22が損傷を受けたことによって、対応する部分である第2の画像の領域b2(図3(b)参照)が異常領域となる。異常領域とは、該異常領域を構成する画素の画素値が、撮像素子22が損傷を受けていない場合の画素値とは異なっている領域である。太陽像の軌跡は、所定のパラメータに基づいて算出することができる。   The trajectory of the sun image is a set of pixels corresponding to a portion where the far infrared ray from the sun is directly imaged in the image sensor 22. When the image sensor 22 is damaged by directly imaging the far infrared rays from the sun, a part of the imaging surface of the image sensor 22 directly images the far infrared rays from the sun, and the image sensor 22 As a result of being damaged, the second image area b2 (see FIG. 3B), which is a corresponding part, becomes an abnormal area. The abnormal region is a region where the pixel values of the pixels constituting the abnormal region are different from the pixel values when the image sensor 22 is not damaged. The trajectory of the solar image can be calculated based on a predetermined parameter.

具体的には、通信インターフェース34によって移動体6の位置、方向、及び傾きを示す情報、天候を示す情報が受信されると、プロセッサ35は、移動体6の位置、方向、及び傾きと移動体6に対する遠赤外線カメラ1の位置、方向、及び傾きに基づいて、遠赤外線カメラ1の位置、方向、及び傾きを算出する。そして、プロセッサ35は、遠赤外線カメラ1の位置、方向、及び傾き、並びに天候、第1の画像及び第2の画像が撮像された時刻の少なくとも1つを含む環境情報に基づいて、第1の時点以降の太陽像の軌跡を算出する。   Specifically, when information indicating the position, direction, and inclination of the moving body 6 and information indicating the weather are received by the communication interface 34, the processor 35 determines the position, direction, and inclination of the moving body 6 and the moving body. 6, the position, direction, and tilt of the far infrared camera 1 are calculated. Then, based on the environmental information including the position, direction, and tilt of the far-infrared camera 1 and the weather, and at least one of the times when the first image and the second image are captured, the processor 35 The trajectory of the solar image after the time is calculated.

また、プロセッサ35は、第2の判定処理において、さらに、補正候補領域の形状と、環境情報に基づいて算出された太陽像の軌跡との類似性に基づいて補正候補領域に焼き付きによる異常があるか否かを判定する。ここで、「補正候補領域の形状と、環境情報に基づいて算出された太陽像の軌跡とに類似性がある」とは、補正候補対象領域の形状を示す特徴量と、環境情報に基づいて算出された太陽像の軌跡を示す特徴量との差が所定の閾値(第3の閾値)TH以下であることを表す。第3の閾値THとは、補正候補対象領域の形状を示す特徴量と環境情報に基づいて算出された太陽像の軌跡を示す特徴量との差がこの値未満である場合には、補正候補領域に係る撮像素子22の部分は焼き付きによる異常があるとみなされる、実験等により定められる値である。 Further, in the second determination process, the processor 35 further includes an abnormality due to burn-in in the correction candidate area based on the similarity between the shape of the correction candidate area and the trajectory of the solar image calculated based on the environment information. It is determined whether or not. Here, “the similarity between the shape of the correction candidate area and the locus of the solar image calculated based on the environment information” is based on the feature amount indicating the shape of the correction candidate target area and the environment information. the difference between the feature amount indicating the trajectory of the calculated sun image representing that a predetermined threshold (third threshold) TH 3 below. The third threshold TH 3 is corrected when the difference between the feature amount indicating the shape of the correction candidate target region and the feature amount indicating the trajectory of the solar image calculated based on the environment information is less than this value. The part of the image sensor 22 related to the candidate area is a value determined by experiments or the like that is considered to be abnormal due to burn-in.

ここで、プロセッサ35が、補正候補領域の形状が太陽像の軌跡に類似しているか否かを判定する方法の例について説明する。   Here, an example of a method in which the processor 35 determines whether or not the shape of the correction candidate area is similar to the trajectory of the solar image will be described.

プロセッサ35は、特徴量としての遠赤外線カメラ1の位置、方向、傾き、及び、時刻から算出される太陽像の中心の軌跡を表す線分と、補正候補領域を代表する代表線分とに基づいて類似性を判定する。代表線分とは、補正候補領域の長さ方向に沿った線分であり、例えば、補正候補領域と補正候補領域以外とを分ける2つの境界をそれぞれ近似した2つの近似直線の中間を通る線とすることができる。代表線分はこれに限られず、プロセッサ35は、任意の方法で代表線分を決定することができる。   The processor 35 is based on the line segment representing the locus of the center of the solar image calculated from the position, direction, inclination, and time of the far-infrared camera 1 as the feature amount, and the representative line segment representing the correction candidate area. To determine similarity. The representative line segment is a line segment along the length direction of the correction candidate region. For example, a line passing through the middle of two approximate lines each approximating two boundaries that separate the correction candidate region and other than the correction candidate region. It can be. The representative line segment is not limited to this, and the processor 35 can determine the representative line segment by an arbitrary method.

プロセッサ35が類似性を判定する方法の一例について説明する。プロセッサ35は、環境情報に基づいて算出された太陽像の中心の軌跡を表す線分の第1の端点と、代表線分の第1の端点とが所定の距離以内にあり、かつ環境情報に基づいて算出された太陽像の中心の軌跡を表す線分の第1の端点とは反対側の第2の端点と代表線分の第1の端点とは反対側の第2の端点とが所定の距離以内にある場合、類似性があると判定する。   An example of how the processor 35 determines the similarity will be described. The processor 35 determines that the first end point of the line segment representing the locus of the center of the solar image calculated based on the environment information and the first end point of the representative line segment are within a predetermined distance and are included in the environment information. A second end point opposite to the first end point of the line segment representing the locus of the center of the solar image calculated based on the second end point opposite to the first end point of the representative line segment is predetermined. If it is within the distance, it is determined that there is similarity.

また、プロセッサ35は、第2の画像のxy座標系において、環境情報に基づいて算出された太陽像の軌跡として表される線分を一次関数(第1の一次関数)で表し、代表線分を一次関数(第2の一次関数)で表し、これらの一次関数に基づいて類似性を判定してもよい。この場合、プロセッサ35は、第1の一次関数の一次の係数と第2の一次関数の一次の係数との差が所定の閾値以下で、かつ、第1の一次関数の0次の係数と第2の一次関数の0次の係数との差が所定の閾値以下である場合、補正候補領域の形状が環境情報に基づいて算出された太陽像の軌跡とに類似性があると判定する。   In addition, the processor 35 represents a line segment represented as a trajectory of the solar image calculated based on the environment information in the xy coordinate system of the second image by a linear function (first linear function), and represents the representative line segment. May be represented by a linear function (second linear function), and similarity may be determined based on these linear functions. In this case, the processor 35 is configured such that the difference between the first coefficient of the first linear function and the first coefficient of the second linear function is equal to or smaller than a predetermined threshold value, and the zeroth coefficient of the first linear function and the first coefficient. When the difference from the 0th-order coefficient of the linear function of 2 is equal to or smaller than a predetermined threshold value, it is determined that the shape of the correction candidate area is similar to the locus of the solar image calculated based on the environmental information.

第2の実施形態におけるその他の構成、作用は第1の実施形態と同様なので、同一または対応する構成要素には、同一参照符号を付して説明を省略する。   Since other configurations and operations in the second embodiment are the same as those in the first embodiment, the same or corresponding components are denoted by the same reference numerals and description thereof is omitted.

続いて、第2の実施形態の画像処理装置3の画像処理方法について、図7を参照して説明する。   Next, an image processing method of the image processing apparatus 3 according to the second embodiment will be described with reference to FIG.

第2の実施形態の画像処理方法は、第1の実施形態における画像処理方法のステップS7のみにおいて異なる。そのため、第2の実施形態の画像処理方法のステップS7について説明する。   The image processing method of the second embodiment is different only in step S7 of the image processing method of the first embodiment. Therefore, step S7 of the image processing method of the second embodiment will be described.

図7に示すように、プロセッサ35は、第2の画像における補正候補領域の幅を算出する(ステップS171)。   As shown in FIG. 7, the processor 35 calculates the width of the correction candidate area in the second image (step S171).

一方、通信インターフェース34が、外部の装置等から移動体6の位置、方向、及び傾き、並びに日時、天候のいずれか1つ以上を受信し、プロセッサ35が、遠赤外線カメラ1の位置、方向、及び傾き、並びに日時、天候のいずれか1つ以上を含む環境情報を取得する(ステップS172)。   On the other hand, the communication interface 34 receives one or more of the position, direction, and inclination of the moving body 6 from the external device or the like, the date and time, and the weather, and the processor 35 receives the position, direction, and position of the far-infrared camera 1. And environmental information including any one or more of inclination, date / time, and weather (step S172).

第2の実施形態の画像処理方法のステップS173〜S175は、第1の実施形態の画像処理方法のステップS72〜S74と同様である。   Steps S173 to S175 of the image processing method of the second embodiment are the same as steps S72 to S74 of the image processing method of the first embodiment.

ステップS175で、補正候補領域の幅と太陽像の直径との差分が第2の閾値TH以上であると判定されると、プロセッサ35は、補正候補領域に異常がないと判定する(ステップS178)。 In step S175, the difference between the diameter of the width and the sun image correction candidate area is determined to be the second threshold value TH 2 or more, the processor 35 determines that there is no abnormality in the correction candidate region (step S178 ).

ステップS175で、補正候補領域の幅と太陽像の直径との差分が第2の閾値TH未満であると判定されると、プロセッサ35は、補正候補領域の形状と、ステップS172で取得した環境情報に基づいて算出された太陽像の軌跡との類似性があるか否かを判定する(ステップS176)。 In step S175, the difference between the diameter of the width and the sun image correction candidate area is determined to be a second less than the threshold TH 2, the processor 35, the shape of the correction candidate region obtained in step S172 environment It is determined whether or not there is similarity with the locus of the sun image calculated based on the information (step S176).

ステップS176で、補正候補領域の形状が、環境情報に基づいて算出された太陽像の軌跡に類似性があると判定されると、プロセッサ35は、補正候補領域に異常があると判定する(ステップS177)。また、ステップS85で、補正候補領域の形状が、環境情報に基づいて算出された太陽像の軌跡に類似性がないと判定されると、プロセッサ35は、補正候補領域に異常がないと判定する(ステップS178)。   If it is determined in step S176 that the shape of the correction candidate region is similar to the locus of the sun image calculated based on the environmental information, the processor 35 determines that the correction candidate region is abnormal (step) S177). Further, when it is determined in step S85 that the shape of the correction candidate region is not similar to the trajectory of the sun image calculated based on the environment information, the processor 35 determines that there is no abnormality in the correction candidate region. (Step S178).

以上、説明したように、第2の実施形態においては、画像処理装置3は、移動体6が動作を停止している第1の画像と移動体6が再び移動を開始する前の第2の画像とに基づいて、太陽像の軌跡による第2の画像における異常が検出された領域を補正する。そのため、画像処理装置3は、太陽が放射した遠赤外線により、遠赤外線カメラ1の撮像素子22に損傷があった場合も、遠赤外線カメラ1の利用者は、異常が軽減された画像を参照することができるという、第1の実施形態と同様の効果を奏する。また、第2の時点以後に撮像された画像を利用して、他の画像処理装置が処理を行う場合も、画像の異常に影響を受けた不適切な処理結果が出力されるのを軽減することができるという、第1の実施形態と同様の効果を奏する。   As described above, in the second embodiment, the image processing apparatus 3 includes the first image in which the moving body 6 has stopped operating and the second image before the moving body 6 starts moving again. Based on the image, a region where an abnormality is detected in the second image due to the locus of the sun image is corrected. Therefore, the image processing apparatus 3 refers to the image in which the abnormality is reduced even when the image sensor 22 of the far-infrared camera 1 is damaged by the far-infrared radiation emitted by the sun. The same effect as the first embodiment can be obtained. Further, even when another image processing apparatus performs processing using an image picked up after the second time point, the output of an inappropriate processing result affected by an image abnormality is reduced. The same effect as the first embodiment can be obtained.

また、第2の実施形態において、画像処理装置3は、環境情報に基づいて算出された太陽像の軌跡に基づいて、第2の画像の異常を検出する。すなわち、撮像素子22の焼き付きによる異常に起因しない、第2の画像の第1の画像との差異を異常であるとして誤検出するのを減少させることができる。そのため、第2の画像における異常を正確に判定することができる。   In the second embodiment, the image processing device 3 detects the abnormality of the second image based on the trajectory of the sun image calculated based on the environmental information. That is, it is possible to reduce erroneous detection of a difference between the second image and the first image that is not caused by an abnormality due to image sticking of the image sensor 22 as being abnormal. Therefore, it is possible to accurately determine an abnormality in the second image.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態及び実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態及び実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。   Although the above embodiment has been described as a representative example, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments and examples, and various modifications and changes can be made without departing from the scope of the claims. For example, a plurality of constituent blocks described in the embodiments and examples can be combined into one, or one constituent block can be divided.

上述の実施形態においては、プロセッサ35は、第2の画像の全領域から第1の判定処理によって補正候補領域を判定する第1の判定を行い、補正候補領域について第2の判定を行ったが、この限りではない。例えば、プロセッサ35は、第2の画像について、太陽以外の物体の認識処理を行い、物体が認識された領域を、異常を検出する領域、すなわち第1の判定処理及び第2の判定処理の対象から除外してもよい。これにより、第1の画像と第2の画像に撮像されている物体の違いを、太陽像の軌跡による異常であるとして誤検出するのを減少させることができる。   In the above-described embodiment, the processor 35 performs the first determination for determining the correction candidate area by the first determination process from the entire area of the second image, and performs the second determination for the correction candidate area. This is not the case. For example, the processor 35 performs a recognition process on an object other than the sun for the second image, and determines an area where the object is recognized as an area for detecting an abnormality, that is, a target of the first determination process and the second determination process. May be excluded. As a result, it is possible to reduce erroneous detection of the difference between the objects captured in the first image and the second image as being abnormal due to the trajectory of the sun image.

1 遠赤外線カメラ
2 撮像部
3,7 画像処理装置
4 ECU
5 表示装置
6 移動体
21 撮像レンズ
22 撮像素子
23 信号処理部
31 取得部
32 画像メモリ
33 太陽情報メモリ
34 通信インターフェース
35 プロセッサ
DESCRIPTION OF SYMBOLS 1 Far-infrared camera 2 Imaging part 3, 7 Image processing apparatus 4 ECU
DESCRIPTION OF SYMBOLS 5 Display apparatus 6 Moving body 21 Imaging lens 22 Image pick-up element 23 Signal processing part 31 Acquisition part 32 Image memory 33 Solar information memory 34 Communication interface 35 Processor

Claims (11)

移動体に搭載される画像処理装置であって、
遠赤外線カメラによって撮像された画像を取得する取得部であって、前記移動体が停止している第1の時点に第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に第2の画像を取得する取得部と、
前記第1の画像と前記第2の画像との比較に基づいて、前記遠赤外線カメラの撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得部から取得する画像に対し、前記第2の画像において異常が検出された領域を補正するプロセッサと、
を備える画像処理装置。
An image processing apparatus mounted on a moving body,
It is an acquisition part which acquires the image imaged by the far-infrared camera, Comprising: A 1st image is acquired at the 1st time which the said moving body has stopped, and the said moving body is after the said 1st time. An acquisition unit for acquiring the second image at a second time point before starting the movement again;
Based on the comparison between the first image and the second image, an abnormality of the second image due to a trajectory of the sun image formed on the imaging device of the far-infrared camera is detected, and the second image A processor that corrects a region where an abnormality is detected in the second image with respect to the image acquired from the acquisition unit after the time point;
An image processing apparatus comprising:
前記プロセッサは、前記第2の画像から前記第1の画像を減算することによって生成した差分画像に基づいて、前記第2の画像における異常を検出する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processor detects an abnormality in the second image based on a difference image generated by subtracting the first image from the second image. 前記プロセッサは、前記差分画像を前記第2の画像の各画素の画素値から前記第1の画像の対応する画素の画素値を減算することによって生成し、前記差分画像の画素値が所定の第1の閾値以上である画素からなる領域を補正候補領域として抽出し、前記補正候補領域を前記太陽像の軌跡によるものと判定した場合、前記第2の画像の異常として検出する請求項2に記載の画像処理装置。   The processor generates the difference image by subtracting a pixel value of a corresponding pixel of the first image from a pixel value of each pixel of the second image, and the pixel value of the difference image is a predetermined first value. 3. The method according to claim 2, wherein an area including pixels that are equal to or greater than a threshold value of 1 is extracted as a correction candidate area, and the correction candidate area is detected as an abnormality of the second image when the correction candidate area is determined to be based on a locus of the sun image. Image processing apparatus. 前記プロセッサは、前記補正候補領域の形状に基づいて該補正候補領域を前記太陽像の軌跡によるものと判定する請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the processor determines that the correction candidate area is based on a locus of the sun image based on a shape of the correction candidate area. 前記プロセッサは、前記遠赤外線カメラの位置、方向、前記第1の時点及び前記第2の時点の日時、並びに前記第1の時点から前記第2の時点までの天候のいずれか1つ以上を用いて前記第2の画像の異常を検出する請求項1から4の何れか一項に記載の画像処理装置。   The processor uses any one or more of the position and direction of the far-infrared camera, the date and time of the first time point and the second time point, and the weather from the first time point to the second time point. The image processing apparatus according to claim 1, wherein an abnormality of the second image is detected. 前記プロセッサは、前記遠赤外線カメラの位置、方向、前記第1の時点及び前記第2の時点の日時に基づいて、前記太陽像の軌跡を算出し、前記補正候補領域と前記算出した太陽像の軌跡とが少なくとも部分的に一致したとき、前記補正候補領域を前記太陽像の軌跡によるものと判定する請求項1から5のいずれか一項に記載の画像処理装置。   The processor calculates a trajectory of the sun image based on the position and direction of the far-infrared camera, the date and time of the first time point, and the second time point, and calculates the correction candidate region and the calculated sun image. The image processing apparatus according to claim 1, wherein when the locus coincides at least partially, the correction candidate region is determined to be based on the locus of the sun image. 前記プロセッサは、前記第2の画像について前記太陽以外の物体の認識処理を行い、前記物体が認識された領域は、前記異常を検出する領域から除外する請求項1から6の何れか一項に記載の画像処理装置。   The processor according to any one of claims 1 to 6, wherein the processor performs recognition processing of an object other than the sun on the second image, and excludes an area where the object is recognized from an area where the abnormality is detected. The image processing apparatus described. 補正される画素ごとの位置と補正値を対応付けるテーブルを記憶する補正メモリを備え、
前記プロセッサは、前記補正メモリに記憶された前記テーブルに記憶されている画素ごとの位置と補正値を、前記第2の画像の異常の検出結果に基づいて更新し、該更新されたテーブルに基づいて、前記取得部から取得する画像を補正する請求項1から7のいずれか一項に記載の画像処理装置。
A correction memory for storing a table for associating the position and correction value for each pixel to be corrected;
The processor updates the position and correction value for each pixel stored in the table stored in the correction memory based on the detection result of the abnormality in the second image, and based on the updated table The image processing apparatus according to claim 1, wherein the image acquired from the acquisition unit is corrected.
移動体に搭載される撮像装置であって、
遠赤外線により画像を撮像する撮像部と、
前記移動体が停止している第1の時点に前記撮像部によって撮像された第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に前記撮像部によって撮像された第2の画像を取得する取得部と、
前記第1の画像と第2の画像との比較に基づいて、前記撮像部の撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得部から取得する画像に対し、前記第2の画像において異常が検出された領域を補正するプロセッサと、
を含む画像処理装置と、を備える撮像装置。
An imaging device mounted on a moving body,
An imaging unit that captures an image using far infrared rays;
A first image captured by the imaging unit is acquired at a first time point when the moving body is stopped, and after the first time point, a second time before the moving body starts moving again An acquisition unit that acquires a second image captured by the imaging unit at a time point;
Based on the comparison between the first image and the second image, an abnormality of the second image is detected due to the locus of the sun image formed on the image sensor of the imaging unit, and after the second time point. A processor that corrects a region where an abnormality is detected in the second image with respect to the image acquired from the acquisition unit;
An image processing apparatus comprising: an image processing apparatus.
遠赤外線により画像を撮像する撮像部と、
移動体が停止している第1の時点に前記撮像部によって撮像された第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に前記撮像部によって撮像された第2の画像を取得する取得部と、
前記第1の画像と第2の画像との比較に基づいて、前記撮像部の撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得部から取得する画像に対し、前記第2の画像において異常が検出された領域を補正するプロセッサと、
を有する画像処理装置と、を含む撮像装置を備える移動体。
An imaging unit that captures an image using far infrared rays;
A first time point acquired by the imaging unit at a first time point when the moving body is stopped, and a second time point after the first time point and before the moving body starts moving again An acquisition unit for acquiring a second image captured by the imaging unit;
Based on the comparison between the first image and the second image, an abnormality of the second image is detected due to the locus of the sun image formed on the image sensor of the imaging unit, and after the second time point. A processor that corrects a region where an abnormality is detected in the second image with respect to the image acquired from the acquisition unit;
And a moving body comprising an imaging device including the image processing device.
移動体に搭載される画像処理装置が実行する画像処理方法であって、
前記画像処理装置が、前記移動体が停止している第1の時点に遠赤外線カメラによって撮像された第1の画像を取得し、前記第1の時点の後、前記移動体が移動を再び開始する前の第2の時点に前記遠赤外線カメラによって撮像された第2の画像を取得し、
前記画像処理装置が、前記第1の画像と第2の画像との比較に基づいて、前記遠赤外線カメラの撮像素子に結像した太陽像の軌跡による、前記第2の画像の異常を検出し、前記第2の時点以後、前記取得した画像に対し、前記第2の画像において異常が検出された領域を補正する画像処理方法。
An image processing method executed by an image processing apparatus mounted on a moving body,
The image processing apparatus acquires a first image captured by a far-infrared camera at a first time point when the moving body is stopped, and the moving body starts moving again after the first time point. Acquiring a second image captured by the far-infrared camera at a second time before
The image processing device detects an abnormality of the second image due to a trajectory of a sun image formed on the imaging device of the far-infrared camera based on a comparison between the first image and the second image. An image processing method for correcting a region where an abnormality is detected in the second image with respect to the acquired image after the second time point.
JP2016190457A 2016-09-28 2016-09-28 Image processing device, imaging device, moving object, and image processing method Active JP6629700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016190457A JP6629700B2 (en) 2016-09-28 2016-09-28 Image processing device, imaging device, moving object, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016190457A JP6629700B2 (en) 2016-09-28 2016-09-28 Image processing device, imaging device, moving object, and image processing method

Publications (2)

Publication Number Publication Date
JP2018056786A true JP2018056786A (en) 2018-04-05
JP6629700B2 JP6629700B2 (en) 2020-01-15

Family

ID=61834323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016190457A Active JP6629700B2 (en) 2016-09-28 2016-09-28 Image processing device, imaging device, moving object, and image processing method

Country Status (1)

Country Link
JP (1) JP6629700B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230930A1 (en) * 2019-05-16 2020-11-19 엘지전자 주식회사 Thermal imaging camera and control method thereof
CN112067131A (en) * 2019-06-11 2020-12-11 杭州海康微影传感科技有限公司 Thermal imaging camera burn treatment method and device
CN112149686A (en) * 2019-06-26 2020-12-29 台湾海洋大学 Method, device and system for processing captured image in non-reduction correction mode and artificial intelligence mode
WO2021140721A1 (en) * 2020-01-06 2021-07-15 株式会社Jvcケンウッド Image processing device, image processing method, and program
CN113261278A (en) * 2018-12-27 2021-08-13 伟摩有限责任公司 Identifying defects in optical detector systems based on the extent of stray light
WO2022018900A1 (en) * 2020-07-22 2022-01-27 株式会社Jvcケンウッド Image processing device, image processing method, and program
JP7495948B2 (en) 2019-04-30 2024-06-05 リンレッド Method and device for removing residual images in infrared images of changing scenes - Patents.com

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113261278A (en) * 2018-12-27 2021-08-13 伟摩有限责任公司 Identifying defects in optical detector systems based on the extent of stray light
JP2022517725A (en) * 2018-12-27 2022-03-10 ウェイモ エルエルシー Defect identification in photodetector systems based on stray light range
JP7280363B2 (en) 2018-12-27 2023-05-23 ウェイモ エルエルシー Defect identification in photodetector systems based on stray light range
JP7495948B2 (en) 2019-04-30 2024-06-05 リンレッド Method and device for removing residual images in infrared images of changing scenes - Patents.com
WO2020230930A1 (en) * 2019-05-16 2020-11-19 엘지전자 주식회사 Thermal imaging camera and control method thereof
CN112067131A (en) * 2019-06-11 2020-12-11 杭州海康微影传感科技有限公司 Thermal imaging camera burn treatment method and device
WO2020248761A1 (en) * 2019-06-11 2020-12-17 杭州海康微影传感科技有限公司 Method and apparatus for preventing heat damage to thermal imaging camera
CN112067131B (en) * 2019-06-11 2022-02-15 杭州海康微影传感科技有限公司 Thermal imaging camera burn treatment method and device
US11985403B2 (en) 2019-06-11 2024-05-14 Hangzhou Hikmicro Sensing Technology Co., Ltd. Method and apparatus for preventing heat damage to thermal imaging camera
CN112149686A (en) * 2019-06-26 2020-12-29 台湾海洋大学 Method, device and system for processing captured image in non-reduction correction mode and artificial intelligence mode
WO2021140721A1 (en) * 2020-01-06 2021-07-15 株式会社Jvcケンウッド Image processing device, image processing method, and program
WO2022018900A1 (en) * 2020-07-22 2022-01-27 株式会社Jvcケンウッド Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP6629700B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP6629700B2 (en) Image processing device, imaging device, moving object, and image processing method
WO2020113408A1 (en) Image processing method and device, unmanned aerial vehicle, system, and storage medium
CN109712102B (en) Image fusion method and device and image acquisition equipment
KR101716036B1 (en) Fire surveillance apparatus
US9807320B2 (en) Operation input device, operation input method, and computer-readable recording medium
JP2022509034A (en) Bright spot removal using a neural network
JP2020522937A (en) Shutterless Far Infrared (FIR) Camera for Automotive Safety and Driving Systems
US8009202B2 (en) Device and method for capturing an image of a human face
CN108848306B (en) Image processing method and device, electronic equipment and computer readable storage medium
US20130169824A1 (en) Blur detection system for night scene images
US20210243338A1 (en) Techniques for correcting oversaturated pixels in shutterless fir cameras
US10699386B2 (en) Techniques for scene-based nonuniformity correction in shutterless FIR cameras
TWI514894B (en) White balance correction in a captured digital image
JP6970568B2 (en) Vehicle peripheral monitoring device and peripheral monitoring method
CN114544006B (en) Low-altitude remote sensing image correction system and method based on ambient illumination condition
KR102347226B1 (en) Fusion sensor data visualization device and method
US20210090237A1 (en) Deposit detection device and deposit detection method
CN108881740B (en) Image method and device, electronic equipment and computer readable storage medium
JP6910841B2 (en) Imaging device and its adjustment method
CN111247558A (en) Image processing method, device, unmanned aerial vehicle, system and storage medium
US20140247987A1 (en) Object detection apparatus, storage medium, and integrated circuit
EP4138034A1 (en) Electronic device for detecting defect in image on basis of difference among sub-images acquired by multiple photodiode sensor, and operation method thereof
US9800796B1 (en) Apparatus and method for low dynamic range and high dynamic range image alignment
CN114630060A (en) Uncertainty measurement system and method related to infrared imaging
KR20110067700A (en) Image acquisition method and digital camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191205

R150 Certificate of patent or registration of utility model

Ref document number: 6629700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150