JP6927914B2 - Image processing equipment, imaging equipment, and moving objects - Google Patents

Image processing equipment, imaging equipment, and moving objects Download PDF

Info

Publication number
JP6927914B2
JP6927914B2 JP2018063194A JP2018063194A JP6927914B2 JP 6927914 B2 JP6927914 B2 JP 6927914B2 JP 2018063194 A JP2018063194 A JP 2018063194A JP 2018063194 A JP2018063194 A JP 2018063194A JP 6927914 B2 JP6927914 B2 JP 6927914B2
Authority
JP
Japan
Prior art keywords
image
subject
far
temperature
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018063194A
Other languages
Japanese (ja)
Other versions
JP2019174299A (en
Inventor
耀恒 蘇
耀恒 蘇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018063194A priority Critical patent/JP6927914B2/en
Publication of JP2019174299A publication Critical patent/JP2019174299A/en
Priority to JP2021129305A priority patent/JP2021183974A/en
Application granted granted Critical
Publication of JP6927914B2 publication Critical patent/JP6927914B2/en
Priority to JP2023048952A priority patent/JP2023095847A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、画像処理装置、撮像装置、および移動体に関する。 The present disclosure relates to an image processing device, an imaging device, and a moving body.

従来、遠赤外線カメラが、被写体から放出される赤外線を撮像し、撮像した赤外線の強度に基づいて算出される被写体の温度により、歩行者である被写体を抽出することが知られている。遠赤外線カメラによって得られた熱画像から路面の領域を推定し、該路面の温度に基づいて歩行者の取り得る温度を算出することによって、高い精度で歩行者を抽出することが提案されている(例えば、特許文献1参照)。 Conventionally, it is known that a far-infrared camera captures infrared rays emitted from a subject and extracts a pedestrian subject by the temperature of the subject calculated based on the intensity of the captured infrared rays. It has been proposed to extract pedestrians with high accuracy by estimating the area of the road surface from the thermal image obtained by the far-infrared camera and calculating the temperature that the pedestrian can take based on the temperature of the road surface. (See, for example, Patent Document 1).

特開2012−53724号公報Japanese Unexamined Patent Publication No. 2012-53724

しかしながら、路面の温度と歩行者の取り得る温度との関係は一定でないことがある。このため、特許文献1に記載の方法では、遠赤外線カメラによって検出された遠赤外線の強度を用いて路面の温度と歩行者の取り得る温度との関係に基づいて、被写体の温度に関する情報を正確に推定することが困難となる。 However, the relationship between the road surface temperature and the temperature that a pedestrian can take may not be constant. Therefore, in the method described in Patent Document 1, the information regarding the temperature of the subject is accurately obtained based on the relationship between the temperature of the road surface and the temperature that can be taken by a pedestrian by using the intensity of the far infrared ray detected by the far infrared ray camera. It becomes difficult to estimate.

本開示は、被写体の温度に関する情報を高い精度で推定する画像処理装置、撮像装置、及び移動体を提供することを目的とする。 An object of the present disclosure is to provide an image processing device, an imaging device, and a moving body that estimate information on the temperature of a subject with high accuracy.

本開示の一実施形態に係る画像処理装置は、画像取得部と、コントローラと、を備える。前記画像取得部は、遠赤外画像を取得する。前記コントローラは、前記遠赤外画像の撮像位置から該遠赤外画像に像として含まれる被写体までの被写体距離と、予め定められている基準距離と、前記撮像位置から前記基準距離離れた位置に固定されている所定の放射率を有する基準物体の温度に関する情報と、前記遠赤外画像内の前記被写体の像における信号レベルと、前記遠赤外画像内で前記基準物体の撮像領域として予め定められている領域における信号レベルとに基づいて、前記被写体の温度に関する情報を推定する。 The image processing apparatus according to the embodiment of the present disclosure includes an image acquisition unit and a controller. The image acquisition unit acquires a far-infrared image. The controller sets the subject distance from the imaging position of the far-infrared image to the subject included as an image in the far-infrared image, a predetermined reference distance, and a position separated from the imaging position by the reference distance. Information about the temperature of a reference object having a fixed predetermined radiation coefficient, the signal level in the image of the subject in the far-infrared image, and the imaging region of the reference object in the far-infrared image are predetermined. Information about the temperature of the subject is estimated based on the signal level in the area.

本開示の一実施形態に係る撮像装置は、画像処理装置を備える。前記画像処理装置は、画像取得部と、コントローラと、を含む。前記画像取得部は、遠赤外画像を取得する。前記コントローラは、前記遠赤外画像の撮像位置から該遠赤外画像に像として含まれる被写体までの被写体距離と、予め定められている基準距離と、前記撮像位置から前記基準距離離れた位置に固定されている所定の放射率を有する基準物体の温度に関する情報と、前記遠赤外画像内の前記被写体の像における信号レベルと、前記遠赤外画像内で前記基準物体の撮像領域として予め定められている領域における信号レベルとに基づいて、前記被写体の温度に関する情報を推定する。 The image pickup apparatus according to the embodiment of the present disclosure includes an image processing apparatus. The image processing device includes an image acquisition unit and a controller. The image acquisition unit acquires a far-infrared image. The controller sets the subject distance from the imaging position of the far-infrared image to the subject included as an image in the far-infrared image, a predetermined reference distance, and a position separated from the imaging position by the reference distance. Information about the temperature of a reference object having a fixed predetermined radiation coefficient, the signal level in the image of the subject in the far-infrared image, and the imaging region of the reference object in the far-infrared image are predetermined. Information about the temperature of the subject is estimated based on the signal level in the area.

本開示の一実施形態に係る移動体は、画像処理装置を備える。前記画像処理装置は、画像取得部と、コントローラと、を含む。前記画像取得部は、遠赤外画像を取得する。前記コントローラは、前記遠赤外画像の撮像位置から該遠赤外画像に像として含まれる被写体までの被写体距離と、予め定められている基準距離と、前記撮像位置から前記基準距離離れた位置に固定されている所定の放射率を有する基準物体の温度に関する情報と、前記遠赤外画像内の前記被写体の像における信号レベルと、前記遠赤外画像内で前記基準物体の撮像領域として予め定められている領域における信号レベルとに基づいて、前記被写体の温度に関する情報を推定する。 The moving body according to the embodiment of the present disclosure includes an image processing device. The image processing device includes an image acquisition unit and a controller. The image acquisition unit acquires a far-infrared image. The controller sets the subject distance from the imaging position of the far-infrared image to the subject included as an image in the far-infrared image, a predetermined reference distance, and a position separated from the imaging position by the reference distance. Information about the temperature of a reference object having a fixed predetermined radiation coefficient, the signal level in the image of the subject in the far-infrared image, and the imaging region of the reference object in the far-infrared image are predetermined. Information about the temperature of the subject is estimated based on the signal level in the area.

本開示の一実施形態に係る画像処理装置、撮像装置、および移動体によれば、被写体の温度に関する情報を高い精度で推定することができる。 According to the image processing device, the image pickup device, and the moving body according to the embodiment of the present disclosure, information on the temperature of the subject can be estimated with high accuracy.

本実施形態に係る画像処理装置を含む被写体種別推定システムを備える移動体を示す概略図である。It is a schematic diagram which shows the moving body which includes the subject type estimation system including the image processing apparatus which concerns on this embodiment. 図1に示す被写体種別推定システムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the subject type estimation system shown in FIG. 図1に示す撮像部によって撮像された遠赤外画像の例を示す概略図である。It is a schematic diagram which shows the example of the far-infrared image image | photographed by the image pickup part shown in FIG. 図1に示す被写体種別推定システムの被写体種別推定処理のフローを示すフローチャートである。It is a flowchart which shows the flow of the subject type estimation processing of the subject type estimation system shown in FIG.

以下、本開示の一実施形態に係る画像処理装置10について、図面を参照して説明する。 Hereinafter, the image processing apparatus 10 according to the embodiment of the present disclosure will be described with reference to the drawings.

図1に示すように、本開示の一実施形態に係る画像処理装置10を含む被写体種別推定システム1は、移動体100に取り付けられる。 As shown in FIG. 1, the subject type estimation system 1 including the image processing device 10 according to the embodiment of the present disclosure is attached to the moving body 100.

移動体100は、例えば車両、船舶、および航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、および滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、およびトロリーバス等を含んでよい。産業車両は、例えば農業および建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフトおよびゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、およびタンカー等を含んでよい。航空機は、例えば固定翼機および回転翼機等を含んでよい。 The moving body 100 may include, for example, a vehicle, a ship, an aircraft, and the like. Vehicles may include, for example, automobiles, industrial vehicles, railroad vehicles, living vehicles, fixed-wing aircraft traveling on runways, and the like. Automobiles may include, for example, passenger cars, trucks, buses, motorcycles, trolley buses and the like. Industrial vehicles may include, for example, industrial vehicles for agriculture and construction. Industrial vehicles may include, for example, forklifts and golf carts. Industrial vehicles for agriculture may include, for example, tractors, cultivators, porters, binders, combines, lawnmowers and the like. Industrial vehicles for construction may include, for example, bulldozers, scrapers, excavators, mobile cranes, dump trucks, road rollers and the like. The vehicle may include a vehicle that travels manually. The classification of vehicles is not limited to the above examples. For example, an automobile may include an industrial vehicle that can travel on the road. The same vehicle may be included in multiple categories. Vessels may include, for example, marine jets, boats, tankers and the like. Aircraft may include, for example, fixed-wing aircraft, rotorcraft, and the like.

図2に示すように、被写体種別推定システム1は、撮像装置11と、距離測定装置12とを備える。撮像装置11は、撮像部13と、画像処理装置10とを備える。 As shown in FIG. 2, the subject type estimation system 1 includes an imaging device 11 and a distance measuring device 12. The image pickup device 11 includes an image pickup unit 13 and an image processing device 10.

図1に示したように、撮像部13は、例えば、移動体100の前方から放出される遠赤外光を撮像可能なように移動体100に取付けられている。撮像部13は、移動体100の前方に限らず、側方または後方を撮像可能なように移動体100に取り付けられてもよい。撮像部13は、撮像範囲内にある被写体から放出された遠赤外光を撮像した遠赤外画像を生成する。撮像部13は、例えば、遠赤外カメラである。 As shown in FIG. 1, the imaging unit 13 is attached to the moving body 100 so that, for example, far-infrared light emitted from the front of the moving body 100 can be imaged. The imaging unit 13 is not limited to the front of the moving body 100, but may be attached to the moving body 100 so that it can image laterally or rearwardly. The imaging unit 13 generates a far-infrared image that captures the far-infrared light emitted from a subject within the imaging range. The image pickup unit 13 is, for example, a far infrared camera.

撮像装置11の撮像範囲に基準物体15が取り付けられている。具体的には、基準物体15は、移動体100の外表面における、撮像部13の撮像位置から予め定められた基準距離D1に固定されている。基準物体15は、所定の放射率を有する物体である。所定の放射率は、例えば、人間の放射率が取り得る範囲である。人間の放射率は、皮膚の状態、および衣服の素材等にもよるが、例えば0.95〜1である。基準物体15は、例えば、放射率が1の物体である黒体であってよい。基準物体15の温度は、体温が取り得る範囲に含まれる所定温度であってよい。体温が取り得る範囲は、例えば、35度から42度である。基準物体15は、ヒーター等の任意の温度制御装置によって所定温度に保持されるよう制御されてよい。 A reference object 15 is attached to the imaging range of the imaging device 11. Specifically, the reference object 15 is fixed at a predetermined reference distance D1 from the imaging position of the imaging unit 13 on the outer surface of the moving body 100. The reference object 15 is an object having a predetermined emissivity. The predetermined emissivity is, for example, the range that human emissivity can take. The human emissivity is, for example, 0.95-1, although it depends on the condition of the skin, the material of clothes, and the like. The reference object 15 may be, for example, a blackbody which is an object having an emissivity of 1. The temperature of the reference object 15 may be a predetermined temperature included in the range in which the body temperature can be taken. The range of body temperature that can be taken is, for example, 35 to 42 degrees. The reference object 15 may be controlled to be held at a predetermined temperature by an arbitrary temperature control device such as a heater.

画像処理装置10は、画像取得部17と、情報取得部18と、メモリ19と、コントローラ20と、出力部21とを備える。 The image processing device 10 includes an image acquisition unit 17, an information acquisition unit 18, a memory 19, a controller 20, and an output unit 21.

画像取得部17は、撮像装置11によって生成された遠赤外画像を取得するインターフェースである。 The image acquisition unit 17 is an interface for acquiring a far-infrared image generated by the image pickup apparatus 11.

情報取得部18は、被写体距離D2を取得する。被写体距離D2は、距離測定装置12によって測定された、遠赤外画像の撮像位置から該遠赤外画像に像として含まれる被写体までの距離である。 The information acquisition unit 18 acquires the subject distance D2. The subject distance D2 is the distance from the imaging position of the far-infrared image measured by the distance measuring device 12 to the subject included as an image in the far-infrared image.

メモリ19は、例えばRAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスにより構成される。メモリ19は、基準物体15から放出された遠赤外光の強度IA0を記憶する。メモリ19は、撮像部13における撮像位置から基準物体15までの基準距離D1を記憶する。メモリ19は、撮像部13における撮像位置から距離測定装置12までの距離D22を記憶する。遠赤外光の強度IA0、基準距離D1、および距離D22は、予め設計された値である。遠赤外光の強度IA0、基準距離D1、および距離D22は、被写体種別推定システム1の移動体100への搭載後に校正された値、あるいは実測値であってもよい。 The memory 19 is composed of an arbitrary storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory). The memory 19 stores the intensity I A0 of the far-infrared light emitted from the reference object 15. The memory 19 stores the reference distance D1 from the imaging position in the imaging unit 13 to the reference object 15. The memory 19 stores the distance D22 from the imaging position in the imaging unit 13 to the distance measuring device 12. The far-infrared light intensity I A0 , the reference distance D1, and the distance D22 are pre-designed values. The far-infrared light intensity I A0 , the reference distance D1, and the distance D22 may be values calibrated after mounting the subject type estimation system 1 on the moving body 100, or measured values.

コントローラ20は、1以上のプロセッサおよびメモリを含む。コントローラ20は、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC; Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD; Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ20は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってもよい。 The controller 20 includes one or more processors and memory. The controller 20 may include a general-purpose processor that loads a specific program and executes a specific function, and a dedicated processor specialized for a specific process. Dedicated processors may include application specific integrated circuits (ASICs). The processor may include a programmable logic device (PLD). The PLD may include an FPGA (Field-Programmable Gate Array). The controller 20 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, and a SiP (System In a Package).

コントローラ20は、画像取得部17によって取得された遠赤外画像に対して処理を実行する。コントローラ20が実行する処理の詳細は後述する。 The controller 20 executes processing on the far-infrared image acquired by the image acquisition unit 17. Details of the processing executed by the controller 20 will be described later.

出力部21は、コントローラ20によって実行された処理に基づく情報を、距離測定装置12、ならびに移動体100に搭載されたディスプレイおよびECU(Engine Control UnitまたはElectric Control Unit)等に出力してよい。ECUは、出力部21によって出力された情報に基づいて、例えば移動体100に関連して使用される被制御装置を制御することにより、移動体100の走行を制御しうる。被制御装置には、例えば、エンジン、モータ、トランスミッション、カーエアコンディショナ、パワーウィンドウ、カーナビゲーションシステム、カーオーディオ、ヘッドアップディスプレイ等を含んでよいが、これらに限られない。 The output unit 21 may output information based on the processing executed by the controller 20 to the distance measuring device 12, the display mounted on the moving body 100, the ECU (Engine Control Unit or the Electric Control Unit), and the like. The ECU can control the traveling of the moving body 100 based on the information output by the output unit 21, for example, by controlling the controlled device used in connection with the moving body 100. The controlled device may include, but is not limited to, for example, an engine, a motor, a transmission, a car air conditioner, a power window, a car navigation system, a car audio, a head-up display, and the like.

距離測定装置12は、撮像装置11における撮像位置から被写体までの距離である被写体距離D2を算出するための情報を生成する。被写体距離D2を算出するための情報は、例えば、該距離測定装置12から被写体までの距離D21、または被写体距離D2そのものである。被写体距離D2を算出するための情報が距離D21である構成では、距離測定装置12は、距離D21を測定し、測定した距離D21を、被写体距離D2を算出するための情報として生成する。被写体距離D2を算出するための情報が被写体距離D2そのものである構成では、距離測定装置12は、距離D21を測定する。距離測定装置12は、測定された距離D21と、予め定められた撮像装置11の撮像位置および距離測定装置12の間の距離D22とに基づいて撮像装置11における撮像位置から被写体までの被写体距離D2を算出する。図1に示した例では、距離測定装置12は、撮像部13と被写体との間に位置する。このため、距離測定装置12は、距離測定装置12から被写体までの距離D21と、撮像装置11から距離測定装置12まで間の距離D22との合計D21+D22である被写体距離D2を算出する。 The distance measuring device 12 generates information for calculating the subject distance D2, which is the distance from the imaging position of the imaging device 11 to the subject. The information for calculating the subject distance D2 is, for example, the distance D21 from the distance measuring device 12 to the subject, or the subject distance D2 itself. In the configuration in which the information for calculating the subject distance D2 is the distance D21, the distance measuring device 12 measures the distance D21 and generates the measured distance D21 as information for calculating the subject distance D2. In the configuration in which the information for calculating the subject distance D2 is the subject distance D2 itself, the distance measuring device 12 measures the distance D21. The distance measuring device 12 is based on the measured distance D21, the imaging position of the imaging device 11 and the distance D22 between the distance measuring device 12, and the subject distance D2 from the imaging position in the imaging device 11 to the subject. Is calculated. In the example shown in FIG. 1, the distance measuring device 12 is located between the imaging unit 13 and the subject. Therefore, the distance measuring device 12 calculates the subject distance D2, which is the total D21 + D22 of the distance D21 from the distance measuring device 12 to the subject and the distance D22 between the imaging device 11 and the distance measuring device 12.

距離測定装置12は、例えば、RADAR(Radio detection And Ranging)、LIDAR(Light Detection and Ranging)等であってよい。距離測定装置12は、単眼カメラであってもよい。単眼カメラを適用した距離測定装置12は、被写体を撮像した画像に基づいて公知の方法により、被写体距離D2を算出しうる。これらに限られず、距離測定装置12は、任意の方法で撮像位置から被写体までの距離を測定してよい。 The distance measuring device 12 may be, for example, RADAR (Radio detection And Ranging), LIDAR (Light Detection and Ranging), or the like. The distance measuring device 12 may be a monocular camera. The distance measuring device 12 to which the monocular camera is applied can calculate the subject distance D2 by a known method based on the image obtained by capturing the subject. Not limited to these, the distance measuring device 12 may measure the distance from the imaging position to the subject by any method.

ここで、コントローラ20が実行する処理について、図面を参照して詳細に説明する。 Here, the process executed by the controller 20 will be described in detail with reference to the drawings.

コントローラ20は、撮像部13によって撮像された、図3に示すような遠赤外画像に対象被写体16の像16imが含まれるか否かを判定する。コントローラ20は、遠赤外画像に対象被写体16の像16imが含まれると判定した場合、対象被写体16の像16imを抽出する。対象被写体16は、コントローラ20によって後述するように温度を推定する対象となる被写体である。 The controller 20 determines whether or not the image 16im of the target subject 16 is included in the far-infrared image as shown in FIG. 3 captured by the imaging unit 13. When the controller 20 determines that the far-infrared image includes the image 16im of the target subject 16, the controller 20 extracts the image 16im of the target subject 16. The target subject 16 is a subject whose temperature is estimated by the controller 20 as described later.

具体的には、コントローラ20は、遠赤外画像におけるエッジを検出し、該エッジによって囲まれる領域を抽出する。そして、コントローラ20は、該領域が所定の大きさ以上であるか否かを判定する。さらに、コントローラ20は、該領域が所定の大きさ以上である場合に、該領域に含まれる各画素の信号レベルの最大値と最小値との差が閾値以下であるか否かを判定する。コントローラ20は、差が閾値以下である領域がある場合、遠赤外画像に対象被写体16の像16imが含まれると判定する。コントローラ20は、遠赤外画像に対象被写体16の像16imが含まれると判定すると、該領域に表される像を対象被写体16の像16imとして抽出する。コントローラ20が、遠赤外画像において対象被写体16の像16imを抽出する方法は、これに限られず任意の方法であってよい。 Specifically, the controller 20 detects an edge in the far-infrared image and extracts a region surrounded by the edge. Then, the controller 20 determines whether or not the region has a predetermined size or more. Further, the controller 20 determines whether or not the difference between the maximum value and the minimum value of the signal level of each pixel included in the region is equal to or less than the threshold value when the region is equal to or larger than a predetermined size. The controller 20 determines that the far-infrared image includes the image 16im of the target subject 16 when there is a region where the difference is equal to or less than the threshold value. When the controller 20 determines that the far-infrared image includes the image 16im of the target subject 16, the controller 20 extracts the image represented in the region as the image 16im of the target subject 16. The method in which the controller 20 extracts the image 16im of the target subject 16 in the far-infrared image is not limited to this, and may be any method.

コントローラ20は、対象被写体16までの距離を算出するための情報を距離測定装置12から取得する。 The controller 20 acquires information for calculating the distance to the target subject 16 from the distance measuring device 12.

具体的には、コントローラ20は、遠赤外画像における対象被写体16の像16imの位置を判定する。コントローラ20は、出力部21に、距離測定装置12に該位置を出力させる。距離測定装置12は、出力部21によって出力された、遠赤外画像内での位置に基づいて、撮像位置から対象被写体16までの被写体距離D2を測定する。距離測定装置12は、測定された被写体距離D2を画像処理装置10に出力する。距離測定装置12によって被写体距離D2が出力されると、情報取得部18は、被写体距離D2を取得する。 Specifically, the controller 20 determines the position of the image 16im of the target subject 16 in the far infrared image. The controller 20 causes the output unit 21 to output the position to the distance measuring device 12. The distance measuring device 12 measures the subject distance D2 from the imaging position to the target subject 16 based on the position in the far infrared image output by the output unit 21. The distance measuring device 12 outputs the measured subject distance D2 to the image processing device 10. When the subject distance D2 is output by the distance measuring device 12, the information acquisition unit 18 acquires the subject distance D2.

コントローラ20は、距離測定装置12によって測定可能な範囲にある全ての物体までの距離を該距離測定装置12から取得してもよい。この場合、コントローラ20は、距離測定装置12が測定した各物体までの距離のうち、遠赤外画像における対象被写体16の像16imの位置に相当する実空間での位置ある物体までの距離を被写体距離D2として抽出する。 The controller 20 may acquire the distances to all the objects within the range measurable by the distance measuring device 12 from the distance measuring device 12. In this case, among the distances to each object measured by the distance measuring device 12, the controller 20 sets the distance to a certain object in the real space corresponding to the position of the image 16im of the target subject 16 in the far infrared image. Extracted as the distance D2.

コントローラ20は、被写体距離D2と、基準距離D1と、基準物体15の温度に関する情報と、対象被写体16の像16imにおける信号レベルと、基準物体15の撮像領域として予め定められている領域15imにおける信号レベルとに基づいて、対象被写体16の温度を推定する。温度に関する情報は、温度であってよい。温度に関する情報は、温度を換算することのできる任意の情報であってよい。以降において、温度に関する情報は、温度であるとして説明する。 The controller 20 includes information on the subject distance D2, the reference distance D1, the temperature of the reference object 15, the signal level in the image 16im of the target object 16, and the signal in the region 15im predetermined as the imaging region of the reference object 15. The temperature of the target subject 16 is estimated based on the level. The information about temperature may be temperature. The information about the temperature may be any information that can be converted into a temperature. Hereinafter, the information regarding temperature will be described as being temperature.

基準物体15および対象被写体16を含む被写体から放出された遠赤外光は、大気に吸収される。そのため、遠赤外光の強度は、該遠赤外光が伝播する距離が長くなるほど減衰する。具体的には、基準物体15から放出された遠赤外光の強度IA0、基準物体15から基準距離D1離れた撮像位置で撮像された遠赤外光の強度IA1、および大気による遠赤外光の吸収係数αには、式(1)に示す関係が成立する。上述したように、基準物体15は所定の放射率を有し、予め定められた温度に制御されている。そのため、遠赤外光の強度IA0は、既知の値であり、上述したように予めメモリ19に記憶されている。また、遠赤外光の強度IA1は、遠赤外画像内で基準物体15の撮像領域として予め定められている領域15imの信号レベルに対応する値である。また、基準距離D1は、上述したように撮像部13の撮像位置から基準物体15までの距離であり、上述したように予めメモリ19に記憶されている。 Far-infrared light emitted from a subject including the reference object 15 and the target subject 16 is absorbed by the atmosphere. Therefore, the intensity of the far-infrared light is attenuated as the distance through which the far-infrared light propagates increases. Specifically, the intensity I A0 of the far-infrared light emitted from the reference object 15, the intensity I A1 of the far-infrared light imaged at an imaging position at a reference distance D1 away from the reference object 15, and the far-infrared light due to the atmosphere. The relationship shown in Eq. (1) is established for the external light absorption coefficient α. As described above, the reference object 15 has a predetermined emissivity and is controlled to a predetermined temperature. Therefore, the intensity I A0 of the far-infrared light is a known value and is stored in the memory 19 in advance as described above. Further, the intensity I A1 of the far-infrared light is a value corresponding to a signal level of a region 15im predetermined as an imaging region of the reference object 15 in the far-infrared image. Further, the reference distance D1 is the distance from the imaging position of the imaging unit 13 to the reference object 15 as described above, and is stored in the memory 19 in advance as described above.

α=−(log10(IA1/IA0))/D1 式(1) α =-(log 10 ( IA1 / I A0 )) / D1 equation (1)

また、対象被写体16から放出された遠赤外光の強度IB0、対象被写体16から被写体距離D2離れた撮像位置で撮像された遠赤外光の強度IB1、及び大気による遠赤外光の吸収係数αには、式(2)に示す関係が成立する。遠赤外光の強度IB1は、遠赤外画像内で被写体の像における信号レベルに対応する値である。また、上述したように、被写体距離D2は、距離測定装置12によって測定されている。 Further, the intensity I B0 of the far-infrared light emitted from the target subject 16, the intensity I B1 of the far-infrared light captured at an imaging position separated from the target subject 16 by the subject distance D2, and the far-infrared light from the atmosphere. The relationship shown in Eq. (2) is established for the absorption coefficient α. The far-infrared light intensity I B1 is a value corresponding to the signal level in the image of the subject in the far-infrared image. Further, as described above, the subject distance D2 is measured by the distance measuring device 12.

α=−(log10(IB1/IB0))/D2 式(2) α =-(log 10 ( IB1 / I B0 )) / D2 equation (2)

したがって、対象被写体16から放出された遠赤外光の強度IB0は、式(3)によって導出される。 Therefore, the intensity I B0 of the far-infrared light emitted from the target subject 16 is derived by the equation (3).

Figure 0006927914
Figure 0006927914

コントローラ20は、対象被写体16から放出された遠赤外光の強度IB0を算出すると、強度IB0を温度に換算し、換算された温度を対象被写体16の温度と推定する。 When the controller 20 calculates the intensity I B0 of the far-infrared light emitted from the target subject 16, the intensity I B0 is converted into a temperature, and the converted temperature is estimated to be the temperature of the target subject 16.

コントローラ20は、対象被写体16の温度を推定すると、該温度に基づいて対象被写体16の種別を推定する。具体的には、コントローラ20は、対象被写体16の温度が所定範囲内であるか否かを判定する。所定範囲とは、人間の体温がとり得る範囲であり、例えば、35度から39度である。コントローラ20は、対象被写体16の温度が所定範囲にある場合、対象被写体16の種別が人間であると推定する。コントローラ20は、対象被写体16の温度が所定範囲にない場合、対象被写体16の種別が人間以外であると推定する。 When the controller 20 estimates the temperature of the target subject 16, the controller 20 estimates the type of the target subject 16 based on the temperature. Specifically, the controller 20 determines whether or not the temperature of the target subject 16 is within a predetermined range. The predetermined range is a range in which human body temperature can be taken, for example, 35 to 39 degrees. When the temperature of the target subject 16 is within a predetermined range, the controller 20 estimates that the type of the target subject 16 is a human being. When the temperature of the target subject 16 is not within the predetermined range, the controller 20 estimates that the type of the target subject 16 is other than human.

コントローラ20は、対象被写体16の温度が所定範囲にある場合、対象被写体16の種別ではなく、種別の候補が人間であると推定してもよい。この場合、コントローラ20は、対象被写体16の像16imの形状または挙動に基づいて、対象被写体16の種別が人間であるか否かを判定する。具体的には、コントローラ20は、種別の候補が人間であると推定された対象被写体16の像16imの形状が予め記憶されている形状と類似している場合、対象被写体16の種別が人間であると推定する。また、コントローラ20は、種別の候補が人間であると推定された対象被写体16の像16imの挙動によって対象被写体16の種別が人間であるか否かを推定してもよい。対象被写体16の像16imの挙動は、例えば、対象被写体16の像16imの形状が時間に伴って変化した履歴である。コントローラ20は、対象被写体16の像16imの挙動が予め記憶されている挙動と類似している場合、該対象被写体16の種別が人間であると判定してよい。なお、形状または挙動が類似しているか否かを判定する方法は、任意の方法であってよい。 When the temperature of the target subject 16 is within a predetermined range, the controller 20 may presume that the candidate for the type is not the type of the target subject 16 but a human being. In this case, the controller 20 determines whether or not the type of the target subject 16 is a human being based on the shape or behavior of the image 16im of the target subject 16. Specifically, when the shape of the image 16im of the target subject 16 whose type candidate is presumed to be a human is similar to the shape stored in advance, the controller 20 indicates that the type of the target subject 16 is a human. Presumed to be. Further, the controller 20 may estimate whether or not the type of the target subject 16 is a human based on the behavior of the image 16im of the target subject 16 whose type candidate is estimated to be a human. The behavior of the image 16im of the target subject 16 is, for example, a history in which the shape of the image 16im of the target subject 16 changes with time. When the behavior of the image 16im of the target subject 16 is similar to the behavior stored in advance, the controller 20 may determine that the type of the target subject 16 is a human being. The method for determining whether or not the shapes or behaviors are similar may be any method.

コントローラ20は、対象被写体16の種別を判定すると、該種別を移動体100に搭載されたディスプレイまたはECUに出力するよう出力部21を制御してもよい。コントローラ20は、該種別とともに被写体距離D2をディスプレイまたはECUに出力するよう出力部21を制御してもよい。 When the controller 20 determines the type of the target subject 16, the controller 20 may control the output unit 21 so as to output the type to the display or the ECU mounted on the moving body 100. The controller 20 may control the output unit 21 so as to output the subject distance D2 to the display or the ECU together with the type.

続いて、本実施形態の画像処理装置10の被写体種別推定処理について、図4を参照して説明する。画像処理装置10は、撮像部13から遠赤外画像を取得すると、被写体種別推定処理を開始する。 Subsequently, the subject type estimation process of the image processing device 10 of the present embodiment will be described with reference to FIG. When the image processing device 10 acquires a far-infrared image from the imaging unit 13, the image processing device 10 starts the subject type estimation process.

ステップS11では、コントローラ20は、画像取得部17によって取得された遠赤外画像に対象被写体16の像16imが含まれるか否かを判定する。コントローラ20が、遠赤外画像に対象被写体16の像16imが含まれると判定すると、プロセスは、ステップS12に進む。コントローラ20は、遠赤外画像に対象被写体16の像16imが含まれないと判定すると、被写体種別推定処理を終了する。 In step S11, the controller 20 determines whether or not the far-infrared image acquired by the image acquisition unit 17 includes the image 16im of the target subject 16. When the controller 20 determines that the far-infrared image includes the image 16im of the target subject 16, the process proceeds to step S12. When the controller 20 determines that the far-infrared image does not include the image 16im of the target subject 16, the controller 20 ends the subject type estimation process.

ステップS12では、コントローラ20は、画像取得部17によって取得された遠赤外画像において対象被写体16の像16imを抽出する。コントローラ20が対象被写体16の像を抽出すると、プロセスはステップS13に進む。 In step S12, the controller 20 extracts the image 16im of the target subject 16 from the far-infrared image acquired by the image acquisition unit 17. When the controller 20 extracts the image of the target subject 16, the process proceeds to step S13.

ステップS13では、コントローラ20は、遠赤外画像における対象被写体16の像16imの位置を判定する。コントローラ20が対象被写体16の像16imの位置を判定すると、プロセスはステップS14に進む。 In step S13, the controller 20 determines the position of the image 16im of the target subject 16 in the far infrared image. When the controller 20 determines the position of the image 16im of the target subject 16, the process proceeds to step S14.

ステップS14では、コントローラ20は、距離測定装置12が測定した被写体距離D2を対象被写体16の像16imの位置に基づいて取得する。コントローラ20が被写体距離D2を取得すると、プロセスはステップS15に進む。 In step S14, the controller 20 acquires the subject distance D2 measured by the distance measuring device 12 based on the position of the image 16im of the target subject 16. When the controller 20 acquires the subject distance D2, the process proceeds to step S15.

ステップS15では、コントローラ20は、被写体距離D2と、基準距離D1と、基準物体15の温度と、対象被写体16の像16imにおける信号レベルと、基準物体15の撮像領域として予め定められている領域15imにおける信号レベルとに基づいて、対象被写体16の温度を推定する。コントローラ20が対象被写体16の温度を推定すると、プロセスはステップS16に進む。 In step S15, the controller 20 determines the subject distance D2, the reference distance D1, the temperature of the reference object 15, the signal level in the image 16im of the target subject 16, and the region 15im predetermined as the imaging region of the reference object 15. The temperature of the target subject 16 is estimated based on the signal level in. When the controller 20 estimates the temperature of the target subject 16, the process proceeds to step S16.

ステップS16では、コントローラ20は、推定された対象被写体16の温度が所定範囲内にあるか否かを判定する。コントローラ20が、推定された対象被写体16の温度が所定範囲内であると判定すると、プロセスは、ステップS17に進む。コントローラ20が、推定された対象被写体16の温度が所定範囲内でないと判定すると、プロセスは、ステップS18に進む。 In step S16, the controller 20 determines whether or not the estimated temperature of the target subject 16 is within a predetermined range. When the controller 20 determines that the estimated temperature of the target subject 16 is within a predetermined range, the process proceeds to step S17. When the controller 20 determines that the estimated temperature of the target subject 16 is not within the predetermined range, the process proceeds to step S18.

ステップS17では、コントローラ20は、対象被写体16の種別が人間であると推定する。コントローラ20は、対象被写体16の種別が人間であると推定すると、被写体種別推定処理を終了する。 In step S17, the controller 20 estimates that the type of the target subject 16 is a human being. When the controller 20 estimates that the type of the target subject 16 is a human being, the controller 20 ends the subject type estimation process.

ステップS18では、コントローラ20は、対象被写体16の種別が人間でないと推定する。コントローラ20は、対象被写体16の種別が人間でないと推定すると、被写体種別推定処理を終了する。 In step S18, the controller 20 estimates that the type of the target subject 16 is not human. When the controller 20 estimates that the type of the target subject 16 is not human, the controller 20 ends the subject type estimation process.

以上説明したように、本実施形態によれば、画像処理装置10は、被写体距離D2と、基準距離D1と、基準物体15の温度と、対象被写体16の像16imにおける信号レベルと、基準物体15の撮像領域として予め定められている領域15imにおける信号レベルとに基づいて、対象被写体16の温度を推定する。このため、画像処理装置10は、基準物体15の温度と、遠赤外画像における撮像領域の信号レベルとから推定される遠赤外光の減衰の度合いを鑑みて対象被写体16の温度を推定することになる。したがって、画像処理装置10は、大気による遠赤外光の吸収率が変動しても、温度の推定における正確性を向上させうる。また、遠赤外光は、伝播する距離が長いほど多く吸収される。そのため、画像処理装置10は、撮像位置から基準距離D1にある基準物体15の温度に基づいて、被写体距離D2にある対象被写体16の温度を推定することによって、該温度の推定の正確性をより向上させうる。 As described above, according to the present embodiment, the image processing apparatus 10 includes the subject distance D2, the reference distance D1, the temperature of the reference object 15, the signal level in the image 16im of the target subject 16, and the reference object 15. The temperature of the target subject 16 is estimated based on the signal level in the region 15 im defined in advance as the imaging region of. Therefore, the image processing device 10 estimates the temperature of the target subject 16 in consideration of the degree of attenuation of the far-infrared light estimated from the temperature of the reference object 15 and the signal level of the imaging region in the far-infrared image. It will be. Therefore, the image processing device 10 can improve the accuracy in estimating the temperature even if the absorption rate of far-infrared light by the atmosphere fluctuates. Further, far-infrared light is absorbed more as the propagating distance becomes longer. Therefore, the image processing device 10 estimates the temperature of the target subject 16 at the subject distance D2 based on the temperature of the reference object 15 at the reference distance D1 from the imaging position, thereby improving the accuracy of the estimation of the temperature. Can be improved.

また、本実施形態によれば、基準物体15の温度は定められた温度である。これにより、画像処理装置10は、基準物体15の温度を計測するための機器を備えることなく、簡易な構成で対象被写体16の温度の測定の正確性を向上させうる。 Further, according to the present embodiment, the temperature of the reference object 15 is a predetermined temperature. As a result, the image processing device 10 can improve the accuracy of measuring the temperature of the target subject 16 with a simple configuration without providing a device for measuring the temperature of the reference object 15.

また、本実施形態によれば、画像処理装置10は、被写体の温度と、遠赤外画像における被写体の像の形状または挙動とに基づいて被写体の種別を推定する。具体的には、画像処理装置10は、遠赤外画像における被写体の像の形状または挙動に基づいて対象被写体16を抽出し、対象被写体16の温度に基づいて対象被写体16の種別を推定する。仮に、対象被写体16の像16imの形状または挙動のみに基づいて該対象被写体16の種別を推定する場合、形状または挙動が所定の種別のそれぞれ形状または挙動に類似しているが、温度が所定の種別について定められる範囲にない対象被写体16が所定の種別であると誤って推定される場合がある。例えば、対象被写体16の像16imは人間の形状に類似しているが、人間の取り得る範囲の温度でないマネキン等が人間であると誤って推定される場合がある。したがって、画像処理装置10は、対象被写体16の温度と、遠赤外画像における対象被写体16の像16imの形状または挙動とに基づいて被写体の種別を推定することによって、該種別の推定の正確性を向上させうる。 Further, according to the present embodiment, the image processing device 10 estimates the type of the subject based on the temperature of the subject and the shape or behavior of the image of the subject in the far-infrared image. Specifically, the image processing device 10 extracts the target subject 16 based on the shape or behavior of the image of the subject in the far infrared image, and estimates the type of the target subject 16 based on the temperature of the target subject 16. If the type of the target subject 16 is estimated based only on the shape or behavior of the image 16im of the target subject 16, the shape or behavior is similar to the shape or behavior of each of the predetermined types, but the temperature is predetermined. The target subject 16 that is not within the range defined for the type may be erroneously estimated to be of the predetermined type. For example, the image 16im of the target subject 16 resembles a human shape, but a mannequin or the like whose temperature is not within the range that a human can take may be erroneously presumed to be a human. Therefore, the image processing device 10 estimates the type of the subject based on the temperature of the target subject 16 and the shape or behavior of the image 16im of the target subject 16 in the far-infrared image, and thus the accuracy of the estimation of the type is estimated. Can be improved.

また、本実施形態によれば、画像処理装置10は、対象被写体16の種別が人間であるか否かを推定し、基準物体15の放射率は人間の放射率に等しい。仮に、基準物体15の放射率が人間の放射率と異なる場合、放射率の差異に起因して、基準物体15における温度と像の撮像領域の信号レベルとの関係は、対象被写体16における温度と信号レベルとの関係とは同じでないことがある。この場合、基準物体15における温度と像の撮像領域の信号レベルとの関係を鑑みても、対象被写体16の像の信号レベルに基づいて対象被写体16の温度は正確に推定されないことがある。これに対し、基準物体15の放射率が人間の放射率と等しいことによって、基準物体15における温度と像の撮像領域の信号レベルとの関係は、人間である対象被写体16における温度と像の信号レベルとの関係に適用される。したがって、画像処理装置10は、基準物体15における温度と像の撮像領域の信号レベルとの関係に基づいて対象被写体16の温度を推定することによって、温度の推定の正確性を向上させうる。 Further, according to the present embodiment, the image processing device 10 estimates whether or not the type of the target subject 16 is a human being, and the emissivity of the reference object 15 is equal to the emissivity of a human being. If the emissivity of the reference object 15 is different from the emissivity of a human being, the relationship between the temperature of the reference object 15 and the signal level in the imaging region of the image is the temperature of the target subject 16 due to the difference in emissivity. It may not be the same as the relationship with the signal level. In this case, the temperature of the target subject 16 may not be accurately estimated based on the signal level of the image of the target subject 16 even in consideration of the relationship between the temperature of the reference object 15 and the signal level of the imaging region of the image. On the other hand, since the emissivity of the reference object 15 is equal to the emissivity of a human being, the relationship between the temperature of the reference object 15 and the signal level of the imaging region of the image is the temperature of the target subject 16 which is a human being and the signal of the image. Applies to relationships with levels. Therefore, the image processing device 10 can improve the accuracy of the temperature estimation by estimating the temperature of the target subject 16 based on the relationship between the temperature of the reference object 15 and the signal level of the image pickup region of the image.

また、本実施形態によれば、基準物体15の温度は、体温の取り得る範囲に含まれる。被写体から放出される赤外光の波長の分布範囲は、該被写体の温度によって異なる。また、被写体から放出される赤外光のうち、最も強度の高い光の波長は該被写体の温度によって異なる。したがって、波長の分布範囲、および最も強度の高い波長が類似している赤外光を放出する基準物体15が適用されることによって、人間から放出される赤外光と基準物体15から放出する赤外光の特性が類似する。そのため、画像処理装置10は、被写体から放出される赤外光の強度を、人間と類似した特性を有する赤外光の強度と比較することによって、被写体が人間である場合の該被写体の温度の推定の正確性を向上させうる。したがって、画像処理装置10は、温度の推定の正確性を向上することによって、被写体の種別の推定の正確性を向上させうる。 Further, according to the present embodiment, the temperature of the reference object 15 is included in the range in which the body temperature can be taken. The distribution range of the wavelength of infrared light emitted from the subject varies depending on the temperature of the subject. Further, among the infrared light emitted from the subject, the wavelength of the light having the highest intensity differs depending on the temperature of the subject. Therefore, by applying the reference object 15 that emits infrared light having a similar wavelength distribution range and the highest wavelength, the infrared light emitted from humans and the red emitted from the reference object 15 are applied. The characteristics of outside light are similar. Therefore, the image processing device 10 compares the intensity of the infrared light emitted from the subject with the intensity of the infrared light having characteristics similar to those of a human being, so that the temperature of the subject when the subject is a human can be adjusted. The accuracy of the estimation can be improved. Therefore, the image processing device 10 can improve the accuracy of the estimation of the type of the subject by improving the accuracy of the temperature estimation.

本実施形態は代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限されるものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形または変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the present embodiment has been described as a representative example, it will be apparent to those skilled in the art that many modifications and substitutions can be made within the spirit and scope of the present invention. Therefore, the present invention should not be construed as being limited by the embodiments described above, and various modifications or modifications can be made without departing from the claims. For example, it is possible to combine the plurality of constituent blocks described in the embodiments and examples into one, or to divide one constituent block into one.

上述の実施形態において、撮像装置11と距離測定装置12とが別体である構成を説明したが、撮像装置11と距離測定装置12とが一体として構成されてよい。撮像装置11は、内部に距離測定装置12を備えてもよい。 In the above-described embodiment, the configuration in which the image pickup device 11 and the distance measurement device 12 are separate bodies has been described, but the image pickup device 11 and the distance measurement device 12 may be integrally configured. The image pickup device 11 may include a distance measuring device 12 inside.

上述の実施形態において、撮像装置11が撮像部13と画像処理装置10とを備える構成を説明し、図1において撮像部13と画像処理装置10とは別体に構成されている例を示したが、これに限らない。例えば、撮像部13と画像処理装置10とは一体に構成されてもよい。 In the above-described embodiment, the configuration in which the imaging device 11 includes the imaging unit 13 and the image processing device 10 has been described, and an example in which the imaging unit 13 and the image processing device 10 are separately configured is shown in FIG. However, it is not limited to this. For example, the image pickup unit 13 and the image processing device 10 may be integrally configured.

上述の実施形態において、複数の基準物体15が、移動体100における、撮像部13の撮像範囲に取り付けられてもよい。この場合、複数の基準物体15は、人間が取り得る温度範囲における互いに異なる温度に定められてよい。例えば、複数の基準物体15のうちの第1基準物体の温度は、例えば該温度範囲の最高温度に定められてよい。第2基準物体の温度は、例えば該温度範囲の最低温度に定められてよい。このような構成において、コントローラ20は、第1基準物体および第2基準物体の両方に基づいて、対象被写体16の温度を推定してもよい。 In the above-described embodiment, the plurality of reference objects 15 may be attached to the imaging range of the imaging unit 13 in the moving body 100. In this case, the plurality of reference objects 15 may be set to different temperatures in a human-possible temperature range. For example, the temperature of the first reference object among the plurality of reference objects 15 may be set to, for example, the maximum temperature in the temperature range. The temperature of the second reference object may be set to, for example, the lowest temperature in the temperature range. In such a configuration, the controller 20 may estimate the temperature of the target subject 16 based on both the first reference object and the second reference object.

例えば、コントローラ20は、第1基準物体および第2基準物体それぞれの撮像領域として予め定められている領域の信号レベルの平均値を算出する。そして、コントローラ20は、算出した信号レベルの平均値に対応する強度に基づいて、上述の式(1)および式(2)を用いて、対象被写体16の温度を推定する。 For example, the controller 20 calculates the average value of the signal levels of the regions predetermined as the imaging regions of the first reference object and the second reference object. Then, the controller 20 estimates the temperature of the target subject 16 by using the above equations (1) and (2) based on the intensity corresponding to the calculated average value of the signal levels.

また、例えば、コントローラ20は、第1基準物体および第2基準物体に基づいて、上述の式(1)を用いてそれぞれ放射率αを算出してもよい。そして、コントローラ20は、それぞれ算出された放射率αの平均値に基づいて、上述の式(2)を用いて対象被写体16から放出された赤外光の強度IB1を算出し、強度IB1を換算することによって対象被写体16の温度を推定してもよい。 Further, for example, the controller 20 may calculate the emissivity α using the above equation (1) based on the first reference object and the second reference object, respectively. Then, the controller 20 calculates the intensity I B1 of the infrared light emitted from the target subject 16 using the above equation (2) based on the average value of the emissivity α calculated respectively, and the intensity I B1 The temperature of the target subject 16 may be estimated by converting.

また、例えば、コントローラ20は、第1基準物体の温度と、遠赤外画像内で第1基準物体の撮像領域として予め定められている領域における信号レベルと、撮像位置から第1基準物体までの距離に基づいて、上述と同様に対象被写体16の温度を推定する。さらに、コントローラ20は、第2基準物体の温度と、遠赤外画像内で第2基準物体の撮像領域として予め定められている領域における信号レベルと、撮像位置から第2基準物体までの距離に基づいて、上述と同様に対象被写体16の温度を推定する。そして、コントローラ20は、第1基準物体に基づいて推定された温度と第2基準物体に基づいて推定された温度とに基づいて対象被写体16の温度を推定してもよい。例えば、コントローラ20は、第1基準物体に基づいて推定された温度と第2基準物体に基づいて推定された温度との平均温度を対象被写体16の温度としてもよい。 Further, for example, the controller 20 has the temperature of the first reference object, the signal level in a region predetermined as the imaging region of the first reference object in the far infrared image, and the distance from the imaging position to the first reference object. Based on the distance, the temperature of the target subject 16 is estimated in the same manner as described above. Further, the controller 20 determines the temperature of the second reference object, the signal level in a region predetermined as the imaging region of the second reference object in the far infrared image, and the distance from the imaging position to the second reference object. Based on this, the temperature of the target subject 16 is estimated in the same manner as described above. Then, the controller 20 may estimate the temperature of the target subject 16 based on the temperature estimated based on the first reference object and the temperature estimated based on the second reference object. For example, the controller 20 may use the average temperature of the temperature estimated based on the first reference object and the temperature estimated based on the second reference object as the temperature of the target subject 16.

上述の実施形態において、被写体種別推定システム1は距離測定装置12を備えるが、これに限らない。例えば、被写体種別推定システム1は、距離測定装置12を備えず、画像処理装置10のコントローラ20が、画像取得部17によって取得された遠赤外画像に基づいて、公知の方法により被写体距離D2を算出してもよい。この場合、コントローラ20は、遠赤外画像に基づいて算出された被写体距離D2を用いて、対象被写体16の温度を推定してもよい。この場合、被写体種別推定システム1は、距離測定装置12を備える必要がなく、簡易な構成により対象被写体16の温度を推定しうる。 In the above-described embodiment, the subject type estimation system 1 includes, but is not limited to, the distance measuring device 12. For example, the subject type estimation system 1 does not include the distance measuring device 12, and the controller 20 of the image processing device 10 sets the subject distance D2 by a known method based on the far infrared image acquired by the image acquisition unit 17. It may be calculated. In this case, the controller 20 may estimate the temperature of the target subject 16 by using the subject distance D2 calculated based on the far-infrared image. In this case, the subject type estimation system 1 does not need to include the distance measuring device 12, and can estimate the temperature of the target subject 16 with a simple configuration.

上述の実施形態において、温度に関する情報は遠赤外光の強度IB0であってもよい。この場合、コントローラ20は、対象被写体16から放出された遠赤外光の強度IB0に基づいて対象被写体16の種別を推定してもよい。具体的には、コントローラ20は、強度IB0が所定範囲にあるか否かを判定する。所定範囲とは、人間から放出されうる遠赤外光の強度の範囲である。コントローラ20は、強度IB0が所定範囲にある場合、対象被写体16の種別が人間であると推定する。コントローラ20は、強度IB0が所定範囲にない場合、対象被写体16の種別が人間でないと推定する。 In the above-described embodiment, the information regarding the temperature may be the intensity I B0 of far-infrared light. In this case, the controller 20 may estimate the type of the target subject 16 based on the intensity I B0 of the far infrared light emitted from the target subject 16. Specifically, the controller 20 determines whether or not the intensity I B0 is within a predetermined range. The predetermined range is the range of the intensity of far-infrared light that can be emitted from humans. The controller 20 estimates that the type of the target subject 16 is a human when the intensity I B0 is within a predetermined range. The controller 20 estimates that the type of the target subject 16 is not human when the intensity I B0 is not within the predetermined range.

上述の実施形態において、メモリ19は、基準物体15から放出された遠赤外光の強度IA0を記憶するが、これに限られない。例えば、メモリ19は、基準物体15の温度を記憶してもよい。この場合、コントローラ20は、メモリ19に記憶されている基準物体15の温度を遠赤外光の強度IA0に換算する。そして、コントローラ20は、換算された強度IA0に基づいて、対象被写体16の温度を推定する。 In the above-described embodiment, the memory 19 stores, but is not limited to, the intensity I A0 of the far-infrared light emitted from the reference object 15. For example, the memory 19 may store the temperature of the reference object 15. In this case, the controller 20 converts the temperature of the reference object 15 stored in the memory 19 into the intensity I A0 of the far infrared light. Then, the controller 20 estimates the temperature of the target subject 16 based on the converted intensity I A0.

上述の実施形態において、コントローラ20は、遠赤外画像のエッジ、ならびに該エッジに囲まれる領域の大きさおよび信号レベルに基づいて対象被写体16の像16imを抽出したが、この限りではない。コントローラ20は、上述のように抽出された被写体の中から、さらにエッジに囲まれる領域の形状または挙動に基づいて、対象被写体16の像16imを抽出してもよい。 In the above-described embodiment, the controller 20 extracts the image 16im of the target subject 16 based on the edge of the far-infrared image and the size and signal level of the region surrounded by the edge, but the present invention is not limited to this. The controller 20 may extract an image 16im of the target subject 16 from the subjects extracted as described above based on the shape or behavior of the region surrounded by the edges.

上述の実施形態において、コントローラ20は、対象被写体16の種別が人間であるか否かを判定したかを判定したがこの限りではない。例えば、コントローラ20は、対象被写体16の種別が人間ではない所定の物体であるか否かを判定してよい。この場合、コントローラ20は、推定された対象被写体16の温度が該物体の取り得る温度範囲内であるか否かを判定する。また、基準物体15は、該物体の温度が取り得る範囲に制御されてよい。また、基準物体15の放射率は該物体の放射率が取り得る範囲であってよい。 In the above-described embodiment, the controller 20 determines whether or not the type of the target subject 16 is a human being, but this is not the case. For example, the controller 20 may determine whether or not the type of the target subject 16 is a predetermined object that is not a human being. In this case, the controller 20 determines whether or not the estimated temperature of the target subject 16 is within the temperature range that the object can take. Further, the reference object 15 may be controlled within a range in which the temperature of the object can be taken. Further, the emissivity of the reference object 15 may be in the range that the emissivity of the object can take.

1 被写体種別推定システム
10 画像処理装置
11 撮像装置
12 距離測定装置
13 撮像部
15 基準物体
16 対象被写体
17 画像取得部
18 情報取得部
19 メモリ
20 コントローラ
21 出力部
100 移動体
1 Subject type estimation system 10 Image processing device 11 Imaging device 12 Distance measuring device 13 Imaging unit 15 Reference object 16 Target subject 17 Image acquisition unit 18 Information acquisition unit 19 Memory 20 Controller 21 Output unit 100 Mobile object

Claims (9)

遠赤外画像を取得する画像取得部と、
前記遠赤外画像の撮像位置から該遠赤外画像に像として含まれる被写体までの被写体距離と、予め定められている基準距離と、前記撮像位置から前記基準距離離れた位置に固定されている所定の放射率を有する基準物体の温度に関する情報と、前記遠赤外画像内の前記被写体の像における信号レベルと、前記遠赤外画像内で前記基準物体の撮像領域として予め定められている領域における信号レベルとに基づいて、前記被写体の温度に関する情報を推定するコントローラと、を備える
画像処理装置。
An image acquisition unit that acquires far-infrared images,
The subject distance from the imaging position of the far-infrared image to the subject included as an image in the far-infrared image, a predetermined reference distance, and a position separated from the imaging position by the reference distance are fixed. Information about the temperature of a reference object having a predetermined radiation coefficient, a signal level in the image of the subject in the far-infrared image, and a region predetermined as an imaging region of the reference object in the far-infrared image. An image processing device comprising a controller that estimates information about the temperature of the subject based on the signal level in.
請求項1に記載の画像処理装置において、
前記被写体距離を算出するための情報を取得する情報取得部を更に備える
画像処理装置。
In the image processing apparatus according to claim 1,
An image processing device further including an information acquisition unit that acquires information for calculating the subject distance.
請求項1に記載の画像処理装置において、
前記被写体の距離は前記遠赤外画像に基づいて算出される
画像処理装置。
In the image processing apparatus according to claim 1,
An image processing device that calculates the distance of the subject based on the far-infrared image.
請求項1から3のいずれか一項に記載の画像処理装置において、
前記基準物体の温度は定められた温度である
画像処理装置。
In the image processing apparatus according to any one of claims 1 to 3,
An image processing device in which the temperature of the reference object is a predetermined temperature.
請求項4に記載の画像処理装置において、
前記コントローラは、前記被写体の種別が人間であるか否かを推定し、
前記定められた温度は、前記人間の体温が取り得る範囲内である
画像処理装置。
In the image processing apparatus according to claim 4,
The controller estimates whether or not the subject type is human, and
An image processing device in which the defined temperature is within a range that the human body temperature can take.
請求項1から5のいずれか一項に記載の画像処理装置において、
前記コントローラは、前記被写体の温度に関する情報と、前記遠赤外画像における前記被写体の像の形状または挙動とに基づいて、前記被写体の種別を推定する
画像処理装置。
In the image processing apparatus according to any one of claims 1 to 5,
The controller is an image processing device that estimates the type of the subject based on the information on the temperature of the subject and the shape or behavior of the image of the subject in the far-infrared image.
請求項6に記載の画像処理装置において、
前記コントローラは、前記被写体の前記種別が人間であるか否かを推定し、前記基準物体の放射率は前記人間が取り得る放射率の範囲内である
画像処理装置。
In the image processing apparatus according to claim 6,
The controller is an image processing device that estimates whether or not the type of the subject is a human, and the emissivity of the reference object is within the range of the emissivity that the human can take.
遠赤外光を撮像した遠赤外画像を生成する撮像部と、
前記遠赤外画像の撮像位置から該遠赤外画像に像として含まれる被写体までの被写体距離と、予め定められている基準距離と、前記撮像位置から前記基準距離離れた位置に固定されている所定の放射率を有する基準物体の温度に関する情報と、前記遠赤外画像における前記被写体の像における信号レベルと、前記遠赤外画像内で前記基準物体の撮像領域として予め定められている領域における信号レベルとに基づいて、前記被写体の温度に関する情報を推定するコントローラと、を含む
画像処理装置を備える
撮像装置。
An imaging unit that generates a far-infrared image that captures far-infrared light,
The subject distance from the imaging position of the far-infrared image to the subject included as an image in the far-infrared image, a predetermined reference distance, and a position separated from the imaging position by the reference distance are fixed. Information about the temperature of a reference object having a predetermined radiation coefficient, a signal level in the image of the subject in the far-infrared image, and a region predetermined as an imaging region of the reference object in the far-infrared image. An image pickup apparatus comprising an image processing apparatus including a controller that estimates information about the temperature of the subject based on a signal level.
遠赤外光を撮像した遠赤外画像を生成する撮像部と、前記遠赤外画像の撮像位置から該遠赤外画像に像として含まれる被写体までの被写体距離と、予め定められている基準距離と、前記撮像位置から前記基準距離離れた位置に固定されている所定の放射率を有する基準物体の温度に関する情報と、前記遠赤外画像における前記被写体の像における信号レベルと、前記遠赤外画像内で前記基準物体の撮像領域として予め定められている領域における信号レベルとに基づいて、前記被写体の温度に関する情報を推定するコントローラと、を含む画像処理装置を備える
移動体。
An imaging unit that generates a far-infrared image that captures far-infrared light, a subject distance from the imaging position of the far-infrared image to a subject included as an image in the far-infrared image, and a predetermined reference. Information on the distance, the temperature of a reference object having a predetermined radiation rate fixed at a position separated from the imaging position by the reference distance, the signal level in the image of the subject in the far infrared image, and the far red. A moving body including an image processing device including a controller that estimates information about the temperature of the subject based on a signal level in a region predetermined as an imaging region of the reference object in an external image.
JP2018063194A 2018-03-28 2018-03-28 Image processing equipment, imaging equipment, and moving objects Active JP6927914B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018063194A JP6927914B2 (en) 2018-03-28 2018-03-28 Image processing equipment, imaging equipment, and moving objects
JP2021129305A JP2021183974A (en) 2018-03-28 2021-08-05 Subject type determination device and movable body
JP2023048952A JP2023095847A (en) 2018-03-28 2023-03-24 system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018063194A JP6927914B2 (en) 2018-03-28 2018-03-28 Image processing equipment, imaging equipment, and moving objects

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021129305A Division JP2021183974A (en) 2018-03-28 2021-08-05 Subject type determination device and movable body

Publications (2)

Publication Number Publication Date
JP2019174299A JP2019174299A (en) 2019-10-10
JP6927914B2 true JP6927914B2 (en) 2021-09-01

Family

ID=68168720

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018063194A Active JP6927914B2 (en) 2018-03-28 2018-03-28 Image processing equipment, imaging equipment, and moving objects
JP2021129305A Pending JP2021183974A (en) 2018-03-28 2021-08-05 Subject type determination device and movable body
JP2023048952A Pending JP2023095847A (en) 2018-03-28 2023-03-24 system

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021129305A Pending JP2021183974A (en) 2018-03-28 2021-08-05 Subject type determination device and movable body
JP2023048952A Pending JP2023095847A (en) 2018-03-28 2023-03-24 system

Country Status (1)

Country Link
JP (3) JP6927914B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7260935B2 (en) * 2021-01-28 2023-04-19 国立研究開発法人農業・食品産業技術総合研究機構 ANTI-AIR SIGN, THERMAL IMAGING DEVICE, THERMAL IMAGING METHOD, AND PROGRAM

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06109549A (en) * 1992-09-24 1994-04-19 Mitsubishi Electric Corp Infrared imaging system
JP2001349786A (en) * 2000-06-06 2001-12-21 Denso Corp Calibration method for non-contact temperature sensor
EP1618740A2 (en) * 2003-04-25 2006-01-25 Land Instruments International Limited Thermal imaging system and method
JP2006113025A (en) * 2004-10-18 2006-04-27 Calsonic Kansei Corp Temperature measuring device of vehicle
JP5314260B2 (en) * 2007-08-31 2013-10-16 株式会社豊田中央研究所 Detection system, detected object estimation system, obstacle estimation system, safe driving system, and physical quantity detection method
JP2009150842A (en) * 2007-12-21 2009-07-09 Sumitomo Electric Ind Ltd Temperature measuring device and vehicle
US8101905B2 (en) * 2008-09-04 2012-01-24 The Boeing Company Infrared sensor calibration system and method
JP2010265535A (en) * 2009-05-18 2010-11-25 Nippon Steel Corp Heating furnace and heating method
JP2011107952A (en) * 2009-11-17 2011-06-02 Honda Motor Co Ltd Vehicle surroundings monitoring device
JP5503730B2 (en) * 2010-03-17 2014-05-28 本田技研工業株式会社 Vehicle periphery monitoring device
EP2653843A4 (en) * 2010-12-13 2017-09-06 National Institute of Advanced Industrial Science And Technology Method and system for measuring surface temperature
JP2013019822A (en) * 2011-07-13 2013-01-31 Tokyo Electric Power Co Inc:The System and method for measuring temperature of electrical equipment
JP6777428B2 (en) * 2016-06-02 2020-10-28 アズビル株式会社 Temperature measuring device

Also Published As

Publication number Publication date
JP2021183974A (en) 2021-12-02
JP2023095847A (en) 2023-07-06
JP2019174299A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP6942712B2 (en) Detection of partially obstructed objects using context and depth order
CN107144839B (en) Detecting long objects by sensor fusion
JP7351139B2 (en) sensing device
US11427193B2 (en) Methods and systems for providing depth maps with confidence estimates
US20200167941A1 (en) Systems and methods for enhanced distance estimation by a mono-camera using radar and motion data
EP3252712B1 (en) Vision system and method for a motor vehicle
US20180304898A1 (en) Road surface state determination apparatus, imaging apparatus, imaging system, and road surface state determination method
JP2014215877A (en) Object detection device
US11165932B2 (en) Imaging apparatus, imaging system, vehicle and foreign matter determination method
JP2012228916A (en) Onboard camera system
CN109891262A (en) Object detection device
US9398227B2 (en) System and method for estimating daytime visibility
EP3690393B1 (en) Information processing device, information processing method, control device, and image processing device
WO2011158306A1 (en) System for classification of road surface reflectances
JP2023095847A (en) system
JP7448484B2 (en) Online evaluation of camera internal parameters
WO2021069503A1 (en) Multi-sensory measuring system and method for transportation vehicle operating systems
US10904409B2 (en) Detection apparatus, imaging apparatus, moveable body, and detection method
EP3627448A1 (en) Vision system and method for a motor vehicle
EP3336748B1 (en) Detection of heavy rain by temporally measuring blur from edges
WO2016079117A1 (en) Gradient detection based on perspective-transformed image
US20220402494A1 (en) A method for evaluating a minimum breaking distance of a vehicle and vehicle
EP3540643A1 (en) Image processing apparatus and image processing method
KR102583256B1 (en) Method and system for providing confidence estimates to depth maps
JP6429101B2 (en) Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150