JP2013041481A - Image processing device, image processing system, camera and camera system - Google Patents

Image processing device, image processing system, camera and camera system Download PDF

Info

Publication number
JP2013041481A
JP2013041481A JP2011178705A JP2011178705A JP2013041481A JP 2013041481 A JP2013041481 A JP 2013041481A JP 2011178705 A JP2011178705 A JP 2011178705A JP 2011178705 A JP2011178705 A JP 2011178705A JP 2013041481 A JP2013041481 A JP 2013041481A
Authority
JP
Japan
Prior art keywords
image
area
pixel density
image data
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011178705A
Other languages
Japanese (ja)
Inventor
Masahiro Takeuchi
正浩 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011178705A priority Critical patent/JP2013041481A/en
Publication of JP2013041481A publication Critical patent/JP2013041481A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of efficiently detecting an object, and further to provide an image processing system, a camera, a camera system or the like.SOLUTION: An image processing device 100 includes: an image acquiring section 110 for acquiring infrared image data; a region setting section 120 for setting boundary lines that divide an image region into a plurality of regions with respect to the image region on the basis of the infrared image data acquired by the image acquiring section 110 and for setting at least one region out of the plurality of regions divided by the boundary lines to a pixel density changing region ARMD; and a processing section that performs a process for reducing pixel density of the infrared image data of the pixel density changing region ARMD, performs a detection process of an object on the basis of the infrared image data of the image region including the pixel density changing region ARMD and generates image data for display on the basis of a result of the detection process.

Description

本発明は、画像処理装置、画像処理システム、カメラ及びカメラシステム等に関する。   The present invention relates to an image processing apparatus, an image processing system, a camera, a camera system, and the like.

ドライバーにとって車外からの視覚情報は運転操作上きわめて重要である。しかしながら、夜間の低照度環境や対向車のライトのような強力な光源の存在によって眩惑されるような環境で運転しなければならない場合も多い。このような肉眼での視認性が悪い環境では、注意深いドライバーにとっても自車に接近する歩行者などの対象物の発見が遅れがちである。   Visual information from outside the vehicle is extremely important for the driver for driving. However, it is often necessary to drive in an environment that is dazzled by a low-light environment at night or the presence of a powerful light source such as a light from an oncoming vehicle. In such an environment with poor visibility with the naked eye, even a careful driver tends to delay the discovery of objects such as pedestrians approaching the vehicle.

このようなドライバー側の生理学的な問題をカバーするための技術として、赤外線カメラ及び可視カメラにより得られた画像から歩行者等を検出し、画像を加工して表示する手法が、特許文献1に開示されている。   Patent Document 1 discloses a technique for detecting pedestrians and the like from images obtained by an infrared camera and a visible camera, and processing and displaying the images as a technique for covering such physiological problems on the driver side. It is disclosed.

しかしながらこの手法では、対象物を検出するための検出処理の演算処理負荷が大きくなるために、検出時間が長くなる、検出装置が高価になるなどの問題がある。   However, this method has a problem that the calculation processing load of the detection process for detecting the target object increases, so that the detection time becomes longer and the detection device becomes expensive.

特開2008−236349号公報JP 2008-236349 A

本発明の幾つかの態様によれば、対象物を効率良く検出することができる画像処理装置、画像処理システム、カメラ及びカメラシステム等を提供できる。   According to some aspects of the present invention, an image processing apparatus, an image processing system, a camera, a camera system, and the like that can efficiently detect an object can be provided.

本発明の一態様は、赤外線画像データを取得する画像取得部と、前記画像取得部により取得された前記赤外線画像データに基づく画像領域に対して、前記画像領域を複数の領域に分割する境界線を設定し、前記境界線によって分割された複数の領域のうちの少なくとも1つの領域を画素密度変更領域に設定する領域設定部と、前記画素密度変更領域の前記赤外線画像データの画素密度を低減する処理を行い、前記画素密度変更領域を含む前記画像領域の前記赤外線画像データに基づいて対象物の検出処理を行い、前記検出処理の結果に基づいて表示用画像データを生成する処理部とを含む画像処理装置に関係する。   One aspect of the present invention is an image acquisition unit that acquires infrared image data, and a boundary line that divides the image region into a plurality of regions with respect to an image region based on the infrared image data acquired by the image acquisition unit. And setting an area setting unit that sets at least one of a plurality of areas divided by the boundary line as a pixel density change area, and reducing the pixel density of the infrared image data in the pixel density change area A processing unit that performs processing, performs detection processing of an object based on the infrared image data of the image region including the pixel density change region, and generates display image data based on a result of the detection processing. It relates to an image processing apparatus.

本発明の一態様によれば、赤外線画像データ基づく画像領域に対して、例えば歩行者などの対象物が存在する可能性の低い領域を画素密度変更領域に設定し、その領域の赤外線画像データの画素密度を低減することができる。こうすることで、対象物の検出能力などを低下させずに、検出処理にかかる演算処理負担を低減することができる。その結果、検出時間を短縮したり、処理部の構成を簡素にすることなどが可能になり、効率の良い画像処理装置を実現することなどが可能になる。   According to one aspect of the present invention, for an image area based on infrared image data, an area where there is a low possibility that an object such as a pedestrian is present is set as a pixel density change area, and infrared image data of the area is Pixel density can be reduced. By doing so, it is possible to reduce the calculation processing burden for the detection processing without reducing the detection capability of the object. As a result, the detection time can be reduced, the configuration of the processing unit can be simplified, and an efficient image processing apparatus can be realized.

また本発明の一態様では、前記領域設定部は、前記画像領域における位置及び形状のうちの少なくとも1つが可変に設定される前記境界線を用いて前記画像領域を区画する設定パターンを決定し、決定された前記設定パターンにおいて前記境界線の前記画像領域における位置及び形状のうちの少なくとも1つを定めてもよい。   In one aspect of the present invention, the region setting unit determines a setting pattern that divides the image region using the boundary line in which at least one of a position and a shape in the image region is variably set, In the determined setting pattern, at least one of the position and shape of the boundary line in the image area may be determined.

このようにすれば、領域設定部は、決定された設定パターンにおいて境界線の画像領域における位置及び形状のうちの少なくとも1つを可変に設定することができるから、例えば車両の走行状況などに応じて適切な画素密度変更領域を設定することができる。   In this way, the area setting unit can variably set at least one of the position and the shape of the boundary line in the image area in the determined setting pattern. Therefore, an appropriate pixel density change region can be set.

また本発明の一態様では、前記領域設定部は、前記画像領域を分割する前記境界線を用いて前記画像領域を区画する第1の設定パターンを決定可能に備え、決定された前記設定パターンが前記第1の設定パターンである場合には、前記境界線により分割された画像領域のうち、一方の画像領域を前記画素密度変更領域に設定してもよい。   In the aspect of the invention, the area setting unit may be configured to determine a first setting pattern that divides the image area using the boundary line that divides the image area, and the determined setting pattern includes the determined setting pattern. In the case of the first setting pattern, one of the image areas divided by the boundary line may be set as the pixel density change area.

このようにすれば、例えば郊外の道路のように、車両が比較的スムーズに走行している状況などでは、第1の設定パターンにより画像領域を分割することで、対象物が存在する可能性が低い境界線の下側の画像領域を画素密度変更領域に設定することができる。その結果、対象物の検出能力等を低下させずに、検出処理にかかる演算処理負担を低減することができる。   In this way, for example, in a situation where the vehicle is traveling relatively smoothly, such as a suburban road, there is a possibility that the object is present by dividing the image area by the first setting pattern. The image area below the low boundary line can be set as the pixel density change area. As a result, it is possible to reduce the calculation processing load for the detection process without reducing the detection capability of the object.

また本発明の一態様では、前記領域設定部は、前記画像領域を3分割し互いに交差しない2本の前記境界線を用いて前記画像領域を区画する第2の設定パターンを決定可能に備え、決定された前記設定パターンが前記第2の設定パターンである場合には、前記境界線により3分割された画像領域のうち、前記2本の境界線で挟まれる画像領域を前記画素密度変更領域に設定してもよい。   Moreover, in one aspect of the present invention, the area setting unit includes a second setting pattern that divides the image area using two boundary lines that are divided into three and do not intersect with each other. When the determined setting pattern is the second setting pattern, an image area sandwiched between the two boundary lines among the image areas divided into three by the boundary line is set as the pixel density change area. It may be set.

このようにすれば、例えば車両が市街地の道路を走行している状況などでは、第2の設定パターンにより画像領域を3分割することで、対象物が存在する可能性が低い2本の境界線で挟まれる画像領域を画素密度変更領域に設定することができる。その結果、対象物の検出能力等を低下させずに、検出処理にかかる演算処理負担を低減することができる。   In this way, for example, in a situation where the vehicle is traveling on an urban road, two boundary lines that are less likely to be present by dividing the image area into three by the second setting pattern. The image area sandwiched between the pixels can be set as a pixel density change area. As a result, it is possible to reduce the calculation processing load for the detection process without reducing the detection capability of the object.

また本発明の一態様では、前記領域設定部は、前記画像領域において一部の領域を囲む閉曲線を前記境界線として用いて前記画像領域を区画する第3の設定パターンを決定可能に備え、決定された前記設定パターンが前記第3の設定パターンである場合には、前記閉曲線の外側の前記画像領域を前記画素密度変更領域に設定してもよい。   In the aspect of the invention, the region setting unit may be configured to determine a third setting pattern that divides the image region using a closed curve surrounding a part of the image region as the boundary line. When the set pattern that has been set is the third set pattern, the image area outside the closed curve may be set as the pixel density change area.

このようにすれば、例えば山間部のように、車両が交通量の少ない道路を走行している状況などでは、第3の設定パターンにより閉曲線で画像領域を区画し、対象物が存在する可能性が低い閉曲線の外側の画像領域を画素密度変更領域に設定することができる。その結果、対象物の検出能力等を低下させずに、検出処理にかかる演算処理負担を低減することができる。   In this case, for example, in a situation where the vehicle is traveling on a road with a small amount of traffic such as a mountainous area, the image area may be partitioned with a closed curve by the third setting pattern, and the object may exist. The image area outside the closed curve with a low can be set as the pixel density change area. As a result, it is possible to reduce the calculation processing load for the detection process without reducing the detection capability of the object.

また本発明の一態様では、前記表示用画像データは、前記検出処理の結果に基づくアラート表示を含んでもよい。   In the aspect of the invention, the display image data may include an alert display based on the result of the detection process.

このようにすれば、視認性の良いアラート記号を表示することで、ドライバーの危険予知を容易にすることができる。   In this way, it is possible to easily predict the danger of the driver by displaying a highly visible alert symbol.

また本発明の一態様では、前記赤外線画像データは、車両の外部領域の赤外線画像の画像データであり、前記領域設定部は、前記車両の走行状況情報に基づいて、前記設定パターンを決定し、決定された前記設定パターンにおいて前記境界線の前記画像領域における位置及び形状のうちの少なくとも1つを定めてもよい。   Moreover, in one aspect of the present invention, the infrared image data is image data of an infrared image of an external area of a vehicle, and the area setting unit determines the setting pattern based on traveling state information of the vehicle, In the determined setting pattern, at least one of the position and shape of the boundary line in the image area may be determined.

このようにすれば、領域設定部は、車両の走行状況に基づいて画素密度変更領域を設定することができるから、例えば車両の速度などに応じて歩行者等の対象物が存在する可能性が高い領域を除いた画像領域を画素密度変更領域として設定することなどが可能になる。   In this way, since the area setting unit can set the pixel density change area based on the traveling state of the vehicle, there is a possibility that an object such as a pedestrian exists depending on the speed of the vehicle, for example. An image area excluding a high area can be set as a pixel density change area.

また本発明の一態様では、前記車両の走行状況情報は、前記車両の速度情報であってもよい。   In the aspect of the invention, the traveling state information of the vehicle may be speed information of the vehicle.

このようにすれば、例えば車両速度が速いほど、より遠方の対象物を効率良く検出できるように画素密度変更領域を設定し、また車両速度が遅いほど、より近くの対象物を効率良く検出できるように画素密度変更領域を設定することなどが可能になる。   In this way, for example, the pixel density changing region is set so that the farther the object can be detected efficiently as the vehicle speed is faster, and the closer object can be detected more efficiently as the vehicle speed is slower. Thus, it is possible to set a pixel density change region.

また本発明の一態様では、前記領域設定部は、ユーザーによる入力情報に基づいて、前記設定パターンを決定し、決定された前記設定パターンにおいて前記境界線の前記画像領域における位置及び形状のうちの少なくとも1つを定めてもよい。   In the aspect of the invention, the region setting unit may determine the setting pattern based on information input by a user, and may include a position and a shape of the boundary line in the image region in the determined setting pattern. At least one may be defined.

このようにすれば、ユーザーが車両の走行状況や道路状況などを判断して、適切な画素密度変更領域を設定することができる。   In this way, the user can set an appropriate pixel density change region by determining the vehicle driving condition, road condition, and the like.

また本発明の一態様では、走行モードと防犯モードとのモード切換設定を行うモード設定部をさらに含み、前記走行モードに設定されている場合には、前記領域設定部は、前記画素密度変更領域を設定し、前記処理部は、前記画素密度変更領域の前記赤外線画像データの画素密度を低減する処理を行い、前記画素密度変更領域を含む前記画像領域の前記赤外線画像データに基づいて前記検出処理を行い、前記検出処理の結果に基づくアラート表示を含む表示用画像データを生成する処理を行い、前記防犯モードに設定されている場合には、前記領域設定部は、前記境界線を非設定にし、前記処理部は、前記画像領域の全領域に対して前記赤外線画像データの画素密度を低減する処理を行い、前記画像領域の前記赤外線画像データに基づいて前記検出処理を行い、前記検出処理の結果に基づくアラート表示を含む表示用画像データを生成する処理を行ってもよい。   In one aspect of the present invention, a mode setting unit that performs mode switching setting between a driving mode and a crime prevention mode is further included. When the driving mode is set, the region setting unit includes the pixel density changing region. The processing unit performs a process of reducing the pixel density of the infrared image data in the pixel density change area, and the detection process based on the infrared image data of the image area including the pixel density change area And performing processing for generating display image data including an alert display based on the result of the detection processing, and when the crime prevention mode is set, the region setting unit unsets the boundary line. The processing unit performs a process of reducing the pixel density of the infrared image data with respect to the entire area of the image area, and performs processing based on the infrared image data of the image area. Performs detection processing may be performed a process of generating display image data including the alert display based on a result of the detection process.

このようにすれば、車両の走行時には、モード設定部が走行モードに設定することにより、例えば道路を横断する歩行者等を効率良く検知してドライバーに知らせることができる。また、車両の駐車時には、モード設定部が防犯モードに設定することにより、例えば夜間の自宅への不審者の侵入などを検知し、ユーザーに通報することなどが可能になる。   In this way, when the vehicle is traveling, the mode setting unit sets the traveling mode so that, for example, a pedestrian crossing the road can be efficiently detected and notified to the driver. Further, when the vehicle is parked, the mode setting unit sets the crime prevention mode, so that, for example, it is possible to detect a suspicious person entering the house at night and to notify the user.

また本発明の一態様では、前記処理部は、前記画素密度変更領域と前記画素密度変更領域以外の領域とでは、前記検出処理の内容を異ならせてもよい。   In the aspect of the invention, the processing unit may make the contents of the detection process different between the pixel density change area and an area other than the pixel density change area.

このようにすれば、対象物を検出するための検出処理として例えばテンプレートマッチング処理を行う場合に、画素密度変更領域に対しては精度の低いテンプレートを選択し、画素密度変更領域以外の領域に対しては精度の高いテンプレートを選択することができる。その結果、検出処理時間を短縮することができるから、対象物を効率良く検出することなどが可能になる。   In this way, when performing, for example, a template matching process as a detection process for detecting an object, a low-accuracy template is selected for the pixel density change area, and an area other than the pixel density change area is selected. It is possible to select a highly accurate template. As a result, since the detection processing time can be shortened, it is possible to detect the object efficiently.

また本発明の一態様では、前記処理部は、前記画素密度変更領域以外の領域での前記検出処理の結果に基づいて、前記画素密度変更領域での前記検出処理を行ってもよい。   In the aspect of the invention, the processing unit may perform the detection process in the pixel density change region based on a result of the detection process in a region other than the pixel density change region.

このようにすれば、例えば画素密度変更領域以外の領域において対象物が検出された場合に、その検出結果に基づいて画素密度変更領域での検出処理を行うことができるから、効率の良い検出処理を行うことなどが可能になる。   In this way, for example, when an object is detected in an area other than the pixel density change area, the detection process in the pixel density change area can be performed based on the detection result. Can be performed.

また本発明の一態様では、前記画素密度変更領域以外の領域での前記検出処理の結果は、前記対象物の動きベクトルを含んでもよい。   In the aspect of the invention, the detection processing result in an area other than the pixel density change area may include a motion vector of the object.

このようにすれば、例えば画素密度変更領域以外の領域において対象物が検出された場合に、この対象物の動きベクトルに基づいて対象物の移動先を予測することができる。そして対象物が画素密度変更領域に移動することが予測された場合には、例えばその対象物に対応するテンプレートを予め選択することができる。その結果、画素密度変更領域において対象物を効率良く検出することなどが可能になる。   In this way, for example, when an object is detected in an area other than the pixel density changing area, the movement destination of the object can be predicted based on the motion vector of the object. When the object is predicted to move to the pixel density change region, for example, a template corresponding to the object can be selected in advance. As a result, it is possible to efficiently detect an object in the pixel density change region.

また本発明の一態様では、前記画像取得部は、可視画像データを取得し、前記処理部は、前記検出処理を行って、前記検出処理の結果に基づくアラート記号と前記可視画像データとを重畳して表示用画像データを生成する処理を行ってもよい。   In one aspect of the present invention, the image acquisition unit acquires visible image data, and the processing unit performs the detection process and superimposes the alert symbol based on the result of the detection process and the visible image data. Then, processing for generating display image data may be performed.

このようにすれば、対象物が検出された場合に、その対象物に対応するアラート表示を可視画像に重畳して表示することができるから、ドライバーは視認性の良いアラート表示によって危険を察知することが容易になる。その結果、例えば夜間運転中のドライバーの負担を軽減することなどが可能になる。   In this way, when an object is detected, an alert display corresponding to the object can be superimposed and displayed on the visible image, so the driver can detect danger by using an alert display with good visibility. It becomes easy. As a result, for example, the burden on the driver during night driving can be reduced.

本発明の他の態様は、上記いずれかに記載の画像処理装置と、赤外線画像撮像部とを含むカメラシステムに関係する。   Another aspect of the present invention relates to a camera system including any one of the image processing apparatuses described above and an infrared image capturing unit.

本発明の他の態様は、上記いずれかに記載の画像処理装置と、赤外線画像撮像部と、前記画像処理装置と前記赤外線画像撮像部とが内部に配設された筐体とを含むカメラに関係する。   According to another aspect of the present invention, there is provided a camera including the image processing device according to any one of the above, an infrared image capturing unit, and a housing in which the image processing device and the infrared image capturing unit are disposed. Involved.

本発明の他の態様は、上記いずれかに記載の画像処理装置と、赤外線画像撮像部と、前記表示用画像データに基づく画像を表示する表示部とを含むカメラシステムに関係する。   Another aspect of the present invention relates to a camera system including any one of the image processing apparatuses described above, an infrared image capturing unit, and a display unit that displays an image based on the display image data.

本発明の他の態様は、上記いずれかに記載の画像処理装置と、赤外線画像撮像部と、前記表示用画像データに基づく画像を表示する表示部と前記画像処理装置と前記赤外線画像撮像部と前記表示部とが内部に配設された筐体とを含むカメラに関係する。   According to another aspect of the present invention, there is provided the image processing device according to any one of the above, an infrared image capturing unit, a display unit that displays an image based on the display image data, the image processing device, and the infrared image capturing unit. The display unit is related to a camera including a housing provided therein.

本発明の他の態様は、赤外線画像データを取得する画像取得部と、前記画像取得部により取得された前記赤外線画像データに基づく画像領域に対して、前記画像領域を複数の領域に分割する境界線を設定し、前記境界線によって分割された複数の領域のうち少なくとも1つの領域を画素密度変更領域に設定する領域設定部と、前記画素密度変更領域の前記赤外線画像データの画素密度を低減する処理を行い、前記画素密度変更領域を含む前記画像領域の前記赤外線画像データに基づいて対象物の検出処理を行い、前記検出処理の結果に基づいて表示用画像データを生成する処理部とを含む画像処理システムに関係する。   Another aspect of the present invention is an image acquisition unit that acquires infrared image data, and a boundary that divides the image region into a plurality of regions with respect to an image region based on the infrared image data acquired by the image acquisition unit. A line setting unit configured to set at least one of a plurality of regions divided by the boundary line as a pixel density change region; and to reduce the pixel density of the infrared image data in the pixel density change region A processing unit that performs processing, performs detection processing of an object based on the infrared image data of the image region including the pixel density change region, and generates display image data based on a result of the detection processing. Related to image processing system.

本発明の他の態様は、上記いずれかに記載の画像処理装置と、前記表示用画像データに基づく画像を表示する表示部とを含む画像処理システムに関係する。   Another aspect of the present invention relates to an image processing system including any one of the image processing apparatuses described above and a display unit that displays an image based on the display image data.

本発明の他の態様は、赤外線撮像素子が2次元配列された撮像領域を備え、前記撮像領域の一部の領域では前記赤外線撮像素子の間隔が第1の間隔であり、前記撮像領域の前記一部の領域以外の領域では前記赤外線撮像素子の間隔が前記第1の間隔より広い第2の間隔である赤外線画像撮像部と、前記赤外線画像撮像部で撮像された赤外線画像データを取得する画像取得部と、前記画像取得部により取得された前記赤外線画像データのうちの前記撮像領域に対応した画像領域に対して前記赤外線画像データに基づいて対象物の検出処理を行い、前記検出処理の結果に基づいて表示用画像データを生成する処理部とを含むカメラに関係する。   Another aspect of the present invention includes an imaging region in which infrared imaging elements are two-dimensionally arranged, and in a part of the imaging region, the interval between the infrared imaging elements is a first interval, In an area other than a part of the area, an infrared image capturing unit in which the interval between the infrared imaging elements is a second interval wider than the first interval, and an image for acquiring infrared image data captured by the infrared image capturing unit An object is detected based on the infrared image data for an image region corresponding to the imaging region in the infrared image data acquired by the acquisition unit and the image acquisition unit, and the result of the detection processing And a processing unit that generates image data for display based on the above.

本発明の他の態様によれば、画像取得部は、撮像領域の一部の領域では画素密度が高く、撮像領域の一部の領域以外の領域では画素密度が低い赤外線画像データを取得することができる。こうすることで、赤外線画像データの画素数を低減させることができるから、検出処理における演算処理負担を低減することができる。その結果、検出時間を短縮したり、処理部の構成を簡素にすることなどが可能になり、効率の良いカメラを実現することなどが可能になる。   According to another aspect of the present invention, the image acquisition unit acquires infrared image data having a high pixel density in a part of the imaging region and a low pixel density in a region other than the partial region of the imaging region. Can do. By doing so, it is possible to reduce the number of pixels of the infrared image data, and thus it is possible to reduce the calculation processing burden in the detection process. As a result, the detection time can be shortened, the configuration of the processing unit can be simplified, and an efficient camera can be realized.

画像処理装置、画像処理システム、カメラ及びカメラシステムの第1の構成例。1 is a first configuration example of an image processing apparatus, an image processing system, a camera, and a camera system. 画像処理装置、画像処理システム、カメラ及びカメラシステムの第2の構成例。The 2nd structural example of an image processing apparatus, an image processing system, a camera, and a camera system. 画像処理装置、画像処理システム、カメラ及びカメラシステムの第3の構成例。The 3rd structural example of an image processing apparatus, an image processing system, a camera, and a camera system. カメラの第4の構成例。The 4th structural example of a camera. 図5(A)〜図5(C)は、3つの走行状況における画素密度変更領域の設定例。FIG. 5A to FIG. 5C show setting examples of pixel density change areas in three driving situations. 図6(A)、図6(B)は、第1の構成例による画素密度低減処理を説明する図。FIGS. 6A and 6B are diagrams illustrating pixel density reduction processing according to the first configuration example. 第1の構成例による画素密度低減処理を説明する図。The figure explaining the pixel density reduction process by the 1st structural example. 図8(A)、図8(B)は、第2の構成例による画素密度低減処理を説明する図。8A and 8B are diagrams for describing pixel density reduction processing according to the second configuration example. 図9(A)、図9(B)は、第2の構成例による画素密度低減処理を説明する図。FIG. 9A and FIG. 9B are diagrams for describing pixel density reduction processing according to the second configuration example. 画像処理装置等における検出処理のフローチャート。The flowchart of the detection process in an image processing apparatus etc. 図11(A)〜図11(C)は、3つの走行状況におけるアラート表示の例。FIGS. 11A to 11C show examples of alert display in three driving situations. 第3の構成例における防犯モードを説明する図。The figure explaining the crime prevention mode in the 3rd example of composition. 第3の構成例による防犯モードの処理のフローチャート。The flowchart of the process of the crime prevention mode by the 3rd structural example. 図14(A)、図14(B)は、カメラシステムの車両への搭載例。14A and 14B show examples of mounting the camera system on a vehicle.

以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。   Hereinafter, preferred embodiments of the present invention will be described in detail. The present embodiment described below does not unduly limit the contents of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as means for solving the present invention. Not necessarily.

1.画像処理装置、画像処理システム、カメラ及びカメラシステム
図1に、本実施形態の画像処理装置100、画像処理システム200、カメラ300及びカメラシステム310の第1の構成例を示す。第1の構成例の画像処理装置100は、画像取得部110、領域設定部120、処理部130を含み、記憶部150をさらに含んでもよい。画像処理システム200は、画像処理装置100及び表示部230を含む。カメラ300は、画像処理装置100、赤外線画像撮像部210、筐体(図示せず)を含み、表示部230をさらに含んでもよい。カメラシステム310は、画像処理装置100及び赤外線画像撮像部210を含み、さらに表示部230を含んでもよい。また、画像処理システム200は、画像取得部110、領域設定部120、処理部130を含む構成としてもよい。
1. Image Processing Device, Image Processing System, Camera, and Camera System FIG. 1 shows a first configuration example of an image processing device 100, an image processing system 200, a camera 300, and a camera system 310 of this embodiment. The image processing apparatus 100 of the first configuration example includes an image acquisition unit 110, an area setting unit 120, and a processing unit 130, and may further include a storage unit 150. The image processing system 200 includes the image processing apparatus 100 and a display unit 230. The camera 300 includes the image processing apparatus 100, an infrared image capturing unit 210, a housing (not shown), and may further include a display unit 230. The camera system 310 includes the image processing apparatus 100 and the infrared image capturing unit 210, and may further include a display unit 230. The image processing system 200 may include an image acquisition unit 110, an area setting unit 120, and a processing unit 130.

なお、本実施形態の画像処理装置100、画像処理システム200、カメラ300及びカメラシステム310は、図1の構成に限定されず、その構成要素の一部を省略したり、他の構成要素に置き換えたり、他の構成要素を追加するなどの種々の変形実施が可能である。   Note that the image processing apparatus 100, the image processing system 200, the camera 300, and the camera system 310 of the present embodiment are not limited to the configuration in FIG. 1, and some of the components are omitted or replaced with other components. Various modifications such as adding other components are possible.

画像取得部110、領域設定部120、処理部130は、例えばCPUなどのプロセッサーやゲートアレイなどのASICにより実現することができる。また、記憶部150は、例えばRAM、フラッシュメモリー、或いはハードディスクドライブ(HDD)などにより実現することができる。なお、記憶部150は、省略してもよい。   The image acquisition unit 110, the region setting unit 120, and the processing unit 130 can be realized by a processor such as a CPU or an ASIC such as a gate array, for example. The storage unit 150 can be realized by, for example, a RAM, a flash memory, or a hard disk drive (HDD). Note that the storage unit 150 may be omitted.

画像取得部110は、赤外線画像撮像部210からの赤外線画像を取得し、処理部130に対して赤外線画像データを出力する。赤外線画像データは、例えば車両の外部領域の赤外線画像の画像データである。   The image acquisition unit 110 acquires an infrared image from the infrared image capturing unit 210 and outputs infrared image data to the processing unit 130. The infrared image data is, for example, image data of an infrared image of an external area of the vehicle.

また、画像取得部110は、可視画像撮像部220からの可視画像データを取得し、処理部130に対して可視画像データを出力する。   In addition, the image acquisition unit 110 acquires visible image data from the visible image capturing unit 220 and outputs the visible image data to the processing unit 130.

領域設定部120は、画像取得部110により取得された赤外線画像データに基づく画像領域に対して、画像領域を複数の領域に分割する境界線を設定し、境界線によって分割された複数の領域のうちの少なくとも1つの領域を画素密度変更領域に設定する。具体的には、領域設定部120は、画像領域における位置及び形状のうちの少なくとも1つが可変に設定される境界線を用いて画像領域を区画する設定パターンを決定する。そして決定された設定パターンにおいて境界線の画像領域における位置及び形状のうちの少なくとも1つを定める。   The region setting unit 120 sets a boundary line for dividing the image region into a plurality of regions for the image region based on the infrared image data acquired by the image acquisition unit 110, and sets the plurality of regions divided by the boundary line. At least one of these areas is set as a pixel density change area. Specifically, the region setting unit 120 determines a setting pattern that divides the image region using a boundary line in which at least one of the position and shape in the image region is variably set. Then, at least one of the position and shape of the boundary line in the image area is determined in the determined setting pattern.

より具体的には、領域設定部120は、車両の走行状況情報や全地球測位システム(GPS)により取得された車両位置情報やユーザーによる入力情報などに基づいて、設定パターンを決定し、決定された設定パターンにおいて境界線の画像領域における位置及び形状のうちの少なくとも1つを定める。例えば、領域設定部120は、車両の速度情報やヘッドライトの制御情報などに基づいて設定パターンを決定し、境界線の位置及び形状のうちの少なくとも1つを定めることができる。なお、走行状況に応じた設定パターンについては、後で説明する。   More specifically, the region setting unit 120 determines and determines the setting pattern based on the vehicle travel status information, vehicle position information acquired by the global positioning system (GPS), user input information, and the like. In the set pattern, at least one of the position and the shape of the boundary line in the image area is determined. For example, the region setting unit 120 can determine a setting pattern based on vehicle speed information, headlight control information, and the like, and determine at least one of the position and shape of the boundary line. In addition, the setting pattern according to a driving | running | working condition is demonstrated later.

ここで画像領域とは、例えば2次元的に撮像素子が配置された赤外線画像撮像部210により撮像され、画像取得部110により所定の時間間隔で取得される1画面(フレーム)分の画像データである。即ち、1つの画像領域は、赤外線画像撮像部210により或るタイミングで撮像された1つの画面(フレーム)を構成する赤外線画像データである。   Here, the image region is, for example, image data for one screen (frame) captured by the infrared image capturing unit 210 in which an image sensor is two-dimensionally arranged and acquired by the image acquiring unit 110 at predetermined time intervals. is there. That is, one image area is infrared image data that constitutes one screen (frame) captured at a certain timing by the infrared image capturing unit 210.

処理部130は、画素密度変更領域の赤外線画像データの画素密度を低減する処理(画素密度低減処理)を行う。そして画素密度変更領域を含む画像領域の赤外線画像データに基づいて対象物の検出処理(テンプレートマッチング処理)を行い、検出処理の結果に基づいて表示用画像データを生成する。この表示用画像データは、検出処理の結果に基づくアラート表示を含んでもよい。また、処理部130は、検出処理を行って、検出処理の結果に基づくアラート記号と可視画像データとを重畳して表示用画像データを生成する処理を行う。   The processing unit 130 performs processing for reducing the pixel density of the infrared image data in the pixel density changing region (pixel density reduction processing). An object detection process (template matching process) is performed based on the infrared image data of the image area including the pixel density change area, and display image data is generated based on the result of the detection process. This display image data may include an alert display based on the result of the detection process. In addition, the processing unit 130 performs a detection process, and performs a process of generating display image data by superimposing an alert symbol and visible image data based on a result of the detection process.

具体的には、処理部130は、領域設定部120により設定された画素密度変更領域ARMDの赤外線画像データに対して画素密度を低減する処理を行う。この画素密度を低減する処理(画素密度低減処理)は、画像データ上で等価的に画素密度、即ち単位面積当たりの画素数を減少させる処理であって、例えば1画面(フレーム)を構成する画像データのうちの一定の領域(画素密度変更領域)内にある画素を間引く処理(間引き処理)である。一方、画素密度変更領域ARMDを除く画像領域の赤外線画像データに対しては、画素密度低減処理を行わない。以下では、画素密度変更領域ARMDを除く画像領域を画素密度非変更領域ARNOとも呼ぶ。なお、画素密度低減処理については、後で詳細に説明する。   Specifically, the processing unit 130 performs processing for reducing the pixel density on the infrared image data in the pixel density changing region ARMD set by the region setting unit 120. This process of reducing the pixel density (pixel density reduction process) is a process of equivalently reducing the pixel density on the image data, that is, the number of pixels per unit area, for example, an image constituting one screen (frame). This is a process (thinning process) for thinning out pixels in a certain area (pixel density changing area) of data. On the other hand, the pixel density reduction process is not performed on the infrared image data in the image area excluding the pixel density change area ARMD. Hereinafter, the image area excluding the pixel density change area ARMD is also referred to as a pixel density non-change area ARNO. The pixel density reduction process will be described in detail later.

また処理部130は、画素密度変更領域ARMDを含む画像領域の赤外線画像データ、即ち画素密度低減処理を行った後の赤外線画像データに基づいて、対象物の検出処理(テンプレートマッチング処理)を行う。即ち、画素密度変更領域ARMDでは画素密度非変更領域ARNOに比べて画素密度が低い赤外線画像データに基づいて、対象物(例えば歩行者、自転車など)を検出するための検出処理を行う。或いは、画素密度変更領域ARMDでは画素密度が第1のしきい値よりも低く、画素密度非変更領域ARNOでは画素密度が第2のしきい値よりも高い赤外線画像データに基づいて、対象物を検出するための検出処理を行う。ここで、第1のしきい値は第2のしきい値以下の値であって、第2のしきい値は赤外線画像撮像部210において実現可能な画素密度の範囲の値であってもよい。なお、第1、第2のしきい値は、同じ値であってもよい。   Further, the processing unit 130 performs an object detection process (template matching process) based on the infrared image data of the image area including the pixel density changing area ARMD, that is, the infrared image data after performing the pixel density reduction process. That is, in the pixel density changing area ARMD, detection processing for detecting an object (for example, a pedestrian or a bicycle) is performed based on infrared image data having a lower pixel density than the pixel density non-changing area ARNO. Alternatively, based on the infrared image data in which the pixel density is lower than the first threshold value in the pixel density change area ARMD and the pixel density is higher than the second threshold value in the pixel density non-change area ARNO, A detection process for detection is performed. Here, the first threshold value may be a value equal to or smaller than the second threshold value, and the second threshold value may be a value in a pixel density range that can be realized in the infrared image capturing unit 210. . The first and second threshold values may be the same value.

処理部130は、テンプレートマッチング処理部131、画像合成処理部132、メモリー133を含む。メモリー133は、画素密度変更領域ARMDに対して画素密度低減処理(間引き処理)を行った後の赤外線画像データを記憶する。このようにすることで、メモリー133に記憶された赤外線画像データの画素密度変更領域ARMDの画素密度は第1のしきい値よりも低く、画素密度非変更領域ARNOの画素密度は第2のしきい値よりも高くなる。テンプレートマッチング処理部131は、メモリー133に記憶された間引き処理後の赤外線画像データに対して、対象物を検出するためのテンプレートマッチング処理を行う。   The processing unit 130 includes a template matching processing unit 131, an image composition processing unit 132, and a memory 133. The memory 133 stores infrared image data after the pixel density reduction process (thinning process) is performed on the pixel density change area ARMD. By doing so, the pixel density of the pixel density changing region ARMD of the infrared image data stored in the memory 133 is lower than the first threshold value, and the pixel density of the pixel density non-changing region ARNO is the second threshold value. It becomes higher than the threshold. The template matching processing unit 131 performs template matching processing for detecting an object on the infrared image data after thinning processing stored in the memory 133.

画像合成処理部132は、テンプレートマッチング処理結果に基づいて、可視画像データにアラート表示(アラート記号)などを重畳する処理を行う。画像合成処理部132は、必要に応じて他の情報をさらに合成(重畳)する処理を行ってもよい。また、画像合成処理部132は、アラート表示を赤外線画像データに重畳する処理を行ってもよいし、或いは可視画像データ、赤外線画像データ及びアラート表示などを合成(重畳)する処理を行ってもよい。   The image composition processing unit 132 performs processing for superimposing an alert display (alert symbol) or the like on the visible image data based on the template matching processing result. The image composition processing unit 132 may perform a process of further compositing (superimposing) other information as necessary. The image composition processing unit 132 may perform processing for superimposing the alert display on the infrared image data, or may perform processing for combining (superimposing) the visible image data, the infrared image data, the alert display, and the like. .

アラート表示は、ドライバーに歩行者や自転車などの存在を知らせるための記号(アラート記号)である。アラート表示が重畳された可視画像は、表示部230に表示される。視認性の良いアラート記号を表示することで、ドライバーの危険予知を容易にすることができる。なお、テンプレートマッチング処理及びアラート表示の詳細については、後述する。   The alert display is a symbol (alert symbol) for notifying the driver of the presence of a pedestrian or bicycle. The visible image on which the alert display is superimposed is displayed on the display unit 230. By displaying an alert symbol with good visibility, the driver can easily predict the danger. Details of the template matching process and the alert display will be described later.

記憶部150は、画素密度変更領域ARMDと画素密度非変更領域ARNOとの境界線を設定する複数の設定パターンを記憶する。領域設定部120は、記憶部150から複数の設定パターンのうちのいずれか1つの設定パターンを選択して読み出し、読み出された設定パターンに基づいて境界線を設定することができる。こうすることで、例えば予め複数の走行状況に対応する複数の設定パターンを記憶部150に記憶しておくことができるから、走行状況に応じて最適な設定パターンを選択することなどが可能になる。   The storage unit 150 stores a plurality of setting patterns for setting a boundary line between the pixel density changing area ARMD and the pixel density non-changing area ARNO. The region setting unit 120 can select and read any one of a plurality of setting patterns from the storage unit 150 and set a boundary line based on the read setting patterns. By doing so, for example, since a plurality of setting patterns corresponding to a plurality of driving situations can be stored in the storage unit 150 in advance, it becomes possible to select an optimal setting pattern according to the driving situations. .

赤外線画像撮像部210は、赤外線カメラであって、例えば波長が8〜12μmの遠赤外線に感度を有するものである。遠方(例えば200m先)の対象物を検出するために、焦電素子を用いた赤外線センサーカメラであれば、さらに良い。   The infrared image capturing unit 210 is an infrared camera, and has sensitivity to far infrared rays having a wavelength of 8 to 12 μm, for example. Infrared sensor cameras using pyroelectric elements to detect distant objects (for example, 200 m away) are even better.

可視画像撮像部220は、可視光領域に感度を有するカメラであって、例えば撮像素子としてCCDやCMOSなどを用いるものである。このカメラは、高ダイナミックレンジ(HDR:High Dynamic Range)形式の画像データに対応できるものが望ましい。HDR形式対応のカメラでは、電子シャッター機能を用いて高速・低速の異なるシャッター時間で被写体の撮像を行い、その2種類の画像信号を信号処理して広いダイナミックレンジを持つ画像を得ることができる。こうすることで、例えば夜間の走行時において、通常は対向車のヘッドライトに妨げられて見えにくくなっている歩行者や対向車自身などを、明瞭に映し出すことができる。   The visible image capturing unit 220 is a camera having sensitivity in the visible light region, and uses, for example, a CCD or a CMOS as an image sensor. This camera is preferably compatible with image data in a high dynamic range (HDR) format. An HDR-compatible camera can capture an image of a subject with different shutter speeds, high and low, using an electronic shutter function, and can process the two types of image signals to obtain an image having a wide dynamic range. By doing so, for example, when traveling at night, it is possible to clearly show a pedestrian or an oncoming vehicle that is usually obstructed by the headlight of the oncoming vehicle and is difficult to see.

表示部230は、赤外線画像、可視画像及びアラート記号などを含む画像を表示する。表示部230は、例えば液晶ディスプレイ、有機ELディスプレイなどで実現することができる。   The display unit 230 displays an image including an infrared image, a visible image, an alert symbol, and the like. The display unit 230 can be realized by, for example, a liquid crystal display, an organic EL display, or the like.

筐体は、図示していないが、その内部に画像処理装置100と赤外線画像撮像部210とが配設される。   Although the housing is not shown, the image processing apparatus 100 and the infrared image capturing unit 210 are disposed therein.

図1に示す第1の構成例の画像処理装置100等によれば、テンプレートマッチング処理の対象となる赤外線画像データの画素数を低減させることができるから、検出処理における演算処理負担を低減することができる。また、対象物を検出した場合に、可視画像の対応する位置に視認性の良いアラート表示を重畳して表示することができるから、夜間運転中のドライバーの負担を軽減することなどが可能になる。   According to the image processing apparatus 100 or the like of the first configuration example shown in FIG. 1, the number of pixels of infrared image data to be subjected to template matching processing can be reduced, so that the calculation processing burden in detection processing is reduced. Can do. In addition, when an object is detected, an alert display with good visibility can be superimposed and displayed at a corresponding position in the visible image, so that it is possible to reduce the burden on the driver during night driving. .

さらに領域設定部120が、車両の走行状況情報や車両位置情報やユーザーによる入力情報などに基づいて、設定パターンを決定し、決定された設定パターンにおいて境界線の画像領域における位置及び形状のうちの少なくとも1つを定めることができる。こうすることで、車両の走行状況などに応じて画素密度変更領域ARMD及び画素密度非変更領域ARNOを可変に設定することができるから、多様な走行状況や交通状況などに対応して、歩行者などの対象物が存在する可能性の低い領域を画素密度変更領域ARMDに設定し、歩行者などの対象物が存在する可能性の高い領域を画素密度非変更領域ARNOに設定することができる。その結果、対象物の検出能力(検出精度)を低下させずに、演算処理負担を低減することができる。その結果、検出処理の処理時間を短縮したり、処理部130の回路構成を簡素にすることが可能になり、効率の良い画像処理装置等を実現することなどが可能になる。   Further, the area setting unit 120 determines a setting pattern based on the vehicle driving situation information, the vehicle position information, the user input information, and the like, and among the position and shape of the boundary line in the image area in the determined setting pattern At least one can be defined. In this way, the pixel density changing area ARMD and the pixel density non-changing area ARNO can be variably set according to the driving situation of the vehicle, so that the pedestrian can be adapted to various driving situations and traffic conditions. An area where there is a low possibility of the presence of an object such as a pedestrian can be set as the pixel density change area ARMD, and an area where there is a high possibility that an object such as a pedestrian exists can be set as the pixel density non-change area ARNO. As a result, it is possible to reduce the processing load without reducing the detection capability (detection accuracy) of the object. As a result, the processing time of the detection process can be shortened, the circuit configuration of the processing unit 130 can be simplified, and an efficient image processing apparatus or the like can be realized.

図2に、本実施形態の画像処理装置100、画像処理システム200、カメラ300及びカメラシステム310の第2の構成例を示す。第2の構成例の画像処理装置100は、画像取得部110、領域設定部120、処理部130を含み、記憶部150をさらに含んでもよい。画像処理システム200は、画像処理装置100及び表示部230を含む。カメラ300は、画像処理装置100、赤外線画像撮像部210、筐体(図示せず)を含み、表示部230をさらに含んでもよい。カメラシステム310は、画像処理装置100及び赤外線画像撮像部210を含み、さらに表示部230を含んでもよい。また、画像処理システム200は、画像取得部110、領域設定部120、処理部130を含む構成としてもよい。   FIG. 2 shows a second configuration example of the image processing apparatus 100, the image processing system 200, the camera 300, and the camera system 310 of the present embodiment. The image processing apparatus 100 of the second configuration example includes an image acquisition unit 110, an area setting unit 120, and a processing unit 130, and may further include a storage unit 150. The image processing system 200 includes the image processing apparatus 100 and a display unit 230. The camera 300 includes the image processing apparatus 100, an infrared image capturing unit 210, a housing (not shown), and may further include a display unit 230. The camera system 310 includes the image processing apparatus 100 and the infrared image capturing unit 210, and may further include a display unit 230. The image processing system 200 may include an image acquisition unit 110, an area setting unit 120, and a processing unit 130.

なお、本実施形態の画像処理装置100、画像処理システム200、カメラ300及びカメラシステム310は、図2の構成に限定されず、その構成要素の一部を省略したり、他の構成要素に置き換えたり、他の構成要素を追加するなどの種々の変形実施が可能である。   Note that the image processing apparatus 100, the image processing system 200, the camera 300, and the camera system 310 of the present embodiment are not limited to the configuration in FIG. 2, and some of the components are omitted or replaced with other components. Various modifications such as adding other components are possible.

画像取得部110、領域設定部120、記憶部150は、第1の構成例(図1)で説明したものと同一であるから、ここでは詳細な説明を省略する。   Since the image acquisition unit 110, the region setting unit 120, and the storage unit 150 are the same as those described in the first configuration example (FIG. 1), detailed description thereof is omitted here.

処理部130は、画素密度変更領域の赤外線画像データの画素密度を低減する処理(画素密度低減処理)を行う。そして画素密度変更領域を含む画像領域の赤外線画像データに基づいて対象物の検出処理(テンプレートマッチング処理)を行い、検出処理の結果に基づいて表示用画像データを生成する。この表示用画像データは、検出処理の結果に基づくアラート表示を含んでもよい。また、処理部130は、検出処理を行って、検出処理の結果に基づくアラート記号と可視画像データとを重畳して表示用画像データを生成する処理を行う。   The processing unit 130 performs processing for reducing the pixel density of the infrared image data in the pixel density changing region (pixel density reduction processing). An object detection process (template matching process) is performed based on the infrared image data of the image area including the pixel density change area, and display image data is generated based on the result of the detection process. This display image data may include an alert display based on the result of the detection process. In addition, the processing unit 130 performs a detection process, and performs a process of generating display image data by superimposing an alert symbol and visible image data based on a result of the detection process.

具体的には、処理部130は、領域設定部120により設定された画素密度変更領域ARMDの赤外線画像データに対して画素密度を低減する処理を行う。この画素密度を低減する処理(画素密度低減処理)は、画像データ上で等価的に画素密度、即ち単位面積当たりの画素数を減少させる処理であって、例えば1画面(フレーム)を構成する画像データのうちの一定の領域(画素密度変更領域)内において、隣接する複数の画素に対応する画像データを混合演算して1つの画素に対応する画像データとする処理(画素混合演算処理)である。一方、画素密度変更領域ARMDを除く画像領域(画素密度非変更領域)ARNOの赤外線画像データに対しては、画素密度低減処理を行わない。なお、画素密度低減処理については、後で詳細に説明する。   Specifically, the processing unit 130 performs processing for reducing the pixel density on the infrared image data in the pixel density changing region ARMD set by the region setting unit 120. This process of reducing the pixel density (pixel density reduction process) is a process of equivalently reducing the pixel density on the image data, that is, the number of pixels per unit area, for example, an image constituting one screen (frame). This is a process (pixel mixture calculation process) of mixing image data corresponding to a plurality of adjacent pixels into image data corresponding to one pixel in a certain area (pixel density changing area) of the data. . On the other hand, pixel density reduction processing is not performed on infrared image data in the image area (pixel density non-change area) ARNO excluding the pixel density change area ARMD. The pixel density reduction process will be described in detail later.

また処理部130は、画素密度変更領域ARMDを含む画像領域の赤外線画像データ、即ち画素密度低減処理を行った後の赤外線画像データに基づいて、対象物の検出処理(テンプレートマッチング処理)を行う。即ち、画素密度変更領域ARMDでは画素密度非変更領域ARNOに比べて画素密度が低い赤外線画像データに基づいて、対象物(例えば歩行者、自転車など)を検出するための検出処理を行う。或いは、画素密度変更領域ARMDでは画素密度が第1のしきい値よりも低く、画素密度非変更領域ARNOでは画素密度が第2のしきい値よりも高い赤外線画像データに基づいて、対象物を検出するための検出処理を行う。ここで、第1のしきい値は第2のしきい値以下の値であって、第2のしきい値は赤外線画像撮像部210において実現可能な画素密度の範囲の値であってもよい。なお、第1、第2のしきい値は、同じ値であってもよい。   Further, the processing unit 130 performs an object detection process (template matching process) based on the infrared image data of the image area including the pixel density changing area ARMD, that is, the infrared image data after performing the pixel density reduction process. That is, in the pixel density changing area ARMD, detection processing for detecting an object (for example, a pedestrian or a bicycle) is performed based on infrared image data having a lower pixel density than the pixel density non-changing area ARNO. Alternatively, based on the infrared image data in which the pixel density is lower than the first threshold value in the pixel density change area ARMD and the pixel density is higher than the second threshold value in the pixel density non-change area ARNO, A detection process for detection is performed. Here, the first threshold value may be a value equal to or smaller than the second threshold value, and the second threshold value may be a value in a pixel density range that can be realized in the infrared image capturing unit 210. . The first and second threshold values may be the same value.

処理部130は、テンプレートマッチング処理部131、画像合成処理部132、2つのメモリー133、135、混合演算処理部134を含む。メモリー135は、画像取得部110からの赤外線画像データを記憶する。混合演算処理部134は、メモリー135に記憶された赤外線画像データのうちの画素密度変更領域ARMDに対応する画像データに対して、画素混合演算処理を行う。メモリー133は、画素混合演算処理を行った後の赤外線画像データを記憶する。このようにすることで、メモリー133に記憶された赤外線画像データの画素密度変更領域ARMDの画素密度は第1のしきい値よりも低く、画素密度非変更領域ARNOの画素密度は第2のしきい値よりも高くなる。テンプレートマッチング処理部131は、メモリー133に記憶された画素混合演算処理後の赤外線画像データに対して、対象物を検出するためのテンプレートマッチング処理を行う。   The processing unit 130 includes a template matching processing unit 131, an image composition processing unit 132, two memories 133 and 135, and a mixing calculation processing unit 134. The memory 135 stores infrared image data from the image acquisition unit 110. The mixing calculation processing unit 134 performs pixel mixing calculation processing on image data corresponding to the pixel density changing region ARMD in the infrared image data stored in the memory 135. The memory 133 stores infrared image data after the pixel mixture calculation process is performed. By doing so, the pixel density of the pixel density changing region ARMD of the infrared image data stored in the memory 133 is lower than the first threshold value, and the pixel density of the pixel density non-changing region ARNO is the second threshold value. It becomes higher than the threshold. The template matching processing unit 131 performs template matching processing for detecting an object on the infrared image data after the pixel mixture calculation processing stored in the memory 133.

画像合成処理部132は、テンプレートマッチング処理結果に基づいて、可視画像データにアラート表示(アラート記号)などを重畳する処理を行う。画像合成処理部132は、必要に応じて他の情報をさらに合成(重畳)する処理を行ってもよい。また、画像合成処理部132は、アラート表示を赤外線画像データに重畳する処理を行ってもよいし、或いは可視画像データ、赤外線画像データ及びアラート表示などを合成(重畳)する処理を行ってもよい。   The image composition processing unit 132 performs processing for superimposing an alert display (alert symbol) or the like on the visible image data based on the template matching processing result. The image composition processing unit 132 may perform a process of further compositing (superimposing) other information as necessary. The image composition processing unit 132 may perform processing for superimposing the alert display on the infrared image data, or may perform processing for combining (superimposing) the visible image data, the infrared image data, the alert display, and the like. .

赤外線画像撮像部210、可視画像撮像部220、表示部230及び筐体(図示せず)は、第1の構成例(図1)で説明したものと同一であるから、ここでは詳細な説明を省略する。   Since the infrared image capturing unit 210, the visible image capturing unit 220, the display unit 230, and the housing (not shown) are the same as those described in the first configuration example (FIG. 1), detailed description will be given here. Omitted.

図2に示す第2の構成例の画像処理装置100等によれば、第1の構成例と同様に、テンプレートマッチング処理の対象となる赤外線画像データの画素数を低減させることができるから、検出処理における演算処理負担を低減することができる。また、対象物を検出した場合に、可視画像の対応する位置に視認性の良いアラート表示を重畳して表示することができるから、夜間運転中のドライバーの負担を軽減することなどが可能になる。   According to the image processing apparatus 100 and the like of the second configuration example illustrated in FIG. 2, the number of pixels of the infrared image data to be subjected to template matching processing can be reduced as in the first configuration example. It is possible to reduce the calculation processing burden in the processing. In addition, when an object is detected, an alert display with good visibility can be superimposed and displayed at a corresponding position in the visible image, so that it is possible to reduce the burden on the driver during night driving. .

さらに第1の構成例と同様に、領域設定部120が、車両の走行状況情報や車両位置情報やユーザーによる入力情報などに基づいて、設定パターンを決定し、決定された設定パターンにおいて境界線の画像領域における位置及び形状のうちの少なくとも1つを定めることができる。こうすることで、車両の走行状況などに応じて画素密度変更領域ARMD及び画素密度非変更領域ARNOを可変に設定することができるから、対象物の検出能力(検出精度)を低下させずに、効率の良い画像処理装置等を実現することなどが可能になる。   Further, similarly to the first configuration example, the region setting unit 120 determines a setting pattern based on the vehicle traveling state information, the vehicle position information, the input information by the user, and the like, and the boundary line in the determined setting pattern is determined. At least one of position and shape in the image region can be defined. By doing so, the pixel density changing area ARMD and the pixel density non-changing area ARNO can be variably set according to the traveling state of the vehicle and the like, without reducing the detection capability (detection accuracy) of the target object. An efficient image processing apparatus or the like can be realized.

さらに第2の構成例では、画素密度低減処理として画素混合演算処理を行うことができるから、後述するように、画素密度変更領域ARMDにおける感度(赤外線検出感度)の低下を防ぐことができる。   Further, in the second configuration example, since the pixel mixture calculation process can be performed as the pixel density reduction process, it is possible to prevent a decrease in sensitivity (infrared detection sensitivity) in the pixel density change region ARMD as described later.

図3に、本実施形態の画像処理装置100、画像処理システム200、カメラ300及びカメラシステム310の第3の構成例を示す。第3の構成例の画像処理装置100は、画像取得部110、領域設定部120、処理部130、モード設定部140を含み、記憶部150をさらに含んでもよい。画像処理システム200は、画像処理装置100及び表示部230を含む。カメラ300は、画像処理装置100、赤外線画像撮像部210、筐体(図示せず)を含み、表示部230をさらに含んでもよい。カメラシステム310は、画像処理装置100及び赤外線画像撮像部210を含み、さらに表示部230を含んでもよい。また、画像処理システム200は、画像取得部110、領域設定部120、処理部130を含む構成としてもよい。   FIG. 3 shows a third configuration example of the image processing apparatus 100, the image processing system 200, the camera 300, and the camera system 310 of the present embodiment. The image processing apparatus 100 of the third configuration example includes an image acquisition unit 110, an area setting unit 120, a processing unit 130, and a mode setting unit 140, and may further include a storage unit 150. The image processing system 200 includes the image processing apparatus 100 and a display unit 230. The camera 300 includes the image processing apparatus 100, an infrared image capturing unit 210, a housing (not shown), and may further include a display unit 230. The camera system 310 includes the image processing apparatus 100 and the infrared image capturing unit 210, and may further include a display unit 230. The image processing system 200 may include an image acquisition unit 110, an area setting unit 120, and a processing unit 130.

なお、本実施形態の画像処理装置100、画像処理システム200、カメラ300及びカメラシステム310は、図3の構成に限定されず、その構成要素の一部を省略したり、他の構成要素に置き換えたり、他の構成要素を追加するなどの種々の変形実施が可能である。   Note that the image processing apparatus 100, the image processing system 200, the camera 300, and the camera system 310 of the present embodiment are not limited to the configuration in FIG. 3, and some of the components are omitted or replaced with other components. Various modifications such as adding other components are possible.

画像取得部110、領域設定部120、記憶部150は、第1の構成例(図1)で説明したものと同一であるから、ここでは詳細な説明を省略する。   Since the image acquisition unit 110, the region setting unit 120, and the storage unit 150 are the same as those described in the first configuration example (FIG. 1), detailed description thereof is omitted here.

処理部130は、第1の構成例(図1)又は第2の構成例(図2)で説明したものと同一であるから、ここでは詳細な説明を省略する。   Since the processing unit 130 is the same as that described in the first configuration example (FIG. 1) or the second configuration example (FIG. 2), detailed description thereof is omitted here.

モード設定部140は、走行モードと防犯モードとのモード切換設定を行う。走行モードは、車両の走行中に設定されるモードであって、例えば車両の夜間走行時などに車両前方の歩行者等を検出してドライバーに警告を発するモードである。また、防犯モードは、車両の駐車中に設定されるモードであって、例えば夜間に車両が自宅に隣接して駐車している時に、自宅への侵入者等を検出して警告を発するモードである。   The mode setting unit 140 performs mode switching setting between the running mode and the crime prevention mode. The travel mode is a mode that is set while the vehicle is traveling, and is a mode in which a pedestrian or the like in front of the vehicle is detected and a warning is issued to the driver when the vehicle is traveling at night, for example. The crime prevention mode is a mode that is set while the vehicle is parked. For example, when the vehicle is parked adjacent to the home at night, an intruder entering the home is detected and a warning is issued. is there.

画像処理装置100が走行モードに設定されている場合には、領域設定部120は、上述したように設定パターンを決定し、決定された設定パターンにおいて境界線を決定して画素密度変更領域ARMDを設定する。そして処理部130は画素密度変更領域ARMDの赤外線画像データの画素密度を低減する処理を行い、画素密度変更領域ARMDを含む画像領域の赤外線画像データに基づいて検出処理を行う。そして検出処理の結果に基づくアラート表示を含む表示用画像データを生成する処理を行う。   When the image processing apparatus 100 is set to the travel mode, the region setting unit 120 determines the setting pattern as described above, determines the boundary line in the determined setting pattern, and sets the pixel density change region ARMD. Set. Then, the processing unit 130 performs a process of reducing the pixel density of the infrared image data in the pixel density change area ARMD, and performs a detection process based on the infrared image data of the image area including the pixel density change area ARMD. And the process which produces | generates the image data for a display containing the alert display based on the result of a detection process is performed.

一方、画像処理装置100が防犯モードに設定されている場合には、領域設定部120は境界線を非設定にする。そして処理部130は画像領域の全領域に対して赤外線画像データの画素密度を低減する処理を行い、画像領域の赤外線画像データに基づいて検出処理を行い、検出処理の結果に基づくアラート表示を含む表示用画像データを生成する処理を行う。そして検出処理によって不審者を検出した場合には、処理部130はユーザーの携帯端末などに通報する処理を行うことができる。なお、防犯モードの詳細については、後述する。   On the other hand, when the image processing apparatus 100 is set to the crime prevention mode, the region setting unit 120 does not set the boundary line. Then, the processing unit 130 performs a process of reducing the pixel density of the infrared image data for the entire area of the image area, performs a detection process based on the infrared image data of the image area, and includes an alert display based on a result of the detection process. Processing to generate display image data is performed. When a suspicious person is detected by the detection process, the processing unit 130 can perform a process of notifying the user's mobile terminal or the like. Details of the crime prevention mode will be described later.

図3に示す第3の構成例の画像処理装置100等によれば、走行モードに設定された場合には、第1、第2の構成例と同様に、テンプレートマッチング処理の対象となる赤外線画像データの画素数を低減させることができるから、検出処理における演算処理負担を低減することができる。また、対象物を検出した場合に、可視画像の対応する位置に視認性の良いアラート表示を重畳して表示することができるから、夜間運転中のドライバーの負担を軽減することなどが可能になる。   According to the image processing apparatus 100 or the like of the third configuration example shown in FIG. 3, when set to the travel mode, the infrared image that is the target of the template matching process as in the first and second configuration examples. Since the number of data pixels can be reduced, the calculation processing burden in the detection process can be reduced. In addition, when an object is detected, an alert display with good visibility can be superimposed and displayed at a corresponding position in the visible image, so that it is possible to reduce the burden on the driver during night driving. .

さらに第3の構成例では、防犯モードに設定することにより、夜間の駐車時に自宅周辺の不審者などを検出することができるから、防犯用に専用のセキュリティシステム等を設置する必要がなくなるため、防犯コストの低減などが可能になる。   Furthermore, in the third configuration example, by setting the crime prevention mode, it is possible to detect suspicious people around the home when parking at night, so it is not necessary to install a dedicated security system for crime prevention, It is possible to reduce crime prevention costs.

図4に、本実施形態のカメラ300の第4の構成例を示す。第4の構成例のカメラ300は、赤外線画像撮像部210、画像取得部110、処理部130を含み、さらに表示部230を含んでもよい。なお、本実施形態のカメラ300は、図4の構成に限定されず、その構成要素の一部を省略したり、他の構成要素に置き換えたり、他の構成要素を追加するなどの種々の変形実施が可能である。   FIG. 4 shows a fourth configuration example of the camera 300 of the present embodiment. The camera 300 of the fourth configuration example includes an infrared image capturing unit 210, an image acquisition unit 110, and a processing unit 130, and may further include a display unit 230. Note that the camera 300 of the present embodiment is not limited to the configuration of FIG. 4, and various modifications such as omitting some of the components, replacing them with other components, and adding other components. Implementation is possible.

赤外線画像撮像部210は、赤外線カメラであって、例えば波長が8〜12μmの遠赤外線に感度を有するものである。遠方(例えば200m先)の対象物を検出するために、焦電素子を用いた赤外線センサーカメラであれば、さらに良い。   The infrared image capturing unit 210 is an infrared camera, and has sensitivity to far infrared rays having a wavelength of 8 to 12 μm, for example. Infrared sensor cameras using pyroelectric elements to detect distant objects (for example, 200 m away) are even better.

赤外線画像撮像部210は、赤外線撮像素子が二次元配列された撮像領域を備え、撮像領域の一部の領域IRHDでは赤外線撮像素子の間隔が第1の間隔であり、撮像領域の一部の領域IRHD以外の撮像領域IRLDでは赤外線撮像素子の間隔が第1の間隔より広い第2の間隔である。即ち、撮像領域IRHDでは赤外線画像の画素密度が高く、撮像領域IRLDでは赤外線画像の画素密度がIRHDに比べて低くなる。或いは、撮像領域IRHDの画素密度は第1のしきい値よりも高く、撮像領域IRLDの画素密度は第2のしきい値よりも低い。ここで、第1のしきい値は第2のしきい値以上の値であって、第1、第2のしきい値は共に赤外線画像撮像部210において実現可能な画素密度の範囲の値である。なお、第1、第2のしきい値は、同じ値であってもよい。   The infrared image capturing unit 210 includes an imaging region in which infrared imaging elements are two-dimensionally arranged. In the partial region IRHD of the imaging region, the interval between the infrared imaging devices is the first interval, and the partial region of the imaging region. In the imaging region IRLD other than IRHD, the interval between the infrared imaging elements is a second interval wider than the first interval. That is, the pixel density of the infrared image is high in the imaging region IRHD, and the pixel density of the infrared image is low in the imaging region IRLD as compared with IRHD. Alternatively, the pixel density of the imaging region IRHD is higher than the first threshold value, and the pixel density of the imaging region IRLD is lower than the second threshold value. Here, the first threshold value is greater than or equal to the second threshold value, and both the first and second threshold values are values within the range of pixel density that can be realized in the infrared image capturing unit 210. is there. The first and second threshold values may be the same value.

赤外線撮像素子の間隔とは、例えば赤外線画像撮像部210の撮像面において、1つの画素(赤外線センサー素子)とそれに隣接する画素との配置間隔である。画素密度とは、例えば赤外線画像撮像部210の撮像面における単位面積当たりの画素数である。   The interval between the infrared imaging elements is an arrangement interval between one pixel (infrared sensor element) and a pixel adjacent thereto on the imaging surface of the infrared imaging unit 210, for example. The pixel density is, for example, the number of pixels per unit area on the imaging surface of the infrared image capturing unit 210.

画像取得部110は、赤外線画像撮像部210で撮像された赤外線画像データを取得し、処理部130に対して赤外線画像データを出力する。   The image acquisition unit 110 acquires the infrared image data captured by the infrared image capturing unit 210 and outputs the infrared image data to the processing unit 130.

処理部130は、画像取得部110により取得された赤外線画像データのうちの撮像領域に対応した画像領域に対して、赤外線画像データに基づいて対象物の検出処理(テンプレートマッチング処理)を行い、検出処理の結果に基づいて表示用画像データを生成する。   The processing unit 130 performs object detection processing (template matching processing) on the image region corresponding to the imaging region in the infrared image data acquired by the image acquisition unit 110 based on the infrared image data, and performs detection. Display image data is generated based on the processing result.

処理部130は、テンプレートマッチング処理部131及び画像合成処理部132を含む。テンプレートマッチング処理部131は、画像取得部110からの赤外線画像データに基づいて、対象物を検出するためのテンプレートマッチング処理を行う。画像合成処理部132は、テンプレートマッチング処理結果に基づいて、赤外線画像にアラート表示(アラート記号)などを重畳する処理を行う。画像合成処理部132は、必要に応じて他の情報をさらに合成(重畳)する処理を行ってもよい。   The processing unit 130 includes a template matching processing unit 131 and an image composition processing unit 132. The template matching processing unit 131 performs template matching processing for detecting an object based on the infrared image data from the image acquisition unit 110. The image composition processing unit 132 performs processing for superimposing an alert display (alert symbol) or the like on the infrared image based on the template matching processing result. The image composition processing unit 132 may perform a process of further compositing (superimposing) other information as necessary.

画像取得部110及び処理部130は、例えばCPUなどのプロセッサーやゲートアレイなどのASICにより実現することができる。   The image acquisition unit 110 and the processing unit 130 can be realized by a processor such as a CPU or an ASIC such as a gate array, for example.

図4に示す第4の構成例のカメラ300によれば、赤外線カメラ(赤外線画像撮像部)210により撮像された赤外線画像データに基づいて検出処理(テンプレートマッチング処理)を行って、歩行者などの対象物を検出することができる。この赤外線画像データの画像領域は、画素密度が高い撮像領域IRHDに対応する画像領域と画素密度が低い撮像領域IRLDに対応する画像領域とを含む。こうすることで、赤外線画像データの画素数を低減させることができるから、検出処理における演算処理負担を低減することができる。   According to the camera 300 of the fourth configuration example shown in FIG. 4, a detection process (template matching process) is performed based on the infrared image data captured by the infrared camera (infrared image capturing unit) 210, and a pedestrian or the like is detected. An object can be detected. The image area of the infrared image data includes an image area corresponding to the imaging area IRHD having a high pixel density and an image area corresponding to the imaging area IRLD having a low pixel density. By doing so, it is possible to reduce the number of pixels of the infrared image data, and thus it is possible to reduce the calculation processing burden in the detection process.

例えば赤外線画像撮像部210の撮像領域において、歩行者などの対象物が撮像される可能性の高い領域を撮像領域IRHDに設定し、対象物が撮像される可能性が低い領域を撮像領域IRLDに設定することで、対象物の検出能力(検出精度)を低下させずに、演算処理負担を低減することができる。その結果、検出処理の処理時間を短縮したり、処理部130の回路構成を簡素にすることが可能になり、効率の良い制御システムを実現することなどが可能になる。   For example, in the imaging area of the infrared image capturing unit 210, an area where an object such as a pedestrian is likely to be imaged is set as the imaging area IRHD, and an area where the object is unlikely to be imaged is defined as the imaging area IRLD. By setting, it is possible to reduce the processing load without reducing the detection capability (detection accuracy) of the object. As a result, the processing time of the detection process can be shortened, the circuit configuration of the processing unit 130 can be simplified, and an efficient control system can be realized.

2.画素密度変更領域の設定及び検出処理
図5(A)〜図5(C)に、3つの走行状況における画素密度変更領域ARMDの設定例を示す。図5(A)は、例えば郊外の道路のように比較的スムーズに走行している状況において、設定パターンが第1の設定パターンに決定された場合の設定例である。図5(B)は、例えば市街地の道路を走行している状況において、設定パターンが第2の設定パターンに決定された場合の設定例である。図5(C)は、例えば山間部のように交通量の少ない道路を走行している状況において、設定パターンが第3の設定パターンに決定された場合の設定例である。図5(A)〜図5(C)は、各走行状況における赤外線画像の1フレーム(画面)であり、道路の左端LT、道路の右端RT、センターラインCLを示す。
2. Pixel Density Change Area Setting and Detection Processing FIGS. 5A to 5C show setting examples of the pixel density change area ARMD in three driving situations. FIG. 5A shows a setting example when the setting pattern is determined to be the first setting pattern in a situation where the vehicle is traveling relatively smoothly, such as a suburban road. FIG. 5B shows a setting example when the setting pattern is determined to be the second setting pattern in a situation where the vehicle is traveling on a city road, for example. FIG. 5C shows a setting example when the setting pattern is determined as the third setting pattern in a situation where the vehicle is traveling on a road with a small amount of traffic such as a mountainous area. FIG. 5A to FIG. 5C are one frame (screen) of an infrared image in each traveling situation, and show the left end LT of the road, the right end RT of the road, and the center line CL.

以下の説明において、車両に取り付けられた赤外線画像撮像部210(赤外線カメラ)からの赤外線画像において、鉛直方向(重力の方向)を「垂直方向」とし、鉛直方向と直交する方向を「水平方向」とする。或いは、道路面に対して垂直な方向を「垂直方向」とし、道路面に対して平行な方向を「水平方向」としてもよい。また、鉛直上向きを「上」、鉛直下向きを「下」とし、画像に向かって右手水平方向を「右」、左手水平方向を「左」とする。   In the following description, in the infrared image from the infrared image capturing unit 210 (infrared camera) attached to the vehicle, the vertical direction (the direction of gravity) is “vertical direction”, and the direction orthogonal to the vertical direction is “horizontal direction”. And Alternatively, the direction perpendicular to the road surface may be “vertical direction” and the direction parallel to the road surface may be “horizontal direction”. Further, the vertical upward direction is “up”, the vertical downward direction is “down”, the right-hand horizontal direction toward the image is “right”, and the left-hand horizontal direction is “left”.

図5(A)の第1の設定パターンの場合には、領域設定部120は、赤外線画像データに基づく画像領域を分割する境界線BLを用いて画像領域を区画する。例えば、図5(A)に示すように、境界線BLを水平方向に設定する。そして水平方向に設定された境界線BLにより分割された画像領域のうち、上側の画像領域(広義には一方の画像領域)を画素密度非変更領域ARNOに設定し、下側の画像領域(広義には他方の画像領域)を画素密度変更領域ARMDに設定する。   In the case of the first setting pattern shown in FIG. 5A, the area setting unit 120 divides the image area using a boundary line BL that divides the image area based on the infrared image data. For example, as shown in FIG. 5A, the boundary line BL is set in the horizontal direction. Of the image areas divided by the boundary line BL set in the horizontal direction, the upper image area (one image area in a broad sense) is set as the pixel density non-change area ARNO, and the lower image area (broad sense). Is set to the pixel density changing area ARMD.

図5(A)に示す走行状況では、夜間に肉眼で視認することが難しい遠方(例えば40m以上前方)の歩行者や自転車等を検出することが重要になる。そこで、水平方向に境界線BLを設定し、その境界線BLの上側の領域、即ち遠方の対象物が映し出される領域を画素密度非変更領域ARNOに設定する。一方、境界線BLの下側の領域は、画素密度変更領域ARMDに設定される。こうすることで、例えば道路を横断しようとする歩行者(図5(A)のA1)や自転車に乗った人(図5(A)のA2)を画素密度が高い赤外線画像データを用いて検出することができる。   In the traveling state shown in FIG. 5A, it is important to detect distant pedestrians (for example, 40 m or more ahead) and bicycles that are difficult to visually recognize at night. Therefore, a boundary line BL is set in the horizontal direction, and an area above the boundary line BL, that is, an area where a distant object is projected is set as a pixel density non-change area ARNO. On the other hand, the area below the boundary line BL is set to the pixel density change area ARMD. In this way, for example, a pedestrian (A1 in FIG. 5A) or a person riding a bicycle (A2 in FIG. 5A) who wants to cross the road is detected using infrared image data with a high pixel density. can do.

図5(B)の第2の設定パターンの場合には、領域設定部120は、赤外線画像データに基づく画像領域を3分割し互いに交差しない2本の境界線を用いて画像領域を区画する。例えば図5(B)に示すように、2本の境界線BL1、BL2を垂直方向に設定する。そして垂直方向に設定された境界線BL1、BL2により3分割された画像領域のうち、中央の画像領域(広義には2本の境界線で挟まれる画像領域)を画素密度変更領域ARMDに設定する。   In the case of the second setting pattern shown in FIG. 5B, the area setting unit 120 divides the image area based on the infrared image data into three and divides the image area using two boundary lines that do not intersect each other. For example, as shown in FIG. 5B, two boundary lines BL1 and BL2 are set in the vertical direction. Then, among the image areas divided into three by the boundary lines BL1 and BL2 set in the vertical direction, the central image area (image area sandwiched between two boundary lines in a broad sense) is set as the pixel density change area ARMD. .

図5(B)に示す走行状況では、対向車のヘッドライトにより幻惑されやすい近距離において、道路脇から飛び出してくる歩行者や自転車等を検出することが重要になる。そこで、垂直方向に第1、第2の境界線BL1、BL2を設定し、第1の境界線BL1の左側の領域と第2の境界線BL2の右側の領域とを共に画素密度非変更領域ARNOに設定する。一方、2つの境界線BL1、BL2に挟まれた領域、即ち中央の領域は、画素密度変更領域ARMDに設定される。こうすることで、例えば車両の直前を横断しようとする歩行者(図5(B)のB1)や自転車に乗った人(図5(B)のB2)を画素密度が高い赤外線画像データを用いて検出することができる。   In the driving situation shown in FIG. 5B, it is important to detect pedestrians, bicycles, and the like that jump out of the roadside at short distances that are easily obscured by the headlights of oncoming vehicles. Therefore, the first and second boundary lines BL1 and BL2 are set in the vertical direction, and the area on the left side of the first boundary line BL1 and the area on the right side of the second boundary line BL2 are both in the pixel density non-change area ARNO. Set to. On the other hand, a region sandwiched between two boundary lines BL1 and BL2, that is, a central region is set as a pixel density changing region ARMD. In this way, for example, a pedestrian (B1 in FIG. 5B) or a person riding a bicycle (B2 in FIG. 5B) who wants to cross the vehicle is used infrared image data with a high pixel density. Can be detected.

図5(C)の第3の設定パターンの場合には、領域設定部120は、赤外線画像データに基づく画像領域において一部の領域を囲む閉曲線を境界線として用いて画像領域を区画する。例えば図5(B)に示すように、閉曲線である境界線BLを画像領域の中央部に設定する。そして閉曲線の外側の画像領域を画素密度変更領域ARMDに設定する。ここで閉曲線とは、閉じた図形であればよく、例えば多角形であってもよい。   In the case of the third setting pattern shown in FIG. 5C, the area setting unit 120 divides the image area using a closed curve surrounding a part of the image area based on the infrared image data as a boundary line. For example, as shown in FIG. 5B, a boundary line BL that is a closed curve is set at the center of the image area. Then, the image area outside the closed curve is set as the pixel density changing area ARMD. Here, the closed curve may be a closed figure, for example, a polygon.

図5(C)に示す走行状況では、車両速度が速いことを考慮して、より遠方(例えば100m以上前方)の対象物を検出することが重要になる。そこで、画面の中央部などの限定された領域を画素密度非変更領域ARNOに設定し、それ以外の領域(画面の周辺部)を画素密度変更領域ARMDに設定する。こうすることで、例えば車両の遠方を横断しようとする歩行者(図5(C)のC1)等を画素密度が高い赤外線画像データを用いて検出することができる。   In the traveling situation shown in FIG. 5C, it is important to detect a farther object (for example, 100 m or more ahead) in consideration of the high vehicle speed. Therefore, a limited area such as the center of the screen is set as the pixel density non-change area ARNO, and the other area (peripheral area of the screen) is set as the pixel density change area ARMD. By doing so, it is possible to detect, for example, a pedestrian (C1 in FIG. 5C) or the like who wants to cross a distant place of the vehicle using infrared image data having a high pixel density.

なお、境界線の位置は固定ではなく、例えば車両の速度情報やヘッドライトの制御情報などに基づいて可変に設定することができる。具体的には、例えば図5(A)において、車両速度が速いほど境界線の位置を画面の上方にシフトさせてもよいし、或いは、ヘッドライトをハイビームに切り換えた時に、境界線の位置を画面の上方にシフトさせ、ロービームに切り換えた時に、境界線の位置を画面の下方にシフトさせてもよい。   The position of the boundary line is not fixed, and can be variably set based on, for example, vehicle speed information or headlight control information. Specifically, for example, in FIG. 5A, the position of the boundary line may be shifted upward as the vehicle speed increases, or the position of the boundary line is changed when the headlight is switched to a high beam. When shifting to the upper part of the screen and switching to the low beam, the position of the boundary line may be shifted to the lower part of the screen.

また、ユーザー(ドライバー)による入力情報に基づいて、境界線の位置、形状等を可変に設定することもできる。具体的には、ドライバーが交通状況に応じて境界線設定情報を入力することにより、例えば図5(B)において、2つの境界線BL1、BL2の位置を左方又は右方にシフトさせたり、例えば図5(C)において、画面中央部の閉曲線(境界線)BLの位置又は大きさを変化させたりすることができる。   Further, the position, shape, and the like of the boundary line can be variably set based on information input by the user (driver). Specifically, when the driver inputs boundary line setting information according to traffic conditions, for example, in FIG. 5B, the positions of the two boundary lines BL1 and BL2 are shifted to the left or right, For example, in FIG. 5C, the position or size of the closed curve (boundary line) BL at the center of the screen can be changed.

図6(A)、図6(B)、図7は、画像処理装置100の第1の構成例(図1)による画素密度低減処理(画素の間引き処理)を説明する図である。これらの図では、赤外線画像撮像部210から取得された1画面(フレーム)分の赤外線画像データが、12行×14列の画素に対応する場合を例として説明する。なお、以下の説明では、例えば第2行第3列の画素をP(2,3)と表記する。また、画素P(2,3)の画像データを読み出し、その画像データをメモリー133に記憶することを、便宜的に「P(2,3)を読み出す」と表記する。   FIGS. 6A, 6 </ b> B, and 7 are diagrams illustrating pixel density reduction processing (pixel thinning-out processing) according to the first configuration example (FIG. 1) of the image processing apparatus 100. In these drawings, a case where infrared image data for one screen (frame) acquired from the infrared image capturing unit 210 corresponds to pixels of 12 rows × 14 columns will be described as an example. In the following description, for example, the pixel in the second row and the third column is expressed as P (2,3). Further, reading the image data of the pixel P (2,3) and storing the image data in the memory 133 is referred to as “reading P (2,3)” for convenience.

図6(A)は、垂直方向に設定された2つの境界線BL1、BL2により分割された領域のうち、左側の領域と右側の領域とを共に画素密度非変更領域ARNOに設定し、中央の領域(2つの境界線BL1、BL2により挟まれた領域)を画素密度変更領域ARMDに設定する場合である。処理部130は、以下のように画素の間引き処理を行ってメモリー133に画像データを記憶する。なお、境界線BL1、BL2の位置は、図示したものに限定されず、他の位置に設定されてもよい。   In FIG. 6A, among the regions divided by the two boundary lines BL1 and BL2 set in the vertical direction, both the left region and the right region are set as the pixel density non-change region ARNO, This is a case where a region (a region sandwiched between two boundary lines BL1 and BL2) is set as the pixel density changing region ARMD. The processing unit 130 performs pixel thinning processing as follows and stores the image data in the memory 133. Note that the positions of the boundary lines BL1 and BL2 are not limited to those illustrated, and may be set to other positions.

処理部130は、第1行の画素P(1,1)からP(1,4)までを順番に読み出す。次にP(1,5)を読み出さずにスキップして、P(1,6)を読み出す。次にP(1,7)を読み出さずにスキップして、P(1,8)を読み出す。次にP(1,9)を読み出さずにスキップして、P(1,10)を読み出す。そしてP(1,11)からP(1,14)までを順番に読み出す。次に第2行の画素については、P(2,1)〜P(2,4)を読み出し、P(2,5)〜P(2,10)をスキップし、P(2,11)〜P(2,14)を読み出す。そして第3行の画素については、1行目と同様に、P(3,1)〜P(3,4)、P(3,6)、P(3,8)、P(3,10)、P(3,11)〜P(3,14)を読み出し、これ以外の画素をスキップする。第4行以降についても、上記と同様に画素の間引き処理を行う。   The processing unit 130 sequentially reads pixels P (1,1) to P (1,4) in the first row. Next, P (1,5) is skipped without reading, and P (1,6) is read. Next, skip P (1,7) without reading P (1,8). Next, P (1,9) is skipped without reading, and P (1,10) is read. Then, P (1,11) to P (1,14) are read in order. Next, for the pixels in the second row, P (2,1) to P (2,4) are read, P (2,5) to P (2,10) are skipped, and P (2,11) to Read P (2,14). For the pixels in the third row, as in the first row, P (3,1) to P (3,4), P (3,6), P (3,8), P (3,10) , P (3, 11) to P (3, 14) are read, and other pixels are skipped. For the fourth and subsequent rows, pixel thinning processing is performed in the same manner as described above.

このようにすることで、図6(A)に示すように、画素密度非変更領域ARNOについては画素が間引かれず、画素密度変更領域ARMDについては画素数が1/4に減少し、即ち画素密度が1/4に低減される。図6(A)で網掛けされた画素に対応する画像データがメモリー133に記憶される。   By doing so, as shown in FIG. 6A, the pixels are not thinned out for the pixel density non-change region ARNO, and the number of pixels is reduced to ¼ for the pixel density change region ARMD. Density is reduced to 1/4. Image data corresponding to the pixels shaded in FIG. 6A is stored in the memory 133.

図6(B)は、水平方向に設定された境界線BLの上側の領域を画素密度非変更領域ARNOに設定し、境界線BLの下側の領域を画素密度変更領域ARMDに設定する場合である。処理部130は、以下のように画素の間引き処理を行ってメモリー133に画像データを記憶する。なお、境界線BLの位置は、図示したものに限定されず、他の位置に設定されてもよい。   FIG. 6B shows a case where the area above the boundary line BL set in the horizontal direction is set as the pixel density non-change area ARNO, and the area below the boundary line BL is set as the pixel density change area ARMD. is there. The processing unit 130 performs pixel thinning processing as follows and stores the image data in the memory 133. Note that the position of the boundary line BL is not limited to the illustrated one, and may be set to another position.

処理部130は、画素密度非変更領域ARNOについては、間引き処理を行わずに第1行から第6行までの画素を順番に読み出す。そして画素密度変更領域ARMDについては、奇数行では1つおきに画素を読み出し、偶数行では全ての画素をスキップする。例えば第7行では、P(7,2)、P(7,4)、P(7,6)、P(7,8)、P(7,10)、P(7,12)、P(7,14)が読み出され、第8行では全ての画素がスキップされる。   For the pixel density non-change area ARNO, the processing unit 130 sequentially reads out pixels from the first row to the sixth row without performing the thinning process. As for the pixel density changing region ARMD, every other pixel is read out in the odd-numbered rows, and all pixels are skipped in the even-numbered rows. For example, in the seventh row, P (7,2), P (7,4), P (7,6), P (7,8), P (7,10), P (7,12), P ( 7, 14) are read out and all pixels are skipped in the eighth row.

このようにすることで、図6(B)に示すように、画素密度非変更領域ARNOについては画素が間引かれず、画素密度変更領域ARMDについては画素数が1/4に減少し、即ち画素密度が1/4に低減される。図6(B)で網掛けされた画素に対応する画像データがメモリー133に記憶される。   By doing so, as shown in FIG. 6B, the pixels are not thinned out for the pixel density non-change area ARNO, and the number of pixels is reduced to ¼ for the pixel density change area ARMD. Density is reduced to 1/4. Image data corresponding to the shaded pixels in FIG. 6B is stored in the memory 133.

図7は、中央部に設定された境界線BLに取り囲まれた領域を画素密度非変更領域ARNOに設定し、中央部に設定された境界線BLの外側の領域を画素密度変更領域ARMDに設定する場合である。処理部130は、以下のように画素の間引き処理を行ってメモリー133に画像データを記憶する。なお、境界線BLの位置は、図示したものに限定されず、他の位置に設定されてもよい。   In FIG. 7, the area surrounded by the boundary line BL set at the center is set as the pixel density non-change area ARNO, and the area outside the boundary line BL set at the center is set as the pixel density change area ARMD. This is the case. The processing unit 130 performs pixel thinning processing as follows and stores the image data in the memory 133. Note that the position of the boundary line BL is not limited to the illustrated one, and may be set to another position.

処理部130は、画素密度非変更領域ARNOについては、全ての画素を読み出す。そして画素密度変更領域ARMDについては、奇数行では1つおきに画素を読み出し、偶数行では全ての画素をスキップする。例えば第1行では、P(1,2)、P(1,4)、P(1,6)、P(1,8)、P(1,10)、P(1,12)、P(1,14)が読み出され、第2行では全ての画素がスキップされる。第5行では、P(5,2)、P(5,4)、P(5,5)〜P(5,10)、P(5,12)、P(5,14)が読み出される。   The processing unit 130 reads all the pixels for the pixel density non-change area ARNO. As for the pixel density changing region ARMD, every other pixel is read out in the odd-numbered rows, and all pixels are skipped in the even-numbered rows. For example, in the first row, P (1,2), P (1,4), P (1,6), P (1,8), P (1,10), P (1,12), P ( 1,14) is read and all pixels are skipped in the second row. In the fifth row, P (5,2), P (5,4), P (5,5) to P (5,10), P (5,12), and P (5,14) are read.

このようにすることで、図7に示すように、画素密度非変更領域ARNOについては画素が間引かれず、画素密度変更領域ARMDについては画素数が1/4に減少し、即ち画素密度が1/4に低減される。図7で網掛けされた画素に対応する画像データがメモリー133に記憶される。   By doing so, as shown in FIG. 7, the pixels are not thinned out for the pixel density non-change area ARNO, and the number of pixels is reduced to ¼ for the pixel density change area ARMD, that is, the pixel density is 1 Reduced to / 4. Image data corresponding to the pixels shaded in FIG. 7 is stored in the memory 133.

図8(A)、図8(B)、図9(A)、図9(B)は、画像処理装置100の第2の構成例(図2)による画素密度低減処理(画素混合演算処理)を説明する図である。これらの図では、赤外線画像撮像部210から取得された1画面(フレーム)分の赤外線画像データが、12行×14列の画素に対応する場合を例として説明する。なお、以下の説明では、例えば第2行第3列の画素をP(2,3)と表記する。   8A, FIG. 8B, FIG. 9A, and FIG. 9B are pixel density reduction processing (pixel mixture calculation processing) according to the second configuration example (FIG. 2) of the image processing apparatus 100. FIG. FIG. In these drawings, a case where infrared image data for one screen (frame) acquired from the infrared image capturing unit 210 corresponds to pixels of 12 rows × 14 columns will be described as an example. In the following description, for example, the pixel in the second row and the third column is expressed as P (2,3).

図8(A)に示すように、始めに処理部130は、全ての画素を読み出して、画像データをメモリー135に記憶する。そして以下に説明するように、画素混合演算処理を行って、その結果をメモリー133に記憶する。   As shown in FIG. 8A, first, the processing unit 130 reads out all the pixels and stores the image data in the memory 135. Then, as described below, the pixel mixture calculation process is performed, and the result is stored in the memory 133.

図8(B)は、垂直方向に設定された2つの境界線BL1、BL2により分割された領域のうち、左側の領域と右側の領域とを共に画素密度非変更領域ARNOに設定し、中央の領域(2つの境界線BL1、BL2により挟まれた領域)を画素密度変更領域ARMDに設定する場合である。なお、境界線BL1、BL2の位置は、図示したものに限定されず、他の位置に設定されてもよい。   In FIG. 8B, among the areas divided by the two boundary lines BL1 and BL2 set in the vertical direction, both the left area and the right area are set as the pixel density non-change area ARNO. This is a case where a region (a region sandwiched between two boundary lines BL1 and BL2) is set as the pixel density changing region ARMD. Note that the positions of the boundary lines BL1 and BL2 are not limited to those illustrated, and may be set to other positions.

処理部130は、画素密度非変更領域ARNOについては画素混合演算処理を行わずに、画像データをそのままメモリー133に記憶する。一方、画素密度変更領域ARMDについては、4つの画素の画像データを混合演算処理し、その結果を1つの画素の画像データとしてメモリー133に記憶する。例えば、4つの画素P(1,7)、P(2,7)、P(1,8)、P(2,8)について画像データを混合演算処理し、その結果を1つの画素P(1,8)の画像データとしてメモリー133に記憶する。図8(B)では、混合演算処理の単位となる4つの画素をA、B、C、Dで示し、処理結果を画素Dの画像データとしてメモリー133に記憶する。このようにすることで、画素密度非変更領域ARNOについては画素密度が変化せず、画素密度変更領域ARMDについては画素数が1/4に減少し、即ち画素密度が1/4に低減される。   The processing unit 130 stores the image data as it is in the memory 133 without performing the pixel mixture calculation process for the pixel density non-change area ARNO. On the other hand, for the pixel density changing region ARMD, the image data of the four pixels is subjected to the mixing calculation process, and the result is stored in the memory 133 as the image data of one pixel. For example, image data is mixed and processed for four pixels P (1,7), P (2,7), P (1,8), and P (2,8), and the result is displayed as one pixel P (1 , 8) is stored in the memory 133 as image data. In FIG. 8B, four pixels as units of the mixing calculation process are indicated by A, B, C, and D, and the processing result is stored in the memory 133 as image data of the pixel D. By doing so, the pixel density does not change for the pixel density non-change area ARNO, and the number of pixels for the pixel density change area ARMD is reduced to ¼, that is, the pixel density is reduced to ¼. .

図9(A)は、水平方向に設定された境界線BLの上側の領域を画素密度非変更領域ARNOに設定し、境界線BLの下側の領域を画素密度変更領域ARMDに設定する場合である。なお、境界線BLの位置は、図示したものに限定されず、他の位置に設定されてもよい。   FIG. 9A shows a case where the area above the boundary line BL set in the horizontal direction is set as the pixel density non-change area ARNO, and the area below the boundary line BL is set as the pixel density change area ARMD. is there. Note that the position of the boundary line BL is not limited to the illustrated one, and may be set to another position.

この場合も図8(B)と同様に、処理部130は、画素密度非変更領域ARNOについては画素混合演算処理を行わずに、画像データをそのままメモリー133に記憶する。一方、画素密度変更領域ARMDについては、4つの画素の画像データを混合演算処理し、その結果を1つの画素の画像データとしてメモリー133に記憶する。例えば、4つの画素P(9,1)、P(10,1)、P(9,2)、P(10,2)について画像データを混合演算処理し、その結果を1つの画素P(9,2)の画像データとしてメモリー133に記憶する。このようにすることで、画素密度非変更領域ARNOについては画素密度が変化せず、画素密度変更領域ARMDについては画素数が1/4に減少し、即ち画素密度が1/4に低減される。   Also in this case, as in FIG. 8B, the processing unit 130 stores the image data as it is in the memory 133 without performing the pixel mixture calculation process for the pixel density non-change region ARNO. On the other hand, for the pixel density changing region ARMD, the image data of the four pixels is subjected to the mixing calculation process, and the result is stored in the memory 133 as the image data of one pixel. For example, the image data is mixed and processed for four pixels P (9, 1), P (10, 1), P (9, 2), and P (10, 2), and the result is converted into one pixel P (9 , 2) is stored in the memory 133 as image data. By doing so, the pixel density does not change for the pixel density non-change area ARNO, and the number of pixels for the pixel density change area ARMD is reduced to ¼, that is, the pixel density is reduced to ¼. .

図9(B)は、中央部に設定された境界線BLに取り囲まれた領域を画素密度非変更領域ARNOに設定し、中央部に設定された境界線BLの外側の領域を画素密度変更領域ARMDに設定する場合である。なお、境界線BLの位置は、図示したものに限定されず、他の位置に設定されてもよい。   In FIG. 9B, the area surrounded by the boundary line BL set at the center is set as the pixel density non-change area ARNO, and the area outside the boundary line BL set at the center is the pixel density change area. This is a case of setting to ARMD. Note that the position of the boundary line BL is not limited to the illustrated one, and may be set to another position.

この場合も図8(B)、図9(A)と同様に、処理部130は、画素密度非変更領域ARNOについては画素混合演算処理を行わずに、画像データをそのままメモリー133に記憶する。一方、画素密度変更領域ARMDについては、4つの画素の画像データを混合演算処理し、その結果を1つの画素の画像データとしてメモリー133に記憶する。例えば、4つの画素P(1,1)、P(2,1)、P(1,2)、P(2,2)について画像データを混合演算処理し、その結果を1つの画素P(1,2)の画像データとしてメモリー133に記憶する。このようにすることで、画素密度非変更領域ARNOについては画素密度が変化せず、画素密度変更領域ARMDについては画素数が1/4に減少し、即ち画素密度が1/4に低減される。   Also in this case, as in FIGS. 8B and 9A, the processing unit 130 stores the image data as it is in the memory 133 without performing the pixel mixture calculation process for the pixel density non-change area ARNO. On the other hand, for the pixel density changing region ARMD, the image data of the four pixels is subjected to the mixing calculation process, and the result is stored in the memory 133 as the image data of one pixel. For example, the image data is mixed and processed for four pixels P (1,1), P (2,1), P (1,2), and P (2,2), and the result is converted into one pixel P (1 , 2) is stored in the memory 133 as image data. By doing so, the pixel density does not change for the pixel density non-change area ARNO, and the number of pixels for the pixel density change area ARMD is reduced to ¼, that is, the pixel density is reduced to ¼. .

以上説明した画素混合演算処理によれば、4つの画素A、B、C、Dの画像データを混合して1つの画素Dの画像データとするから、1つの画素Dの感度を等価的に4倍にすることになる。従って、画素密度変更領域ARMDにおいて、画素密度が1/4になっても、単位面積当たりの感度(赤外線検出感度)は変化しない。   According to the pixel mixture calculation processing described above, the image data of the four pixels A, B, C, and D are mixed to form the image data of one pixel D. Therefore, the sensitivity of one pixel D is equivalent to 4 Will be doubled. Therefore, in the pixel density changing region ARMD, even when the pixel density is ¼, the sensitivity per unit area (infrared detection sensitivity) does not change.

図10は、本実施形態の画像処理装置100等における検出処理(テンプレートマッチング処理)のフローチャートである。このテンプレートマッチング処理は、処理部130に含まれるテンプレートマッチング処理部131により実行される。   FIG. 10 is a flowchart of detection processing (template matching processing) in the image processing apparatus 100 or the like according to this embodiment. This template matching process is executed by the template matching processing unit 131 included in the processing unit 130.

最初のステップS1で、処理に必要なパラメーターの初期設定を行う。次のステップS2で、画像取得部110が赤外線カメラ(赤外線画像撮像部)210からの赤外線画像を取得する。そして次のステップ3では、領域設定部120からの境界線設定情報に基づいて、赤外線画像(熱画像)データの1フレーム(1画面)分のデータ毎に画素密度変更領域ARMDが設定され、画素密度変更領域ARMDの画像データに対して画素密度の低減処理が実行される。なお、カメラ300の第4の構成例(図4)の場合には、赤外線画像撮像部210から取得された画像データが、画素密度が高い撮像領域IRHDに対応する画像領域と画素密度が低い撮像領域IRLDに対応する画像領域とを含むから、このステップ3を省略してもよい。   In the first step S1, parameters necessary for processing are initialized. In the next step S <b> 2, the image acquisition unit 110 acquires an infrared image from the infrared camera (infrared image capturing unit) 210. In the next step 3, a pixel density change region ARMD is set for each frame (one screen) of infrared image (thermal image) data based on the boundary line setting information from the region setting unit 120, and the pixel A pixel density reduction process is performed on the image data in the density change area ARMD. Note that in the case of the fourth configuration example (FIG. 4) of the camera 300, the image data acquired from the infrared image capturing unit 210 has an image area corresponding to the image area IRHD with a high pixel density and an image with a low pixel density. This step 3 may be omitted because it includes the image area corresponding to the area IRLD.

次にステップS4では、画素密度低減処理後の赤外線画像データから検出候補領域を抽出する。具体的には、対象物の特徴を表す温度領域を塊として抽出する。ここでは例として、先行車両及び歩行者(人物)を検出対象とする場合について説明する。これ以外のものを検出の対象とする場合には、その対象が有する温度情報を特徴量として、それぞれ本ステップにおいて処理対象に加えればよい。   Next, in step S4, a detection candidate area is extracted from the infrared image data after the pixel density reduction process. Specifically, a temperature region representing the characteristics of the object is extracted as a lump. Here, as an example, a case where a preceding vehicle and a pedestrian (person) are set as detection targets will be described. When a target other than this is set as a detection target, the temperature information of the target may be added as a feature amount to the processing target in this step.

先行車両の場合は、マフラー領域が100°C程度の高温になることを利用して、赤外線画像中から例えば80°C以上の温度情報を有する領域を探索して、その領域の位置情報と温度情報を検出する。   In the case of a preceding vehicle, by using the fact that the muffler region becomes a high temperature of about 100 ° C, a region having temperature information of, for example, 80 ° C or more is searched from the infrared image, and the position information and temperature of the region are searched. Detect information.

一方、歩行者の場合は、露出している顔及び首の表面温度が30°C程度の中温になることを利用して、熱画像中から例えば30°C程度の温度情報を有する領域を探索して、その領域の位置情報と温度情報を検出する。ここで、各領域で検出される結果のうち、位置情報としては例えば塊の重心座標位置とすればよく、温度情報としては例えば塊の平均温度とすればよい。また重心座標位置以外に、縦横比、充足率、実面積などの条件を満たす部位の存在を調べる。これによって、歩行者の存在位置を画面上の2次元座標上で画面全体の幅と高さに対する割合で求める。   On the other hand, in the case of a pedestrian, using the fact that the surface temperature of the exposed face and neck becomes a medium temperature of about 30 ° C, a region having temperature information of about 30 ° C is searched from the thermal image. Then, position information and temperature information of the area are detected. Here, among the results detected in each region, the position information may be, for example, the barycentric coordinate position of the lump, and the temperature information may be, for example, the average temperature of the lump. In addition to the center-of-gravity coordinate position, the existence of a part satisfying conditions such as the aspect ratio, the sufficiency rate, and the actual area is examined. As a result, the position of the pedestrian is obtained as a ratio to the width and height of the entire screen on the two-dimensional coordinates on the screen.

そして、ステップS5では、ステップS4で得られた各領域の位置情報と温度情報を対応付けした位置及び温度リストを作成して以降の処理に進む。   In step S5, a position and temperature list in which the position information and temperature information of each region obtained in step S4 are associated is created, and the process proceeds to the subsequent processes.

次のステップS6では、ステップS5で作成したリストに基づいて、検出候補があるか否か、即ち検出対象である先行車や歩行者の特徴量を示す温度情報が抽出されているか否かを判断する。リスト内に対象物の候補が1つも抽出されていない場合には、今回の赤外線画像の中には検出対象である先行車や歩行者が存在しないものと判断して、次のフレーム(画面)の処理のためにステップS2に戻る。   In the next step S6, based on the list created in step S5, it is determined whether or not there is a detection candidate, that is, whether or not temperature information indicating the feature amount of the preceding vehicle or pedestrian that is the detection target is extracted. To do. If no candidate object is extracted from the list, it is determined that there is no preceding vehicle or pedestrian to be detected in the current infrared image, and the next frame (screen) The process returns to step S2 for the process.

一方、リスト内に対象物の候補が1つ以上抽出されている場合には、次のステップS7で検出候補領域(存在候補領域)を設定し、続くステップS8で、ステップS5で作成したリストの温度情報に基づいて、以降の処理で用いるためのテンプレート候補を選択する。具体的には、その検出候補領域の平均温度情報±ΔTの範囲内の値を持つテンプレートを、1つの検出候補領域内での対象物検出に用いるテンプレート候補とする。   On the other hand, if one or more candidate objects are extracted from the list, a detection candidate area (existing candidate area) is set in the next step S7, and the list created in step S5 is set in the subsequent step S8. Based on the temperature information, a template candidate to be used in the subsequent processing is selected. Specifically, a template having a value within the range of the average temperature information ± ΔT of the detection candidate area is set as a template candidate used for object detection within one detection candidate area.

例えば、先行車存在候補領域に用いるテンプレートとして選択されるのは、温度情報が100±3°Cのテンプレートである。但し、高温部分については、通常の走行環境内では特殊な存在であるため、予め例えば80°C以上の領域をテンプレートとして選択してもよい。一方、歩行者存在候補領域に用いるテンプレートとして選択されるのは、温度情報が28±3°Cのテンプレートである。高温部分については、外気温の影響等を考えると、同一の物体でも所定の範囲では温度が変化することを考慮する必要がある。また、上記の例では中温情報を有する対象物を歩行者としているが、例えば動物(犬等)と区別するためには、本ステップで動物のテンプレートも候補として選択される。   For example, a template having temperature information of 100 ± 3 ° C. is selected as a template used for the preceding vehicle presence candidate region. However, since the high temperature portion is special in the normal driving environment, an area of 80 ° C. or more may be selected in advance as a template. On the other hand, a template having a temperature information of 28 ± 3 ° C. is selected as a template used for the pedestrian presence candidate region. Regarding the high temperature part, it is necessary to consider that the temperature changes within a predetermined range even for the same object in consideration of the influence of the outside air temperature. In the above example, the object having intermediate temperature information is a pedestrian, but in order to distinguish it from an animal (such as a dog), an animal template is also selected as a candidate in this step.

このようにして検出候補領域毎に最適なテンプレートを決定し、次のステップS9では決定されたテンプレートを用いて、検出処理(テンプレートマッチング処理)を行う。即ち、赤外画像中でテンプレートマッチング処理を行い、各検出候補領域内での最終的な対象物の有無及びその位置を検出する。本ステップでは、先行車存在候補領域から先行車を検出する場合には、車体テンプレートを用いて、先行車存在候補領域と車体テンプレートでの濃度値(濃淡値)の相関演算によって先行車両の有無とその詳細な位置を検出する。また、歩行者存在候補領域から歩行者を検出する場合には、歩行者存在候補領域と人テンプレートでの濃度値の相関演算によって歩行者の有無とその詳細な位置を検出する。   In this way, an optimal template is determined for each detection candidate region, and in the next step S9, detection processing (template matching processing) is performed using the determined template. That is, template matching processing is performed in the infrared image to detect the final presence or absence of the target object and its position in each detection candidate region. In this step, when a preceding vehicle is detected from the preceding vehicle presence candidate area, the presence / absence of the preceding vehicle is determined by the correlation calculation of the density value (gray value) in the preceding vehicle existence candidate area and the body template using the body template. The detailed position is detected. Further, when detecting a pedestrian from the pedestrian presence candidate area, the presence / absence of the pedestrian and its detailed position are detected by correlation calculation between the pedestrian existence candidate area and the density value in the human template.

なお、上記の説明では、テンプレートマッチング処理時にテンプレートマッチング処理を濃度値での相関演算で行っているが、本実施形態の画像処理装置100等は、これに限定されるものではなく、例えばエッジ画像をテンプレートとして持っておき、この相関値で最終的な対象物の有無とその位置を検出するようにしてもよい。   In the above description, the template matching process is performed by the correlation calculation using the density value during the template matching process. However, the image processing apparatus 100 according to the present embodiment is not limited to this, for example, an edge image. As a template, and the presence / absence of the final object and its position may be detected by this correlation value.

次に、ステップS10では、ステップS5で作成されたリストにある検出候補領域の全てに対して検出処理が行われたかどうかを判断する。全ての検出候補領域に対して処理が終了していなければ、処理領域を切り替えるために、ステップS7に戻り、次の検出候補領域の設定を行う。リストにある領域の全てについて処理が終了していれば、それまでの処理結果を出力するために次のステップS11へ進む。   Next, in step S10, it is determined whether or not detection processing has been performed for all of the detection candidate regions in the list created in step S5. If the processing has not been completed for all detection candidate areas, the process returns to step S7 in order to switch the processing areas, and the next detection candidate area is set. If the processing has been completed for all the areas in the list, the process proceeds to the next step S11 in order to output the processing results up to that point.

ステップS11では、テンプレートマッチング処理部131が上述した検出結果を画像合成処理部132に出力する。対象物が検出された場合には、画像合成処理部132は、アラート表示を可視画像に重畳する処理を行って、表示部230に出力する。   In step S <b> 11, the template matching processing unit 131 outputs the detection result described above to the image composition processing unit 132. When the target is detected, the image composition processing unit 132 performs processing for superimposing the alert display on the visible image, and outputs it to the display unit 230.

本実施形態の画像処理装置100等によれば、処理部130は、画素密度変更領域ARMDと画素密度変更領域以外の領域(即ち、画素密度非変更領域ARNO)とでは、対象物を検出するための検出処理の内容を異ならせることができる。具体的には、例えばステップS8のテンプレート選択において、画素密度非変更領域ARNOの検出候補領域に対しては精度(解像度)の高いテンプレートを選択し、画素密度変更領域ARMDの検出候補領域に対しては精度(解像度)の低いテンプレートを選択することができる。こうすることで、画素密度非変更領域ARNOに対しては精度の高い検出処理が可能になり、画素密度変更領域ARMDに対しては、精度は低下するが処理時間を短縮することができるから、より効率的な検出処理(テンプレートマッチング処理)を行うことができる。   According to the image processing apparatus 100 and the like of the present embodiment, the processing unit 130 detects an object in the pixel density change region ARMD and the region other than the pixel density change region (that is, the pixel density non-change region ARNO). The contents of the detection process can be made different. Specifically, for example, in the template selection in step S8, a template with high accuracy (resolution) is selected for the detection candidate area of the pixel density non-change area ARNO, and the detection candidate area of the pixel density change area ARMD is selected. Can select a template with low accuracy (resolution). By doing so, a highly accurate detection process can be performed for the pixel density non-change area ARNO, and for the pixel density change area ARMD, the processing time can be shortened although the accuracy is reduced. More efficient detection processing (template matching processing) can be performed.

また本実施形態の画像処理装置100等によれば、処理部130は、画素密度変更領域以外の領域(画素密度非変更領域ARNO)での検出処理の結果に基づいて、画素密度変更領域ARMDでの検出処理を行うことができる。具体的には、処理部130は、画素密度非変更領域ARNOでの検出処理で得られた対象物の動きベクトルに基づいて、画素密度変更領域ARMDでの検出処理を行うことができる。この動きベクトルは、例えば歩行者など対象物が移動する場合に、対象物が移動する速さ及び方向を表すベクトルである。   Further, according to the image processing apparatus 100 or the like of the present embodiment, the processing unit 130 uses the detection processing result in the area other than the pixel density change area (pixel density non-change area ARNO) in the pixel density change area ARMD. Can be detected. Specifically, the processing unit 130 can perform the detection process in the pixel density change area ARMD based on the motion vector of the object obtained by the detection process in the pixel density non-change area ARNO. This motion vector is a vector that represents the speed and direction in which the object moves when the object such as a pedestrian moves.

例えば、図5(B)のB1に示すように、画素密度非変更領域ARNOで歩行者が検出された場合に、この歩行者の動きベクトルが右方向に向いている時には、処理部130は、この動きベクトルに基づいて歩行者が画素密度変更領域ARMDに移動することを予測できる。そして予め歩行者の移動先に歩行者存在候補領域を設定し、人テンプレートを選択しておくことができる。こうすることで、画素密度変更領域ARMDでの歩行者の検出処理時間を短縮することができる。   For example, as illustrated in B1 of FIG. 5B, when a pedestrian is detected in the pixel density non-change area ARNO, when the pedestrian's motion vector is directed rightward, the processing unit 130 Based on this motion vector, it can be predicted that the pedestrian moves to the pixel density changing region ARMD. And a pedestrian presence candidate area | region can be preset and the person template can be selected in the movement destination of a pedestrian. By doing so, it is possible to shorten the pedestrian detection processing time in the pixel density changing region ARMD.

さらに本実施形態の画像処理装置100等によれば、処理部130は、画素密度非変更領域ARNOで対象物が検出され、対象物が画素密度変更領域ARMDに移動すると予測された場合には、画素密度変更領域ARMDにおいて、予測されない場合に比べて画素密度が高い赤外線画像データに基づいて、検出処理を行うことができる。   Furthermore, according to the image processing apparatus 100 or the like of the present embodiment, the processing unit 130 detects an object in the pixel density non-change area ARNO and predicts that the object moves to the pixel density change area ARMD. In the pixel density change area ARMD, detection processing can be performed based on infrared image data having a higher pixel density than that in a case where the pixel density change area ARMD is not predicted.

画素密度非変更領域ARNOで対象物が検出された場合に、対象物が画素密度変更領域ARMDに移動するか否かの予測は、例えばその対象物の動きベクトルなどに基づいて、処理部130の判定処理により実行される。   When an object is detected in the pixel density non-change area ARNO, whether or not the object moves to the pixel density change area ARMD is predicted based on, for example, the motion vector of the object. It is executed by the determination process.

例えば、図5(B)のB1に示すように、画素密度非変更領域ARNOで歩行者が検出され、右方向への動きベクトルなどに基づいて、歩行者が画素密度変更領域ARMDに移動することを予測する判定処理が行われた場合には、処理部130は、画素密度変更領域ARMDの赤外線画像データに対して画素密度低減処理を行わない(省略する)ことができる。こうすることで、画素密度変更領域ARMDに移動した対象物(歩行者など)に対しても、画素密度非変更領域ARNOと同じ画素密度(広義には対象物が画素密度変更領域ARMDに移動すると予測されない場合に比べて高い画素密度)を有する赤外線画像データに基づいて検出処理を行うことができるから、より正確に対象物の位置を検出することができる。   For example, as indicated by B1 in FIG. 5B, a pedestrian is detected in the pixel density non-change area ARNO, and the pedestrian moves to the pixel density change area ARMD based on a motion vector in the right direction. When the determination process for predicting is performed, the processing unit 130 may not perform (omit) the pixel density reduction process on the infrared image data in the pixel density change region ARMD. By doing so, the same pixel density as the pixel density non-change area ARNO (in a broad sense, the object moves to the pixel density change area ARMD) even for an object (such as a pedestrian) moved to the pixel density change area ARMD. Since the detection process can be performed based on infrared image data having a higher pixel density than in a case where it is not predicted, the position of the object can be detected more accurately.

図11(A)〜図11(C)に、3つの走行状況におけるアラート表示の例を示す。図11(A)〜図11(C)は、表示部230に表示された画像を示し、上述した第1の走行状況(図5(A))、第2の走行状況(図5(B))、第3の走行状況(図5(C))にそれぞれ対応する。   FIGS. 11A to 11C show examples of alert display in three driving situations. 11 (A) to 11 (C) show images displayed on the display unit 230, and the first traveling situation (FIG. 5 (A)) and the second traveling situation (FIG. 5 (B)) described above. ), Respectively corresponding to the third traveling situation (FIG. 5C).

図11(A)に示すように、歩行者及び自転車に乗っている人が検出された位置に、歩行者及び自転車の存在をドライバーに知らせるためのアラート記号AM1、AM2が可視画像に重畳されて表示される。   As shown in FIG. 11 (A), alert symbols AM1 and AM2 for informing the driver of the presence of a pedestrian and a bicycle are superimposed on the visible image at a position where a pedestrian and a bicycle rider are detected. Is displayed.

図11(B)では、歩行者が検出された位置に、歩行者の存在を知らせるためのアラート記号AM1が可視画像に重畳されて表示され、また自転車が検出された位置に、自転車の存在を知らせるためのアラート記号AM2が可視画像に重畳されて表示される。   In FIG. 11B, an alert symbol AM1 for notifying the presence of a pedestrian is displayed superimposed on the visible image at the position where the pedestrian is detected, and the presence of the bicycle is displayed at the position where the bicycle is detected. An alert symbol AM2 for notification is displayed superimposed on the visible image.

図11(C)では、中央部の歩行者が検出された位置に、歩行者の存在を知らせるためのアラート記号AM1が可視画像に重畳されて表示される。   In FIG. 11C, an alert symbol AM1 for informing the presence of a pedestrian is displayed superimposed on the visible image at a position where a pedestrian in the center is detected.

3.防犯モード
図12は、本実施形態の画像処理装置100等の第3の構成例(図3)における防犯モードを説明する図である。図12に示すように、例えば夜間に自家用車を自宅近くに駐車する場合などに、画像処理装置100等を防犯モードに設定することにより、夜間の自宅への不審者の侵入などを検出することができる。走行モードと防犯モードとの切換は、モード設定部140が行う。
3. Security Mode FIG. 12 is a diagram for explaining a security mode in the third configuration example (FIG. 3) of the image processing apparatus 100 and the like of the present embodiment. As shown in FIG. 12, for example, when a private vehicle is parked near the home at night, the intrusion of a suspicious person into the home at night is detected by setting the image processing apparatus 100 or the like to the crime prevention mode. Can do. The mode setting unit 140 switches between the running mode and the crime prevention mode.

具体的には、車両のルーフ等に設けた赤外線画像撮像部(赤外線カメラ)210により自宅の周囲の赤外線画像を所定の時間間隔で撮像する。防犯モードに設定されている場合には、領域設定部120は境界線を非設定にし、処理部130は赤外線画像領域の全領域に対して赤外線画像データの画素密度を低減する処理を行う。そして処理部130は、画像領域の赤外線画像データに基づいて検出処理を行い、検出処理の結果に基づくアラート表示を含む表示用画像データを生成する処理を行う。処理部130は、検出処理によって不審者を検出した場合には、例えばユーザーの携帯端末などに通報する処理を行うことができる。   Specifically, an infrared image capturing unit (infrared camera) 210 provided on the roof of the vehicle or the like captures infrared images around the home at predetermined time intervals. When the crime prevention mode is set, the area setting unit 120 does not set the boundary line, and the processing unit 130 performs a process of reducing the pixel density of the infrared image data for the entire area of the infrared image area. Then, the processing unit 130 performs a detection process based on the infrared image data of the image area, and performs a process of generating display image data including an alert display based on the result of the detection process. When the processing unit 130 detects a suspicious person by the detection process, the processing unit 130 can perform a process of reporting to a user's mobile terminal, for example.

防犯モードでは、走行モードに比べて、対象物の位置検出について高い精度は要求されない。不審者の存在を検出できればよいからである。従って、画像領域の全領域に対して画素密度を低減する処理を行うことで、検出処理における演算処理負担を低減することができる。その結果、防犯モードでの消費電力を低減することができるから、駐車時のバッテリーの消費を抑えることができる。   In the security mode, higher accuracy is not required for the position detection of the object than in the traveling mode. This is because it is only necessary to detect the presence of a suspicious person. Therefore, by performing the process of reducing the pixel density on the entire area of the image area, it is possible to reduce the calculation processing burden in the detection process. As a result, power consumption in the crime prevention mode can be reduced, so that battery consumption during parking can be suppressed.

なお、赤外線カメラ210をルーフレール等に設けて、赤外線カメラ210の位置を移動させたり、或いは赤外線カメラ210を回転できる台座に設けることで、赤外線カメラ210の光軸方向を可変に設定することができる。こうすることで、不審者が侵入するおそれがある方向に赤外線カメラ210の光軸方向を設定することなどが可能になる。   The optical axis direction of the infrared camera 210 can be variably set by providing the infrared camera 210 on a roof rail or the like and moving the position of the infrared camera 210 or by providing the infrared camera 210 on a pedestal capable of rotating. . By doing so, it is possible to set the optical axis direction of the infrared camera 210 in a direction in which a suspicious person may enter.

図13は、第3の構成例(図3)による防犯モードの処理のフローチャートである。この処理は画像取得部110及び処理部130により実行される。   FIG. 13 is a flowchart of the security mode process according to the third configuration example (FIG. 3). This process is executed by the image acquisition unit 110 and the processing unit 130.

最初のステップS21で、処理に必要なパラメーターの初期設定を行う。次のステップS22で、設定されているモードが走行モードであるか、或いは防犯モードであるかを判断する。防犯モードに設定されている場合には、次のステップS23が実行される。一方、走行モードに設定されている場合には、上述した走行モードのフローチャート(図10)のステップS2以降の処理が実行される。   In the first step S21, parameters necessary for processing are initialized. In the next step S22, it is determined whether the set mode is the traveling mode or the crime prevention mode. If the crime prevention mode is set, the next step S23 is executed. On the other hand, when the travel mode is set, the processes after step S2 in the travel mode flowchart (FIG. 10) described above are executed.

ステップS23では、画像取得部110が赤外線カメラ(赤外線画像撮像部)210からの赤外線画像データを取得する。そして次のステップS24では、処理部130が赤外線画像データの画像領域の全領域に対して画素密度を低減する処理を行い、続いてステップS25で対象物の検出処理(テンプレートマッチング処理)を実行する。この検出処理は、既に説明した図10のステップS4〜S10と同様の処理であるから、ここでは詳細な説明を省略する。なお、防犯モードでは、走行モードに比べて、対象物の位置検出について高い精度が要求されないから、精度(解像度)の低いテンプレートを選択することができる。   In step S <b> 23, the image acquisition unit 110 acquires infrared image data from the infrared camera (infrared image capturing unit) 210. In the next step S24, the processing unit 130 performs a process for reducing the pixel density on the entire image area of the infrared image data, and subsequently executes an object detection process (template matching process) in step S25. . Since this detection process is the same process as steps S4 to S10 of FIG. 10 already described, detailed description thereof is omitted here. In the crime prevention mode, a higher accuracy is not required for detecting the position of the object than in the traveling mode, so that a template with a lower accuracy (resolution) can be selected.

検出処理が終了するとステップS26に進み、対象物が検出されたか否かを判断する。対象物が検出された場合には、ステップS27で例えばユーザーの携帯端末など外部に通知する処理を行う。   When the detection process ends, the process proceeds to step S26 to determine whether or not an object has been detected. If an object is detected, in step S27, for example, a process of notifying the outside such as a user's portable terminal is performed.

対象物が検出されない場合には、ステップS22に戻る。引き続き防犯モードに設定されている場合には、前回の赤外線画像データの取得時から一定時間経過後に、ステップS23で次の赤外線画像データを取得する。一定の時間間隔で赤外線画像データを取得することで、消費電力を低減することができるから、駐車時のバッテリーの消費を抑えることができる。   If no object is detected, the process returns to step S22. If the security mode is still set, the next infrared image data is acquired in step S23 after a predetermined time has elapsed since the previous acquisition of the infrared image data. By acquiring infrared image data at regular time intervals, power consumption can be reduced, so that battery consumption during parking can be suppressed.

このように本実施形態の画像処理装置100等の第3の構成例によれば、防犯モードに設定することにより、夜間の駐車時に自宅周辺の不審者などを検出することができるから、防犯用に専用のセキュリティシステム等を設置する必要がなくなるため、防犯コストの低減などが可能になる。また、防犯モードでは消費電力を低減することができるから、駐車時のバッテリーの消費を抑えることができる。   As described above, according to the third configuration example of the image processing apparatus 100 and the like of the present embodiment, by setting the crime prevention mode, it is possible to detect suspicious persons around the home when parking at night. Since it is no longer necessary to install a dedicated security system, it is possible to reduce crime prevention costs. Further, since power consumption can be reduced in the crime prevention mode, battery consumption during parking can be suppressed.

4.カメラシステム
図14(A)、図14(B)に、本実施形態のカメラシステム310の車両への搭載例を示す。図14(A)、図14(B)に示すカメラシステム310は、画像処理装置100、赤外線画像撮像部210、可視画像撮像部220、表示部230を含む。なお、本実施形態のカメラシステム310は、図14(A)、図14(B)の構成に限定されず、その構成要素の一部を省略したり、他の構成要素に置き換えたり、他の構成要素を追加するなどの種々の変形実施が可能である。
4). Camera System FIGS. 14A and 14B show an example of mounting the camera system 310 of this embodiment on a vehicle. A camera system 310 shown in FIGS. 14A and 14B includes an image processing apparatus 100, an infrared image capturing unit 210, a visible image capturing unit 220, and a display unit 230. Note that the camera system 310 of the present embodiment is not limited to the configuration shown in FIGS. 14A and 14B, and some of the components may be omitted or replaced with other components. Various modifications such as adding components are possible.

図14(A)は車両を上から見た平面図であり、図14(B)は車両の側面図である。赤外線画像撮像部(赤外線カメラ)210は、例えば車両のバンパー部分に設けられ、可視画像撮像部(可視カメラ)220は、例えば車両のルーフに設けられる。画像処理装置100は、ダッシュボードなどのドライバーが操作しやすい位置に設けられ、表示部230はドライバーが視認しやすい位置に設けられる。なお、これら構成要素の搭載位置は、図示される位置に限定されず、例えば赤外線画像撮像部(赤外線カメラ)210をルーフに設けてもよい。また、表示部230は、ヘッドアップディスプレイであってもよい。   FIG. 14A is a plan view of the vehicle as viewed from above, and FIG. 14B is a side view of the vehicle. The infrared image capturing unit (infrared camera) 210 is provided, for example, in a bumper portion of the vehicle, and the visible image capturing unit (visible camera) 220 is provided, for example, in a roof of the vehicle. The image processing apparatus 100 is provided at a position where a driver such as a dashboard can be easily operated, and the display unit 230 is provided at a position where the driver can easily see. The mounting positions of these components are not limited to the illustrated positions, and for example, an infrared image capturing unit (infrared camera) 210 may be provided on the roof. The display unit 230 may be a head-up display.

なお、以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例は全て本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また画像処理装置、画像処理システム、カメラ及びカメラシステムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Therefore, all such modifications are included in the scope of the present invention. For example, a term described with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the image processing apparatus, the image processing system, the camera, and the camera system are not limited to those described in the present embodiment, and various modifications can be made.

100 画像処理装置、110 画像取得部、120 領域設定部、130 処理部、
131 テンプレートマッチング処理部、132 画像合成処理部、133 メモリー、
134 混合演算処理部、135 メモリー、140 モード設定部、150 記憶部、
200 画像処理システム、210 赤外線画像撮像部、220 可視画像撮像部、
230 表示部、300 カメラ、310 カメラシステム、
ARMD 画素密度変更領域、ARNO 画素密度非変更領域、BL 境界線
100 image processing apparatus, 110 image acquisition unit, 120 area setting unit, 130 processing unit,
131 Template matching processing unit, 132 Image composition processing unit, 133 Memory,
134 mixing operation processing unit, 135 memory, 140 mode setting unit, 150 storage unit,
200 image processing system, 210 infrared image capturing unit, 220 visible image capturing unit,
230 display unit, 300 camera, 310 camera system,
ARMD pixel density change area, ARNO pixel density non-change area, BL boundary line

Claims (21)

赤外線画像データを取得する画像取得部と、
前記画像取得部により取得された前記赤外線画像データに基づく画像領域に対して、前記画像領域を複数の領域に分割する境界線を設定し、前記境界線によって分割された複数の領域のうちの少なくとも1つの領域を画素密度変更領域に設定する領域設定部と、
前記画素密度変更領域の前記赤外線画像データの画素密度を低減する処理を行い、前記画素密度変更領域を含む前記画像領域の前記赤外線画像データに基づいて対象物の検出処理を行い、前記検出処理の結果に基づいて表示用画像データを生成する処理部とを含むことを特徴とする画像処理装置。
An image acquisition unit for acquiring infrared image data;
For an image region based on the infrared image data acquired by the image acquisition unit, a boundary line for dividing the image region into a plurality of regions is set, and at least of the plurality of regions divided by the boundary line An area setting unit for setting one area as a pixel density change area;
A process of reducing the pixel density of the infrared image data in the pixel density change area, a detection process of an object is performed based on the infrared image data of the image area including the pixel density change area, and the detection process And a processing unit that generates display image data based on the result.
請求項1において、
前記領域設定部は、
前記画像領域における位置及び形状のうちの少なくとも1つが可変に設定される前記境界線を用いて前記画像領域を区画する設定パターンを決定し、
決定された前記設定パターンにおいて前記境界線の前記画像領域における位置及び形状のうちの少なくとも1つを定めることを特徴とする画像処理装置。
In claim 1,
The region setting unit
Determining a setting pattern that divides the image area using the boundary line in which at least one of a position and a shape in the image area is variably set;
An image processing apparatus, wherein at least one of a position and a shape of the boundary line in the image area is determined in the determined setting pattern.
請求項2において、
前記領域設定部は、
前記画像領域を分割する前記境界線を用いて前記画像領域を区画する第1の設定パターンを決定可能に備え、
決定された前記設定パターンが前記第1の設定パターンである場合には、前記境界線により分割された画像領域のうち、一方の画像領域を前記画素密度変更領域に設定することを特徴とする画像処理装置。
In claim 2,
The region setting unit
A first setting pattern for partitioning the image area using the boundary line that divides the image area can be determined,
When the determined setting pattern is the first setting pattern, one of the image areas divided by the boundary line is set as the pixel density change area. Processing equipment.
請求項2又は3において、
前記領域設定部は、
前記画像領域を3分割し互いに交差しない2本の前記境界線を用いて前記画像領域を区画する第2の設定パターンを決定可能に備え、
決定された前記設定パターンが前記第2の設定パターンである場合には、前記境界線により3分割された画像領域のうち、前記2本の境界線で挟まれる画像領域を前記画素密度変更領域に設定することを特徴とする画像処理装置。
In claim 2 or 3,
The region setting unit
A second setting pattern that divides the image area using two boundary lines that divide the image area into three and do not intersect with each other can be determined,
When the determined setting pattern is the second setting pattern, an image area sandwiched between the two boundary lines among the image areas divided into three by the boundary line is set as the pixel density change area. An image processing apparatus characterized by setting.
請求項2乃至4のいずれかにおいて、
前記領域設定部は、
前記画像領域において一部の領域を囲む閉曲線を前記境界線として用いて前記画像領域を区画する第3の設定パターンを決定可能に備え、
決定された前記設定パターンが前記第3の設定パターンである場合には、前記閉曲線の外側の前記画像領域を前記画素密度変更領域に設定することを特徴とする画像処理装置。
In any of claims 2 to 4,
The region setting unit
A third setting pattern that partitions the image area using a closed curve that surrounds a part of the image area as the boundary line can be determined,
When the determined setting pattern is the third setting pattern, the image area outside the closed curve is set as the pixel density change area.
請求項2乃至5のいずれかにおいて、
前記表示用画像データは、前記検出処理の結果に基づくアラート表示を含むことを特徴とする画像処理装置。
In any of claims 2 to 5,
The image processing apparatus, wherein the display image data includes an alert display based on a result of the detection process.
請求項2乃至6のいずれかにおいて、
前記赤外線画像データは、車両の外部領域の赤外線画像の画像データであり、
前記領域設定部は、
前記車両の走行状況情報に基づいて、前記設定パターンを決定し、決定された前記設定パターンにおいて前記境界線の前記画像領域における位置及び形状のうちの少なくとも1つを定めることを特徴とする画像処理装置。
In any one of Claims 2 thru | or 6.
The infrared image data is image data of an infrared image of an external area of the vehicle,
The region setting unit
The image processing characterized in that the setting pattern is determined based on the traveling state information of the vehicle, and at least one of a position and a shape of the boundary line in the image region is determined in the determined setting pattern. apparatus.
請求項7において、
前記車両の走行状況情報は、
前記車両の速度情報であることを特徴とする画像処理装置。
In claim 7,
The vehicle running status information is:
An image processing apparatus characterized by the speed information of the vehicle.
請求項2乃至8のいずれかにおいて、
前記領域設定部は、
ユーザーによる入力情報に基づいて、前記設定パターンを決定し、決定された前記設定パターンにおいて前記境界線の前記画像領域における位置及び形状のうちの少なくとも1つを定めることを特徴とする画像処理装置。
In any of claims 2 to 8,
The region setting unit
An image processing apparatus, wherein the setting pattern is determined based on input information by a user, and at least one of a position and a shape of the boundary line in the image region is determined in the determined setting pattern.
請求項1乃至9のいずれかにおいて、
走行モードと防犯モードとのモード切換設定を行うモード設定部をさらに含み、
前記走行モードに設定されている場合には、
前記領域設定部は、前記画素密度変更領域を設定し、
前記処理部は、前記画素密度変更領域の前記赤外線画像データの画素密度を低減する処理を行い、前記画素密度変更領域を含む前記画像領域の前記赤外線画像データに基づいて前記検出処理を行い、前記検出処理の結果に基づくアラート表示を含む表示用画像データを生成する処理を行い、
前記防犯モードに設定されている場合には、
前記領域設定部は、前記境界線を非設定にし、
前記処理部は、前記画像領域の全領域に対して前記赤外線画像データの画素密度を低減する処理を行い、前記画像領域の前記赤外線画像データに基づいて前記検出処理を行い、前記検出処理の結果に基づくアラート表示を含む表示用画像データを生成する処理を行うことを特徴とする画像処理装置。
In any one of Claims 1 thru | or 9,
It further includes a mode setting unit for setting mode switching between the driving mode and the crime prevention mode,
When the travel mode is set,
The region setting unit sets the pixel density change region,
The processing unit performs a process of reducing the pixel density of the infrared image data in the pixel density change area, performs the detection process based on the infrared image data of the image area including the pixel density change area, and Perform processing to generate image data for display including alert display based on the result of detection processing,
If the security mode is set,
The region setting unit unsets the boundary line,
The processing unit performs a process of reducing the pixel density of the infrared image data for the entire area of the image area, performs the detection process based on the infrared image data of the image area, and results of the detection process An image processing apparatus for performing display image data generation including alert display based on the above.
請求項1乃至10のいずれかにおいて、
前記処理部は、
前記画素密度変更領域と前記画素密度変更領域以外の領域とでは、前記検出処理の内容を異ならせることを特徴とする画像処理装置。
In any one of Claims 1 thru | or 10.
The processor is
The image processing apparatus according to claim 1, wherein contents of the detection process are different between the pixel density change area and an area other than the pixel density change area.
請求項11において、
前記処理部は、
前記画素密度変更領域以外の領域での前記検出処理の結果に基づいて、前記画素密度変更領域での前記検出処理を行うことを特徴とする画像処理装置。
In claim 11,
The processor is
An image processing apparatus that performs the detection processing in the pixel density change region based on a result of the detection processing in a region other than the pixel density change region.
請求項12において、
前記画素密度変更領域以外の領域での前記検出処理の結果は、
前記対象物の動きベクトルを含むことを特徴とする画像処理装置。
In claim 12,
The result of the detection process in an area other than the pixel density change area is:
An image processing apparatus comprising a motion vector of the object.
請求項1乃至13のいずれかにおいて、
前記画像取得部は、
可視画像データを取得し、
前記処理部は、
前記検出処理を行って、前記検出処理の結果に基づくアラート記号と前記可視画像データとを重畳して表示用画像データを生成する処理を行うことを特徴とする画像処理装置。
In any one of Claims 1 thru | or 13.
The image acquisition unit
Get visible image data,
The processor is
An image processing apparatus that performs the detection process, and performs a process of generating display image data by superimposing an alert symbol based on a result of the detection process and the visible image data.
請求項1乃至14のいずれかに記載の画像処理装置と、
赤外線画像撮像部とを含むことを特徴とするカメラシステム。
An image processing device according to any one of claims 1 to 14,
A camera system comprising an infrared imaging unit.
請求項1乃至14のいずれかに記載の画像処理装置と、
赤外線画像撮像部と、
前記画像処理装置と前記赤外線画像撮像部とが内部に配設された筐体とを含むことを特徴とするカメラ。
An image processing device according to any one of claims 1 to 14,
An infrared imaging unit;
A camera comprising: a housing in which the image processing device and the infrared image capturing unit are disposed.
請求項1乃至14のいずれかに記載の画像処理装置と、
赤外線画像撮像部と、
前記表示用画像データに基づく画像を表示する表示部とを含むことを特徴とするカメラシステム。
An image processing device according to any one of claims 1 to 14,
An infrared imaging unit;
And a display unit that displays an image based on the display image data.
請求項1乃至14のいずれかに記載の画像処理装置と、
赤外線画像撮像部と、
前記表示用画像データに基づく画像を表示する表示部と
前記画像処理装置と前記赤外線画像撮像部と前記表示部とが内部に配設された筐体とを含むことを特徴とするカメラ。
An image processing device according to any one of claims 1 to 14,
An infrared imaging unit;
A camera comprising: a display unit that displays an image based on the display image data; and a housing in which the image processing device, the infrared imaging unit, and the display unit are disposed.
赤外線画像データを取得する画像取得部と、
前記画像取得部により取得された前記赤外線画像データに基づく画像領域に対して、前記画像領域を複数の領域に分割する境界線を設定し、前記境界線によって分割された複数の領域のうち少なくとも1つの領域を画素密度変更領域に設定する領域設定部と、
前記画素密度変更領域の前記赤外線画像データの画素密度を低減する処理を行い、前記画素密度変更領域を含む前記画像領域の前記赤外線画像データに基づいて対象物の検出処理を行い、前記検出処理の結果に基づいて表示用画像データを生成する処理部とを含むことを特徴とする画像処理システム。
An image acquisition unit for acquiring infrared image data;
A boundary line for dividing the image region into a plurality of regions is set for the image region based on the infrared image data acquired by the image acquisition unit, and at least one of the plurality of regions divided by the boundary line An area setting unit for setting one area as a pixel density change area;
A process of reducing the pixel density of the infrared image data in the pixel density change area, a detection process of an object is performed based on the infrared image data of the image area including the pixel density change area, and the detection process And a processing unit that generates display image data based on the result.
請求項1乃至13のいずれかに記載の画像処理装置と、
前記表示用画像データに基づく画像を表示する表示部とを含むことを特徴とする画像処理システム。
An image processing apparatus according to any one of claims 1 to 13,
An image processing system comprising: a display unit configured to display an image based on the display image data.
赤外線撮像素子が二次元配列された撮像領域を備え、前記撮像領域の一部の領域では前記赤外線撮像素子の間隔が第1の間隔であり、前記撮像領域の前記一部の領域以外の領域では前記赤外線撮像素子の間隔が前記第1の間隔より広い第2の間隔である赤外線画像撮像部と、
前記赤外線画像撮像部で撮像された赤外線画像データを取得する画像取得部と、
前記画像取得部により取得された前記赤外線画像データの前記撮像領域に対応した画像領域に対して、前記赤外線画像データに基づいて対象物の検出処理を行い、前記検出処理の結果に基づいて表示用画像データを生成する処理部とを含むことを特徴とするカメラ。
An infrared imaging device is provided with an imaging region in which two-dimensional infrared imaging devices are arranged. In a region of the imaging region, the interval of the infrared imaging device is a first interval, and in a region other than the partial region of the imaging region. An infrared image capturing unit in which the interval between the infrared imaging elements is a second interval wider than the first interval;
An image acquisition unit for acquiring infrared image data captured by the infrared image capturing unit;
An object detection process is performed on the image area corresponding to the imaging area of the infrared image data acquired by the image acquisition unit based on the infrared image data, and display is performed based on the result of the detection process. And a processing unit that generates image data.
JP2011178705A 2011-08-18 2011-08-18 Image processing device, image processing system, camera and camera system Withdrawn JP2013041481A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011178705A JP2013041481A (en) 2011-08-18 2011-08-18 Image processing device, image processing system, camera and camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011178705A JP2013041481A (en) 2011-08-18 2011-08-18 Image processing device, image processing system, camera and camera system

Publications (1)

Publication Number Publication Date
JP2013041481A true JP2013041481A (en) 2013-02-28

Family

ID=47889798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011178705A Withdrawn JP2013041481A (en) 2011-08-18 2011-08-18 Image processing device, image processing system, camera and camera system

Country Status (1)

Country Link
JP (1) JP2013041481A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019047401A (en) * 2017-09-05 2019-03-22 株式会社デンソー Image processing apparatus
JP2019140472A (en) * 2018-02-08 2019-08-22 株式会社Soken Image transmission device mounted on remotely-operated vehicle
US20190392567A1 (en) * 2016-12-14 2019-12-26 Conti Temic Microelectronic Gmbh Device and Method for Fusing Image Data from a Multi-Camera System for a Motor Vehicle
JP2020004366A (en) * 2018-06-25 2020-01-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing device, information processing method, and program
US10763285B2 (en) 2016-09-29 2020-09-01 Panasonic Intellectual Property Management Co., Ltd. Image generation devices and image processing systems for converting resolutions of image data captured by image sensors mounted on movable-body apparatuses
WO2020195700A1 (en) * 2019-03-27 2020-10-01 ソニー株式会社 Image capturing device, and image capturing system
WO2020195822A1 (en) * 2019-03-27 2020-10-01 ソニー株式会社 Image capturing system
US10957028B2 (en) 2016-09-30 2021-03-23 Panasonic Intellectual Property Management Co., Ltd. Image generation device, image generation method and recording medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10763285B2 (en) 2016-09-29 2020-09-01 Panasonic Intellectual Property Management Co., Ltd. Image generation devices and image processing systems for converting resolutions of image data captured by image sensors mounted on movable-body apparatuses
US10957028B2 (en) 2016-09-30 2021-03-23 Panasonic Intellectual Property Management Co., Ltd. Image generation device, image generation method and recording medium
DE112017004987B4 (en) 2016-09-30 2023-01-19 Panasonic Intellectual Property Management Co., Ltd. Image forming apparatus, image forming method and recording medium
US20190392567A1 (en) * 2016-12-14 2019-12-26 Conti Temic Microelectronic Gmbh Device and Method for Fusing Image Data from a Multi-Camera System for a Motor Vehicle
US11257193B2 (en) 2017-09-05 2022-02-22 Denso Corporation Image processing apparatus
JP2019047401A (en) * 2017-09-05 2019-03-22 株式会社デンソー Image processing apparatus
JP2019140472A (en) * 2018-02-08 2019-08-22 株式会社Soken Image transmission device mounted on remotely-operated vehicle
JP2020004366A (en) * 2018-06-25 2020-01-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing device, information processing method, and program
JP7376992B2 (en) 2018-06-25 2023-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing device, information processing method, and program
WO2020195822A1 (en) * 2019-03-27 2020-10-01 ソニー株式会社 Image capturing system
CN113647089A (en) * 2019-03-27 2021-11-12 索尼集团公司 Imaging system
US20220166925A1 (en) * 2019-03-27 2022-05-26 Sony Group Corporation Imaging device and imaging system
CN113615152A (en) * 2019-03-27 2021-11-05 索尼集团公司 Imaging apparatus and imaging system
WO2020195700A1 (en) * 2019-03-27 2020-10-01 ソニー株式会社 Image capturing device, and image capturing system
US11895398B2 (en) 2019-03-27 2024-02-06 Sony Group Corporation Imaging device and imaging system

Similar Documents

Publication Publication Date Title
JP2013041481A (en) Image processing device, image processing system, camera and camera system
US10275669B2 (en) System and method for detecting objects in an automotive environment
KR102535442B1 (en) Camera system and method for capturing the surrounding area of the subject vehicle
US10798319B2 (en) Camera device and method for capturing a surrounding region of a vehicle in a situation-adapted manner
US9067537B2 (en) Vehicle periphery monitoring device
JP6232759B2 (en) Information processing apparatus, approaching object notification method, and program
JP5616531B2 (en) Vehicle periphery monitoring device
RU2017109073A (en) DETECTION AND PREDICTION OF PEDESTRIAN TRAFFIC USING A RETURNED BACK CAMERA
US10242272B2 (en) Method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle
JPWO2011108218A1 (en) Vehicle periphery monitoring device
JP2011048829A (en) System and method for providing vehicle driver with guidance information
JP6032034B2 (en) Object detection device
JP5418661B2 (en) Vehicle periphery monitoring device
JP2011071932A (en) Vehicle surroundings monitoring apparatus
JP2020065141A (en) Vehicle overhead image generation system and method thereof
JP4775034B2 (en) Image recognition system and image recognition method
JP2013042404A (en) Image processor, image processing system, camera and camera system
WO2019003736A1 (en) Image processing device
JP6349890B2 (en) Driving assistance device
JP6583385B2 (en) Information processing apparatus, approaching object notification method, and program
JP4598011B2 (en) Vehicle display device
JP2010191637A (en) Driving support device for vehicle
JP2005216255A (en) Driving support system
JP3222638U (en) Safe driving support device
KR101191040B1 (en) Road displaying apparatus for a car

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104