JP2020195140A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2020195140A JP2020195140A JP2020125682A JP2020125682A JP2020195140A JP 2020195140 A JP2020195140 A JP 2020195140A JP 2020125682 A JP2020125682 A JP 2020125682A JP 2020125682 A JP2020125682 A JP 2020125682A JP 2020195140 A JP2020195140 A JP 2020195140A
- Authority
- JP
- Japan
- Prior art keywords
- face
- detected
- image
- light image
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Cameras In General (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置により撮影された画像から人物を検出する技術に関する。 The present invention relates to a technique for detecting a person from an image taken by an imaging device.
従来から、監視映像を用いて監視映像に映る人物領域(以下、単に「人物」という)を検出する人物検出装置がある。このような人物検出装置は、一般的には監視システムに組み込まれて用いられる。また、監視映像の撮影用には、一般的にはネットワークカメラが用いられる。 Conventionally, there is a person detection device that detects a person area (hereinafter, simply referred to as "person") reflected in a surveillance image using a surveillance image. Such a person detection device is generally used by being incorporated in a monitoring system. In addition, a network camera is generally used for shooting surveillance images.
人物検出装置で実施される人物検出方法の一例として、人物の顔部分を検出する方法がある(たとえば特許文献1)。このような顔部分の検出方法では、画像の輝度や色情報を使用する方法が一般的である。 As an example of the person detection method implemented by the person detection device, there is a method of detecting a face portion of a person (for example, Patent Document 1). In such a method for detecting a face portion, a method using image brightness and color information is common.
特許文献1に記載されているような、画像の輝度や色情報を用いて人物検出方法では、以下のような問題点がある。つまり、ポスターやモニター等における顔と、撮像装置で撮像されている実際の人物(実人物)とを識別することが難しいという問題がある。ここで、ポスターにおける顔とは、撮像装置によって撮影されたポスター等の印刷物における顔である。また、モニターにおける顔とは、撮像装置によって撮影されたモニターに表示されている顔である。 The person detection method using image brightness and color information as described in Patent Document 1 has the following problems. That is, there is a problem that it is difficult to distinguish a face on a poster, a monitor, or the like from an actual person (real person) imaged by an imaging device. Here, the face in the poster is a face in a printed matter such as a poster photographed by an imaging device. The face on the monitor is a face displayed on the monitor taken by the imaging device.
本発明は、上記課題に鑑みてなされたものであり、画像に映る人物をより正確に検出することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to more accurately detect a person appearing in an image.
上述の目的を達成するための一手段として、本発明の画像処理装置は以下の構成を有する。すなわち、可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出手段と、前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出手段と、前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域に対して所定の画像処理を実行し、前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記所定の画像処理を実行しない画像処理手段と、を有することを特徴とする。 As one means for achieving the above-mentioned object, the image processing apparatus of the present invention has the following configuration. That is, in the visible light image obtained by shooting with visible light, it corresponds to the first detection means for detecting the face of the person by using the image feature of the face of the person and the shooting range of the visible light image. In the infrared light image obtained by photographing the imaging range to be performed using infrared light, the second detection means for detecting the face of a person using the image features and the first in the visible light image. When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the detection means, it is detected by the first detection means in the visible light image. A predetermined image process is executed on the region of the face, and the second detection means is performed at a position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image. When the face is detected by the above, the first detecting means in the visible light image has an image processing means that does not execute the predetermined image processing on the detected area of the face. ..
本発明によれば、画像に映る人物をより正確に検出することが可能となる。 According to the present invention, it is possible to more accurately detect a person appearing in an image.
以下、添付の図面を参照して、本発明をその実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on the embodiments with reference to the accompanying drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.
最初に、ネットワークカメラと人物検出装置を用いて構成される一般的な監視システムを、図4に示す。図4において、ネットワークカメラ401が、LAN(Local Area Network)などのネットワーク402を介して、人物検出装置403および各種制御装置404に接続されている。なお、図4には1台のネットワークカメラのみが示されているが、複数台のネットワークカメラが人物検出装置403および各種制御装置404に接続されてもよい。人物検出装置403は、ネットワークカメラ401から監視映像を受信し、当該監視映像に映る人物を検出する。各種制御装置404は、例えば、ネットワークカメラ401から監視映像を受信し、当該監視映像に人物検出装置403による人物検出結果を反映させた画像を別途接続した表示装置(不図示)に表示することができる。また、各種制御装置404は、人物検出装置403による人物検出結果に応じて、ネットワークカメラ401からから受信した監視映像を別途接続したデータ蓄積装置(不図示)に保存することができる。なお、図4の例では人物検出装置403および各種制御装置404を2つの装置に分けているが、同一装置内に両方の機能を配置することも可能である。
First, FIG. 4 shows a general surveillance system configured by using a network camera and a person detection device. In FIG. 4, the
ここで、特許文献1に記載されているような、画像の輝度や色情報を用いて人物検出方法における課題を、図5を用いてより詳細に説明する。図5は、従来の人物検出方法の一例を説明するための図である。 Here, a problem in a person detection method using image brightness and color information as described in Patent Document 1 will be described in more detail with reference to FIG. FIG. 5 is a diagram for explaining an example of a conventional person detection method.
図5(A)において、画像501は、ある画角で撮影された画像である。画像501内において、ポスター503、ポスター504、人物505、および人物506が映っている。ポスター503およびポスター504は、人物が印刷されたポスターであり、人物505および人物506は、実際に存在する実人物である。画像501に対して、画像の輝度や色情報を用いて人物の顔507〜510を検出した画像502を図5(B)に示す。画像の輝度や色情報という観点では、ポスターに映る人物(顔507および顔508)と実人物(顔509および顔510)は同じように見える。そのため、画像502に示すように、顔507〜510すべてが、「人物の顔」として検出される。しかし、実際には、顔507および508は、ポスターに映る顔(ポスター上の印刷物の顔)であるため、実人物には該当しない。このような人物検出技術は、実人物のみを検出する監視システムには不適合である。
In FIG. 5A,
以下、画像に映る人物をより正確に検出するための実施形態について説明する。 Hereinafter, embodiments for more accurately detecting a person appearing in an image will be described.
[実施形態1]
図1は、実施形態1における撮像装置101と画像処理装置111の構成の一例を示す図である。なお、図1では、撮像装置101の一部の構成要素は省略されている。また、撮像装置101は、動画および静止画の撮像が可能である。画像処理装置111は、本実施形態では人物検出装置として機能する。
[Embodiment 1]
FIG. 1 is a diagram showing an example of the configuration of the
まず、撮像装置101の構成について説明する。撮像装置101において、光軸11上に、対物レンズ102、撮影絞り103、フォーカスレンズ104、撮像レンズ105が順次に配列されており、その後方に、ダイクロイックミラー106が配置されている。光が入射されると、対物レンズ102によって集光され、撮影絞り103へと入射される。撮影絞り103を通過した光は、フォーカスレンズ104や撮像レンズ105からなるレンズ系に入射される。レンズ系を通過した光は、波長分離のためのダイクロイックミラー106に入射される。
First, the configuration of the
ダイクロイックミラー106は、可視光を透過し、赤外光を反射するように構成されている。なお、一例として、可視光とは略800nm未満の波長の光であり、赤外光とは800nm以上の波長の光であるものとする。よって、本実施形態では、ダイクロイックミラー106は、800nm未満の波長の光を透過し、800nm以上の波長の光を反射するように構成されているものとする。なお、本実施形態において可視光とは紫外光を含んでいてもよいものとする。また、ダイクロイックミラー106は、特定の範囲の波長の光のみを反射するようにしてもよい。例えば、900nm〜1300nmの波長の光のみを反射するようにしてもよい。
The
ダイクロイックミラー106を透過した可視光は、ダイクロイックミラー106の後方に配置された可視光撮像素子107に入射される。可視光撮像素子107は、入射された可視光を受光して、その受光した可視光を電荷に変換して撮像信号(可視光撮像信号)を生成する。
The visible light transmitted through the
一方、ダイクロイックミラー106で反射された赤外光成分は、光軸12を通り、赤外光撮像素子108に入射される。赤外光撮像素子108は、入射された赤外光を受光して、その受光した赤外視光を電荷に変換して撮像信号(赤外光撮像信号)を生成する。
On the other hand, the infrared light component reflected by the
なお、可視光撮像素子107や赤外光撮像素子108には、例えば、CMOSイメージセンサ(Complementary Metal Oxide SemicONductor Image Sensor)を用いることができる。また、可視光撮像素子107や赤外光撮像素子108には、CCDイメージセンサ(Charge Coupled Device Image Sensor)を用いてもよい。また、可視光撮像素子107および赤外光撮像素子108は、同じように結像させるため略共役な位置に配置されるが、赤外光と可視光の波長差により合焦位置がずれるため、赤外光撮像素子108は、光路上後方にずれて配置されている。さらに、撮像装置101は、不図示の近赤外光を発するLED(Light Emitting Diode)光源からなる照明光源を持つことも可能である。
For the visible
可視光撮像素子107および赤外光撮像素子108の出力は、画像処理部109において画像データに加工される。このような画像データは、例えば、一般的な画像処理装置が利用可能なYCbCr、RGB、YUVなどの色空間情報、あるいは、MotionJPEG圧縮やh.264圧縮などの圧縮処理された画像データである。画像処理部109は、可視光撮像素子107および赤外光撮像素子108からの出力に対してこのような加工処理を施したデータを、可視光画像と赤外光画像として生成する。
The outputs of the visible
画像処理部109で生成された可視光画像と赤外光画像は、制御部110に送られる。制御部110は、可視光画像と赤外光画像を、LANなどのネットワークを介して接続した、外部ストレージや外部コンピュータ等の外部機器に転送することができる。また、制御部110は、外部機器により撮像装置101に対する撮影の開始や終了の指示を受け、撮像装置101において当該指示に対応する制御を行うことができる。
The visible light image and the infrared light image generated by the
このように、撮像装置101は、可視光撮像素子107と赤外光撮像素子108を有することにより、受光した可視光を画像化した可視光画像と、受光した赤外光を画像化した赤外光画像を生成することが可能となる。また、これらの画像は同一の画角となる。
As described above, the
ここで、撮像装置101により生成される赤外光画像について説明する。一般的に、人物の皮膚は、波長1000nm当たりから吸収が高くなり、波長1400〜1600nmでは衣服などに比べ高い吸収を示す。そのため、赤外光画像において、人物は黒く映る(後述する図2を参照)。一方、印刷物の濃淡や黒色をだすための黒系インク(カーボンブラックなど)は、赤外光画像においても、可視画像と同様に映る。そのため、赤外光画像において、印刷物上の人物は、輪郭、コントラストなどが協調されることはあっても、可視画像と類似の画像になる。
Here, the infrared light image generated by the
続いて、画像処理装置111の構成について説明する。通信部112は、撮像装置101で生成された可視光画像および赤外光画像を取得する。なお、本実施形態において、可視光画像および赤外光画像は、同一の画角の撮影に基づく画像である。したがって、可視光画像および赤外光画像は、同一の撮影範囲の画像とする。また、本実施形態において、可視光画像および赤外光画像は、同時刻の撮影に基づく画像とする。
Subsequently, the configuration of the
画像入力部113は、通信部112により取得された可視光画像および赤外光画像に対して、必要に応じてデータ伸長処理を行い、顔検出部114に送る。顔検出部114は、画像入力部113から受け取った画像に対して、人物検出処理として、顔検出処理を実行する。
The
顔検出部114で実行される顔検出処理の一例として、主成分分析による固有顔(eigenface)を用いた方法がある。この方法は、例えば、「M.A.Turk and A.P.Pentland, "Face Recognition Using Eigenfaces", Proc. of I3 Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.」に記載されている。また、特開平9−251534号公報に示されているように、目、鼻、口等の特徴点を利用した方法により、顔検出処理を行うようにしてもよい。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により、入力画像が人物の顔であるかどうかを判定している。顔検出処理での顔検出の結果としては、顔画像の特徴点の情報(鼻・口・顔の輪郭形状、及びそれぞれのサイズと特徴点の位置等)が挙げられる。なお、顔検出処理自体は、前述したように公知の技術で実現できるので、ここでは、その詳細な説明を省略する。なお、可視光画像および赤外光画像に対して、それぞれ異なる顔検出方法やパラメータを用いてもよい。例えば、赤外光画像はモノクロとなる場合が多いため、モノクロ画像に適した顔検出方法やパラメータを用いてもよい。
As an example of the face detection process executed by the
ここで、図2を参照して顔検出部114による顔検出処理について説明する。図2は、本実施形態における顔検出結果を説明するための図である。図2(A)には、可視光画像201が示されている。可視光画像201に対する顔検出部114による顔検出処理の結果、顔203〜206が検出結果として出力される。一方、図2(B)には、赤外光画像202が示されている。赤外光画像202に対する顔検出部114による顔検出処理の結果、顔207および顔208が検出結果として出力される。実人物は皮膚が黒く映るため、顔209および顔210は検出結果として出力されない。
Here, the face detection process by the
顔検出部114から出力された、可視光画像に対する検出結果と赤外光画像に対する検出結果は、比較部115によって比較される。比較部115は、2つの検出結果を比較することにより、可視光画像において検出された人物(顔)のうち赤外光画像において検出されなかった人物(顔)を、実人物と判定する。
The detection result for the visible light image and the detection result for the infrared light image output from the
図2を参照すると、例えば、比較部115は、可視光画像201で検出された顔203〜206の領域から、赤外光画像202で検出された顔207および顔208の領域を差し引いた領域(顔207および208の領域)を実人物の顔と判定する。
Referring to FIG. 2, for example, the
また、比較部115は、可視光画像において検出された顔の位置と同じ位置で、赤外光画像202において顔が検出されたかを判定してもよい。この場合、比較部115は、同じ位置で顔が検出された場合は、可視光画像において検出された顔は実人物の顔ではないと判定する。ただし、可視光画像と赤外光画像とで検出された顔の位置は、は若干ずれが生じる場合がある。よって、所定のずれ量以内であれば「同一位置」と判定するようにすればよい。一方で、比較部115は、同じ位置で顔が検出されなかった場合、すなわち、可視画像のみで顔が検出された場合は、可視光画像において検出された顔は、実人物の顔であると判定する。図2を参照すると、例えば、比較部115は、可視光画像201において検出された顔203の位置で、赤外光画像202において顔207が検出されたので、顔203は実人物の顔ではないと判定する。また、比較部115は、可視光画像201において検出された顔205の位置で、赤外光画像202において顔は検出されていないので、顔205は実人物の顔であると判定する。
Further, the
比較部115により判定された人物の情報は、出力部116に送られる。出力部116は、人物の情報を集計し、集計結果を、別途接続された表示装置(不図示)に出力する、また、出力部116は、集計結果を、別途接続された外部ストレージ(不図示)に蓄積することも可能である。
The information of the person determined by the
次に、図3を参照して、画像処理装置111による人物検出処理について説明する。図3は、本実施形態における人物検出処理の一例のフローチャートである。
Next, the person detection process by the
まず、画像処理装置111は。撮像装置101から可視光画像Aを取得する(s301)。続いて、画像処理装置111は、撮像装置101から赤外光画像Bを取得する(s302)。これらの画像取得処理では、ネットワークを介して撮像装置から順次、あるいは同時に取得する。なお、s301とs302の処理の順序は逆であってもよい。続いて、画像処理装置111は、取得した可視光画像Aと赤外光画像Bに対して、上述したような顔検出処理を行う(s303)。
First, the
顔検出処理(s303)の後、画像処理装置111は、可視光画像Aにおいて検出されたすべての顔に対して、赤外光画像Bで検出されたか否かを比較する(s304)。例えば、画像処理装置111は、可視光画像Aにおいて検出された顔が、赤外光画像Bでも同じ位置で検出されたか否かを比較する。同じ位置で検出された場合は、画像処理装置111は、可視光画像Aにおいて検出された顔は、実人物の顔ではないと判定する。一方で、同じ位置で検出されなかった場合、すなわち、可視画像のみで検出された場合は、画像処理装置111は、可視光画像Aにおいて検出された顔は、実人物の顔であると判定する。この判定結果に応じて、実人物の顔であると判定された場合は、人数のカウントを1増やす。以上の処理によって、画像処理装置111は、同一の画角内に存在する実人物の人数カウント結果を得る(s305)。
After the face detection process (s303), the
このように、本実施形態によれば、ポスターなどの印刷物に印刷された人物と、実際に存在する実人物が同じ画像内に混在する場合でも、実人物のみの検出が可能となる。したがって、本実施形態における撮像装置および画像処理装置により、撮像監視画像の中から実人物のみを検出しカウントするような監視システムを実現することが可能である。 As described above, according to the present embodiment, even when a person printed on a printed matter such as a poster and a real person who actually exists are mixed in the same image, it is possible to detect only the real person. Therefore, the imaging device and the image processing device in the present embodiment can realize a monitoring system that detects and counts only a real person from the captured monitoring images.
[実施形態2]
図6は、実施形態2における撮像装置101と画像処理装置111の構成の一例を示す図である。実施形態1において説明した図1と比較して、画像処理部117が追加された点が異なる。画像処理部117は、可視光画像において、実人物(実人物の顔)が存在すると判断された領域に対して、種々の画像処理を施す。例えば、画像処理部117は、実人物が存在すると判断された領域に、プライバシー保護のためのマスク画像を重畳してもよい。マスク画像を重畳することは、実人物が閲覧されたくない状況において有効である。また、画像処理部117は、実人物が存在すると判断された領域の画質(例えば解像度や階調、圧縮率)を、その他の領域の画質よりも高くするよう画像処理を行ってもよい。画質を高くすることにより、検出された実人物を精度よく閲覧することが可能となる。画像処理部117により画像処理が施された画像は、出力部116を介して外部の装置へ出力され得る。
[Embodiment 2]
FIG. 6 is a diagram showing an example of the configuration of the
このように、本実施形態によれば、実施形態1において述べた効果に加え、検出された実人物の扱いに沿った画像を生成することが可能となる。 As described above, according to the present embodiment, in addition to the effects described in the first embodiment, it is possible to generate an image according to the treatment of the detected real person.
[その他の実施形態]
上記の実施形態では、人物を検出する例を説明したが、可視光画像と赤外光画像とで映り方が異なる被写体を検出する例にも、本実施形態を適用可能である。また、上記の実施形態は、顔を検出することにより人物を検出する例を説明したが、顔に限定されず、他の部位を検出することにより人物を検出してもよい。また、上記の実施形態では、可視光と赤外光を用いる例を説明したが、赤外光に替えて、赤外光以外の非可視光を用いることも可能である。また、上記の実施形態では、可視光画像と赤外光画像では同一の撮影範囲の画像としたが、全く同一でなくてもよい。例えば、可視光画像の撮影範囲が赤外光画像の撮影範囲に含まれてもよい。
[Other Embodiments]
In the above embodiment, an example of detecting a person has been described, but the present embodiment can also be applied to an example of detecting a subject whose appearance differs between a visible light image and an infrared light image. Further, although the above embodiment has described an example in which a person is detected by detecting a face, the present invention is not limited to the face, and the person may be detected by detecting another part. Further, in the above embodiment, the example of using visible light and infrared light has been described, but it is also possible to use invisible light other than infrared light instead of infrared light. Further, in the above embodiment, the visible light image and the infrared light image have the same shooting range, but they do not have to be exactly the same. For example, the shooting range of the visible light image may be included in the shooting range of the infrared light image.
また、画像処理装置111は、可視光画像において検出された顔のうち、実人物の顔ではないと判定した顔の情報を保管してもよい。この場合、例えば、画像処理装置111は、比較部115の処理を必要とせず、新たに得られた可視光画像において、実人物の顔ではない顔を判定することが可能となる。画像処理装置111は、このような実人物の顔ではないと判定した顔の情報を、あらゆる目的のために出力部116を介して出力することも可能である。
Further, the
以上、本発明の実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101 撮像装置、11 光軸。12 光軸、102 対物レンズ、103 撮影絞り、104 フォーカスレンズ、105 撮像レンズ、106 ダイクロイックミラー、107 可視光撮像素子、108 赤外光撮像素子、109 画像処理部、110 制御部、111 画像処理装置、112 通信部、113 画像入力部、114 顔検出部、115 比較部、116 出力部 101 imager, 11 optical axis. 12 optical axis, 102 objective lens, 103 shooting aperture, 104 focus lens, 105 image sensor, 106 dichroic mirror, 107 visible light image sensor, 108 infrared light image sensor, 109 image processing unit, 110 control unit, 111 image processing device , 112 Communication section, 113 Image input section, 114 Face detection section, 115 Comparison section, 116 Output section
Claims (13)
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出手段と、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域に対して所定の画像処理を実行し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記所定の画像処理を実行しない画像処理手段と、
を有することを特徴とする画像処理装置。 In the visible light image obtained by photographing with visible light, the first detection means for detecting the face of the person by using the image feature of the face of the person and
A second detection means for detecting a person's face by using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face is detected in the visible light image. A predetermined image process is executed on the face area detected by the first detection means,
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. (1) An image processing means that does not perform the predetermined image processing on the face area detected by the detection means, and
An image processing device characterized by having.
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域をマスクするマスク処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記マスク処理を実行しないことを特徴とする請求項1に記載の画像処理装置。 The image processing means
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face in the visible light image A mask process for masking the face area detected by the first detection means is executed as the predetermined image process.
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. 1. The image processing apparatus according to claim 1, wherein the mask processing is not executed on the face region detected by the detection means.
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域に対して画質を高くする高画質化処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記高画質化処理を実行しないことを特徴とする請求項1に記載の画像処理装置。 The image processing means
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face is detected in the visible light image. An image quality enhancement process for increasing the image quality of the face region detected by the first detection means is executed as the predetermined image process.
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. 1. The image processing apparatus according to claim 1, wherein the image quality improving process is not executed on the face region detected by the detection means.
可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出手段と、
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出手段と、
前記検出処理の検出結果に関する情報を出力する出力手段とを有し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像において前記第1検出手段により検出された前記顔は前記検出結果に含まれ、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像において前記第1検出手段により検出された前記顔は前記検出結果に含まれないことを特徴とする画像処理装置。 An image processing device that executes detection processing to detect a person's face.
In the visible light image obtained by photographing with visible light, the first detection means for detecting the face of the person by using the image feature of the face of the person and
A second detection means for detecting a person's face by using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
It has an output means for outputting information on the detection result of the detection process.
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face is not detected in the visible light image. The face detected by the first detection means is included in the detection result, and is included in the detection result.
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. (1) An image processing apparatus characterized in that the face detected by the detection means is not included in the detection result.
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出工程と、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して所定の画像処理を実行し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して前記所定の画像処理を実行しない画像処理工程と、
を有することを特徴とする画像処理方法。 In the visible light image obtained by taking a picture using visible light, the first detection step of detecting the person's face by using the image feature of the person's face and
A second detection step of detecting a person's face using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. A predetermined image process is executed on the face area detected in the first detection step, and the image processing is performed.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. 1 An image processing step in which the predetermined image processing is not performed on the face region detected in the detection step, and
An image processing method characterized by having.
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域をマスクするマスク処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して前記マスク処理を実行しないことを特徴とする請求項7に記載の画像処理方法。 In the image processing step
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. A mask process for masking the face area detected in the first detection step is executed as the predetermined image process.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. 1. The image processing method according to claim 7, wherein the mask processing is not performed on the face region detected in the detection step.
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して画質を高くする高画質化処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して前記高画質化処理を実行しないことを特徴とする請求項7に記載の画像処理方法。 In the image processing step
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. An image quality enhancement process for increasing the image quality of the face region detected in the first detection step is executed as the predetermined image process.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. 1. The image processing method according to claim 7, wherein the image quality improving process is not executed on the face region detected in the detection step.
可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出工程と、
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出工程と、
前記検出処理の検出結果に関する情報を出力する出力工程とを有し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像において前記第1検出工程において検出された前記顔は前記検出結果に含まれ、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔は前記検出結果に含まれないことを特徴とする画像処理方法。 An image processing method that executes detection processing to detect a person's face.
In the visible light image obtained by taking a picture using visible light, the first detection step of detecting the face of the person using the image feature of the face of the person and
A second detection step of detecting a person's face using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
It has an output process that outputs information about the detection result of the detection process.
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. The face detected in the first detection step is included in the detection result, and is included in the detection result.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. (1) An image processing method characterized in that the face detected in the detection step is not included in the detection result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020125682A JP6934987B2 (en) | 2016-05-16 | 2020-07-22 | Image processing equipment, image processing methods, and programs |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016098153A JP2017208616A (en) | 2016-05-16 | 2016-05-16 | Image processing apparatus, image processing method, and program |
JP2020125682A JP6934987B2 (en) | 2016-05-16 | 2020-07-22 | Image processing equipment, image processing methods, and programs |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016098153A Division JP2017208616A (en) | 2016-05-16 | 2016-05-16 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020195140A true JP2020195140A (en) | 2020-12-03 |
JP6934987B2 JP6934987B2 (en) | 2021-09-15 |
Family
ID=73548147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020125682A Active JP6934987B2 (en) | 2016-05-16 | 2020-07-22 | Image processing equipment, image processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6934987B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005197914A (en) * | 2004-01-06 | 2005-07-21 | Fuji Photo Film Co Ltd | Face image recognizing apparatus and digital camera equipped with the same |
JP2008160354A (en) * | 2006-12-22 | 2008-07-10 | Matsushita Electric Ind Co Ltd | Video output device |
JP2009010669A (en) * | 2007-06-28 | 2009-01-15 | Sony Corp | Image processing unit, imaging apparatus, image processing method, and program |
JP2009296266A (en) * | 2008-06-04 | 2009-12-17 | Fujifilm Corp | Monitoring camera device, and monitoring camera system |
US20100141770A1 (en) * | 2008-12-05 | 2010-06-10 | Sony Corporation | Imaging apparatus and imaging method |
CN101964056A (en) * | 2010-10-26 | 2011-02-02 | 徐勇 | Bimodal face authentication method with living body detection function and system |
US20130222564A1 (en) * | 2012-02-29 | 2013-08-29 | Suprema Inc. | Apparatus for recognizing face based on environment adaptation |
JP2017011451A (en) * | 2015-06-19 | 2017-01-12 | カシオ計算機株式会社 | Detection device, detection method and program |
-
2020
- 2020-07-22 JP JP2020125682A patent/JP6934987B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005197914A (en) * | 2004-01-06 | 2005-07-21 | Fuji Photo Film Co Ltd | Face image recognizing apparatus and digital camera equipped with the same |
JP2008160354A (en) * | 2006-12-22 | 2008-07-10 | Matsushita Electric Ind Co Ltd | Video output device |
JP2009010669A (en) * | 2007-06-28 | 2009-01-15 | Sony Corp | Image processing unit, imaging apparatus, image processing method, and program |
JP2009296266A (en) * | 2008-06-04 | 2009-12-17 | Fujifilm Corp | Monitoring camera device, and monitoring camera system |
US20100141770A1 (en) * | 2008-12-05 | 2010-06-10 | Sony Corporation | Imaging apparatus and imaging method |
JP2010136223A (en) * | 2008-12-05 | 2010-06-17 | Sony Corp | Imaging device and imaging method |
CN101964056A (en) * | 2010-10-26 | 2011-02-02 | 徐勇 | Bimodal face authentication method with living body detection function and system |
US20130222564A1 (en) * | 2012-02-29 | 2013-08-29 | Suprema Inc. | Apparatus for recognizing face based on environment adaptation |
JP2017011451A (en) * | 2015-06-19 | 2017-01-12 | カシオ計算機株式会社 | Detection device, detection method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6934987B2 (en) | 2021-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017208616A (en) | Image processing apparatus, image processing method, and program | |
US10303973B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
KR102270674B1 (en) | Biometric camera | |
US11294996B2 (en) | Systems and methods for using machine learning for image-based spoof detection | |
JP6564271B2 (en) | Imaging apparatus, image processing method, program, and storage medium | |
US20050084179A1 (en) | Method and apparatus for performing iris recognition from an image | |
WO2021073140A1 (en) | Monocular camera, and image processing system and image processing method | |
US20160180169A1 (en) | Iris recognition device, iris recognition system including the same and method of operating the iris recognition system | |
WO2005015896A1 (en) | A method and system of filtering a red-eye phenomenon from a digital image | |
JP2000278584A (en) | Image input device provided with image processing function and recording medium recording its image processing program | |
TWI394085B (en) | Method of identifying the dimension of a shot subject | |
JP2017011634A (en) | Imaging device, control method for the same and program | |
KR102152072B1 (en) | Object detection system integrating real video camera and thermal video camera | |
US20080240520A1 (en) | Imaging apparatus, display control method and recording medium | |
JP2009123081A (en) | Face detection method and photographing apparatus | |
JP2004219277A (en) | Method and system, program, and recording medium for detection of human body | |
JP2008252404A (en) | Imaging apparatus, method, and program | |
JP6934987B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2021150760A (en) | Imaging apparatus and method for controlling the same | |
JP2008021072A (en) | Photographic system, photographic device and collation device using the same, and photographic method | |
JP6087615B2 (en) | Image processing apparatus and control method therefor, imaging apparatus, and display apparatus | |
JP2013118574A (en) | Imaging apparatus | |
JP2021005798A (en) | Imaging apparatus, control method of imaging apparatus, and program | |
JP2020191546A (en) | Image processing apparatus, image processing method, and program | |
JP2008160280A (en) | Imaging apparatus and automatic imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200722 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210824 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6934987 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |