JP2020195140A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2020195140A
JP2020195140A JP2020125682A JP2020125682A JP2020195140A JP 2020195140 A JP2020195140 A JP 2020195140A JP 2020125682 A JP2020125682 A JP 2020125682A JP 2020125682 A JP2020125682 A JP 2020125682A JP 2020195140 A JP2020195140 A JP 2020195140A
Authority
JP
Japan
Prior art keywords
face
detected
image
light image
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020125682A
Other languages
Japanese (ja)
Other versions
JP6934987B2 (en
Inventor
倫彦 小野
Tomohiko Ono
倫彦 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016098153A external-priority patent/JP2017208616A/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020125682A priority Critical patent/JP6934987B2/en
Publication of JP2020195140A publication Critical patent/JP2020195140A/en
Application granted granted Critical
Publication of JP6934987B2 publication Critical patent/JP6934987B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Studio Devices (AREA)

Abstract

To detect a person appearing in an image more accurately.SOLUTION: In a visible light image obtained by shooting while using visible light, and an infrared image obtained by shooting in a shooting range including the shooting range of the visible light image, by using infrared light, an image processing apparatus detects a person, and judges a person not detected in the infrared light image, out of the persons detected in the visible light image, as a person who exists actually.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置により撮影された画像から人物を検出する技術に関する。 The present invention relates to a technique for detecting a person from an image taken by an imaging device.

従来から、監視映像を用いて監視映像に映る人物領域(以下、単に「人物」という)を検出する人物検出装置がある。このような人物検出装置は、一般的には監視システムに組み込まれて用いられる。また、監視映像の撮影用には、一般的にはネットワークカメラが用いられる。 Conventionally, there is a person detection device that detects a person area (hereinafter, simply referred to as "person") reflected in a surveillance image using a surveillance image. Such a person detection device is generally used by being incorporated in a monitoring system. In addition, a network camera is generally used for shooting surveillance images.

人物検出装置で実施される人物検出方法の一例として、人物の顔部分を検出する方法がある(たとえば特許文献1)。このような顔部分の検出方法では、画像の輝度や色情報を使用する方法が一般的である。 As an example of the person detection method implemented by the person detection device, there is a method of detecting a face portion of a person (for example, Patent Document 1). In such a method for detecting a face portion, a method using image brightness and color information is common.

特開2014−64083号公報Japanese Unexamined Patent Publication No. 2014-64083

特許文献1に記載されているような、画像の輝度や色情報を用いて人物検出方法では、以下のような問題点がある。つまり、ポスターやモニター等における顔と、撮像装置で撮像されている実際の人物(実人物)とを識別することが難しいという問題がある。ここで、ポスターにおける顔とは、撮像装置によって撮影されたポスター等の印刷物における顔である。また、モニターにおける顔とは、撮像装置によって撮影されたモニターに表示されている顔である。 The person detection method using image brightness and color information as described in Patent Document 1 has the following problems. That is, there is a problem that it is difficult to distinguish a face on a poster, a monitor, or the like from an actual person (real person) imaged by an imaging device. Here, the face in the poster is a face in a printed matter such as a poster photographed by an imaging device. The face on the monitor is a face displayed on the monitor taken by the imaging device.

本発明は、上記課題に鑑みてなされたものであり、画像に映る人物をより正確に検出することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to more accurately detect a person appearing in an image.

上述の目的を達成するための一手段として、本発明の画像処理装置は以下の構成を有する。すなわち、可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出手段と、前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出手段と、前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域に対して所定の画像処理を実行し、前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記所定の画像処理を実行しない画像処理手段と、を有することを特徴とする。 As one means for achieving the above-mentioned object, the image processing apparatus of the present invention has the following configuration. That is, in the visible light image obtained by shooting with visible light, it corresponds to the first detection means for detecting the face of the person by using the image feature of the face of the person and the shooting range of the visible light image. In the infrared light image obtained by photographing the imaging range to be performed using infrared light, the second detection means for detecting the face of a person using the image features and the first in the visible light image. When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the detection means, it is detected by the first detection means in the visible light image. A predetermined image process is executed on the region of the face, and the second detection means is performed at a position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image. When the face is detected by the above, the first detecting means in the visible light image has an image processing means that does not execute the predetermined image processing on the detected area of the face. ..

本発明によれば、画像に映る人物をより正確に検出することが可能となる。 According to the present invention, it is possible to more accurately detect a person appearing in an image.

実施形態1における撮像装置と画像処理装置の構成の一例を示す図。The figure which shows an example of the structure of the image pickup apparatus and the image processing apparatus in Embodiment 1. FIG. 実施形態1における顔検出処理を説明するための図。The figure for demonstrating the face detection process in Embodiment 1. 実施形態1における人物検出処理の一例のフローチャート。The flowchart of an example of the person detection process in Embodiment 1. 人物検出装置を用いて構成される一般的な監視システムを示す図。The figure which shows the general monitoring system configured by using the person detection device. 従来の人物検出方法の一例を説明するための図。The figure for demonstrating an example of the conventional person detection method. 実施形態2における撮像装置と画像処理装置の構成の一例を示す図。The figure which shows an example of the structure of the image pickup apparatus and the image processing apparatus in Embodiment 2. FIG.

以下、添付の図面を参照して、本発明をその実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on the embodiments with reference to the accompanying drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.

最初に、ネットワークカメラと人物検出装置を用いて構成される一般的な監視システムを、図4に示す。図4において、ネットワークカメラ401が、LAN(Local Area Network)などのネットワーク402を介して、人物検出装置403および各種制御装置404に接続されている。なお、図4には1台のネットワークカメラのみが示されているが、複数台のネットワークカメラが人物検出装置403および各種制御装置404に接続されてもよい。人物検出装置403は、ネットワークカメラ401から監視映像を受信し、当該監視映像に映る人物を検出する。各種制御装置404は、例えば、ネットワークカメラ401から監視映像を受信し、当該監視映像に人物検出装置403による人物検出結果を反映させた画像を別途接続した表示装置(不図示)に表示することができる。また、各種制御装置404は、人物検出装置403による人物検出結果に応じて、ネットワークカメラ401からから受信した監視映像を別途接続したデータ蓄積装置(不図示)に保存することができる。なお、図4の例では人物検出装置403および各種制御装置404を2つの装置に分けているが、同一装置内に両方の機能を配置することも可能である。 First, FIG. 4 shows a general surveillance system configured by using a network camera and a person detection device. In FIG. 4, the network camera 401 is connected to the person detection device 403 and various control devices 404 via a network 402 such as a LAN (Local Area Network). Although only one network camera is shown in FIG. 4, a plurality of network cameras may be connected to the person detection device 403 and various control devices 404. The person detection device 403 receives the surveillance image from the network camera 401 and detects the person appearing in the surveillance image. The various control devices 404 may, for example, receive a surveillance image from the network camera 401 and display an image reflecting the person detection result by the person detection device 403 on the surveillance image on a display device (not shown) separately connected. it can. Further, the various control devices 404 can store the surveillance video received from the network camera 401 in a separately connected data storage device (not shown) according to the person detection result by the person detection device 403. In the example of FIG. 4, the person detection device 403 and various control devices 404 are divided into two devices, but it is also possible to arrange both functions in the same device.

ここで、特許文献1に記載されているような、画像の輝度や色情報を用いて人物検出方法における課題を、図5を用いてより詳細に説明する。図5は、従来の人物検出方法の一例を説明するための図である。 Here, a problem in a person detection method using image brightness and color information as described in Patent Document 1 will be described in more detail with reference to FIG. FIG. 5 is a diagram for explaining an example of a conventional person detection method.

図5(A)において、画像501は、ある画角で撮影された画像である。画像501内において、ポスター503、ポスター504、人物505、および人物506が映っている。ポスター503およびポスター504は、人物が印刷されたポスターであり、人物505および人物506は、実際に存在する実人物である。画像501に対して、画像の輝度や色情報を用いて人物の顔507〜510を検出した画像502を図5(B)に示す。画像の輝度や色情報という観点では、ポスターに映る人物(顔507および顔508)と実人物(顔509および顔510)は同じように見える。そのため、画像502に示すように、顔507〜510すべてが、「人物の顔」として検出される。しかし、実際には、顔507および508は、ポスターに映る顔(ポスター上の印刷物の顔)であるため、実人物には該当しない。このような人物検出技術は、実人物のみを検出する監視システムには不適合である。 In FIG. 5A, image 501 is an image taken at a certain angle of view. In image 501, poster 503, poster 504, person 505, and person 506 are shown. The poster 503 and the poster 504 are posters on which a person is printed, and the person 505 and the person 506 are real people who actually exist. FIG. 5B shows an image 502 in which a person's face 507 to 510 is detected using the brightness and color information of the image with respect to the image 501. From the viewpoint of image brightness and color information, the person (face 507 and face 508) and the real person (face 509 and face 510) appearing on the poster look the same. Therefore, as shown in image 502, all faces 507 to 510 are detected as "human faces". However, in reality, the faces 507 and 508 do not correspond to real people because they are the faces reflected in the poster (the faces of the printed matter on the poster). Such a person detection technique is not suitable for a monitoring system that detects only a real person.

以下、画像に映る人物をより正確に検出するための実施形態について説明する。 Hereinafter, embodiments for more accurately detecting a person appearing in an image will be described.

[実施形態1]
図1は、実施形態1における撮像装置101と画像処理装置111の構成の一例を示す図である。なお、図1では、撮像装置101の一部の構成要素は省略されている。また、撮像装置101は、動画および静止画の撮像が可能である。画像処理装置111は、本実施形態では人物検出装置として機能する。
[Embodiment 1]
FIG. 1 is a diagram showing an example of the configuration of the image pickup apparatus 101 and the image processing apparatus 111 according to the first embodiment. In FIG. 1, some components of the image pickup apparatus 101 are omitted. In addition, the image pickup device 101 can capture moving images and still images. The image processing device 111 functions as a person detection device in this embodiment.

まず、撮像装置101の構成について説明する。撮像装置101において、光軸11上に、対物レンズ102、撮影絞り103、フォーカスレンズ104、撮像レンズ105が順次に配列されており、その後方に、ダイクロイックミラー106が配置されている。光が入射されると、対物レンズ102によって集光され、撮影絞り103へと入射される。撮影絞り103を通過した光は、フォーカスレンズ104や撮像レンズ105からなるレンズ系に入射される。レンズ系を通過した光は、波長分離のためのダイクロイックミラー106に入射される。 First, the configuration of the image pickup apparatus 101 will be described. In the image pickup apparatus 101, the objective lens 102, the photographing aperture 103, the focus lens 104, and the image pickup lens 105 are sequentially arranged on the optical axis 11, and the dichroic mirror 106 is arranged behind the objective lens 102, the focus lens 104, and the image pickup lens 105. When light is incident, it is condensed by the objective lens 102 and incident on the photographing diaphragm 103. The light that has passed through the shooting aperture 103 is incident on the lens system including the focus lens 104 and the image pickup lens 105. The light that has passed through the lens system is incident on the dichroic mirror 106 for wavelength separation.

ダイクロイックミラー106は、可視光を透過し、赤外光を反射するように構成されている。なお、一例として、可視光とは略800nm未満の波長の光であり、赤外光とは800nm以上の波長の光であるものとする。よって、本実施形態では、ダイクロイックミラー106は、800nm未満の波長の光を透過し、800nm以上の波長の光を反射するように構成されているものとする。なお、本実施形態において可視光とは紫外光を含んでいてもよいものとする。また、ダイクロイックミラー106は、特定の範囲の波長の光のみを反射するようにしてもよい。例えば、900nm〜1300nmの波長の光のみを反射するようにしてもよい。 The dichroic mirror 106 is configured to transmit visible light and reflect infrared light. As an example, visible light is light having a wavelength of less than 800 nm, and infrared light is light having a wavelength of 800 nm or more. Therefore, in the present embodiment, the dichroic mirror 106 is configured to transmit light having a wavelength of less than 800 nm and reflect light having a wavelength of 800 nm or more. In this embodiment, the visible light may include ultraviolet light. Further, the dichroic mirror 106 may reflect only light having a wavelength in a specific range. For example, only light having a wavelength of 900 nm to 1300 nm may be reflected.

ダイクロイックミラー106を透過した可視光は、ダイクロイックミラー106の後方に配置された可視光撮像素子107に入射される。可視光撮像素子107は、入射された可視光を受光して、その受光した可視光を電荷に変換して撮像信号(可視光撮像信号)を生成する。 The visible light transmitted through the dichroic mirror 106 is incident on the visible light image sensor 107 arranged behind the dichroic mirror 106. The visible light image sensor 107 receives the incident visible light and converts the received visible light into an electric charge to generate an image pickup signal (visible light image pickup signal).

一方、ダイクロイックミラー106で反射された赤外光成分は、光軸12を通り、赤外光撮像素子108に入射される。赤外光撮像素子108は、入射された赤外光を受光して、その受光した赤外視光を電荷に変換して撮像信号(赤外光撮像信号)を生成する。 On the other hand, the infrared light component reflected by the dichroic mirror 106 passes through the optical axis 12 and is incident on the infrared light image sensor 108. The infrared light image sensor 108 receives the incident infrared light and converts the received infrared visual light into an electric charge to generate an image pickup signal (infrared light image pickup signal).

なお、可視光撮像素子107や赤外光撮像素子108には、例えば、CMOSイメージセンサ(Complementary Metal Oxide SemicONductor Image Sensor)を用いることができる。また、可視光撮像素子107や赤外光撮像素子108には、CCDイメージセンサ(Charge Coupled Device Image Sensor)を用いてもよい。また、可視光撮像素子107および赤外光撮像素子108は、同じように結像させるため略共役な位置に配置されるが、赤外光と可視光の波長差により合焦位置がずれるため、赤外光撮像素子108は、光路上後方にずれて配置されている。さらに、撮像装置101は、不図示の近赤外光を発するLED(Light Emitting Diode)光源からなる照明光源を持つことも可能である。 For the visible light image sensor 107 and the infrared light image sensor 108, for example, a CMOS image sensor (Complementary Metal Oxide SemicONductor Image Sensor) can be used. Further, a CCD image sensor (Charge Coupled Device Image Sensor) may be used for the visible light image sensor 107 and the infrared light image sensor 108. Further, the visible light imaging element 107 and the infrared light imaging element 108 are arranged at substantially conjugate positions in order to form an image in the same manner, but the focusing position shifts due to the wavelength difference between the infrared light and the visible light. The infrared light imaging element 108 is arranged so as to be displaced rearward on the optical path. Further, the imaging device 101 can also have an illumination light source including an LED (Light Emitting Diode) light source that emits near-infrared light (not shown).

可視光撮像素子107および赤外光撮像素子108の出力は、画像処理部109において画像データに加工される。このような画像データは、例えば、一般的な画像処理装置が利用可能なYCbCr、RGB、YUVなどの色空間情報、あるいは、MotionJPEG圧縮やh.264圧縮などの圧縮処理された画像データである。画像処理部109は、可視光撮像素子107および赤外光撮像素子108からの出力に対してこのような加工処理を施したデータを、可視光画像と赤外光画像として生成する。 The outputs of the visible light image sensor 107 and the infrared light image sensor 108 are processed into image data by the image processing unit 109. Such image data is, for example, color space information such as YCbCr, RGB, and YUV that can be used by a general image processing device, or compressed image data such as Motion JPEG compression or h.264 compression. The image processing unit 109 generates data obtained by subjecting the outputs from the visible light image sensor 107 and the infrared light image sensor 108 to such processing as a visible light image and an infrared light image.

画像処理部109で生成された可視光画像と赤外光画像は、制御部110に送られる。制御部110は、可視光画像と赤外光画像を、LANなどのネットワークを介して接続した、外部ストレージや外部コンピュータ等の外部機器に転送することができる。また、制御部110は、外部機器により撮像装置101に対する撮影の開始や終了の指示を受け、撮像装置101において当該指示に対応する制御を行うことができる。 The visible light image and the infrared light image generated by the image processing unit 109 are sent to the control unit 110. The control unit 110 can transfer the visible light image and the infrared light image to an external device such as an external storage or an external computer connected via a network such as a LAN. In addition, the control unit 110 receives instructions from an external device to start or end shooting to the image pickup device 101, and the image pickup device 101 can perform control corresponding to the instructions.

このように、撮像装置101は、可視光撮像素子107と赤外光撮像素子108を有することにより、受光した可視光を画像化した可視光画像と、受光した赤外光を画像化した赤外光画像を生成することが可能となる。また、これらの画像は同一の画角となる。 As described above, the image pickup device 101 includes the visible light image sensor 107 and the infrared light image sensor 108, so that the visible light image obtained by imaging the received visible light and the infrared ray obtained by imaging the received infrared light are imaged. It is possible to generate an optical image. Moreover, these images have the same angle of view.

ここで、撮像装置101により生成される赤外光画像について説明する。一般的に、人物の皮膚は、波長1000nm当たりから吸収が高くなり、波長1400〜1600nmでは衣服などに比べ高い吸収を示す。そのため、赤外光画像において、人物は黒く映る(後述する図2を参照)。一方、印刷物の濃淡や黒色をだすための黒系インク(カーボンブラックなど)は、赤外光画像においても、可視画像と同様に映る。そのため、赤外光画像において、印刷物上の人物は、輪郭、コントラストなどが協調されることはあっても、可視画像と類似の画像になる。 Here, the infrared light image generated by the image pickup apparatus 101 will be described. In general, human skin has high absorption from around 1000 nm of wavelength, and shows higher absorption than clothes at wavelengths of 1400 to 1600 nm. Therefore, in the infrared light image, the person appears black (see FIG. 2 described later). On the other hand, black ink (carbon black, etc.) for producing shades and black color of printed matter appears in an infrared light image in the same manner as a visible image. Therefore, in the infrared light image, the person on the printed matter becomes an image similar to the visible image even though the contour, the contrast, and the like are coordinated.

続いて、画像処理装置111の構成について説明する。通信部112は、撮像装置101で生成された可視光画像および赤外光画像を取得する。なお、本実施形態において、可視光画像および赤外光画像は、同一の画角の撮影に基づく画像である。したがって、可視光画像および赤外光画像は、同一の撮影範囲の画像とする。また、本実施形態において、可視光画像および赤外光画像は、同時刻の撮影に基づく画像とする。 Subsequently, the configuration of the image processing device 111 will be described. The communication unit 112 acquires the visible light image and the infrared light image generated by the image pickup apparatus 101. In the present embodiment, the visible light image and the infrared light image are images based on shooting at the same angle of view. Therefore, the visible light image and the infrared light image are images in the same shooting range. Further, in the present embodiment, the visible light image and the infrared light image are images based on shooting at the same time.

画像入力部113は、通信部112により取得された可視光画像および赤外光画像に対して、必要に応じてデータ伸長処理を行い、顔検出部114に送る。顔検出部114は、画像入力部113から受け取った画像に対して、人物検出処理として、顔検出処理を実行する。 The image input unit 113 performs data expansion processing on the visible light image and the infrared light image acquired by the communication unit 112 as necessary, and sends them to the face detection unit 114. The face detection unit 114 executes a face detection process as a person detection process on the image received from the image input unit 113.

顔検出部114で実行される顔検出処理の一例として、主成分分析による固有顔(eigenface)を用いた方法がある。この方法は、例えば、「M.A.Turk and A.P.Pentland, "Face Recognition Using Eigenfaces", Proc. of I3 Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.」に記載されている。また、特開平9−251534号公報に示されているように、目、鼻、口等の特徴点を利用した方法により、顔検出処理を行うようにしてもよい。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により、入力画像が人物の顔であるかどうかを判定している。顔検出処理での顔検出の結果としては、顔画像の特徴点の情報(鼻・口・顔の輪郭形状、及びそれぞれのサイズと特徴点の位置等)が挙げられる。なお、顔検出処理自体は、前述したように公知の技術で実現できるので、ここでは、その詳細な説明を省略する。なお、可視光画像および赤外光画像に対して、それぞれ異なる顔検出方法やパラメータを用いてもよい。例えば、赤外光画像はモノクロとなる場合が多いため、モノクロ画像に適した顔検出方法やパラメータを用いてもよい。 As an example of the face detection process executed by the face detection unit 114, there is a method using an eigenface by principal component analysis. This method is described, for example, in "M.A.Turk and A.P.Pentland," Face Recognition Using Eigenfaces ", Proc. Of I3 Conf. On Computer Vision and Pattern Recognition, pp.586-591, 1991." Further, as shown in JP-A-9-251534, the face detection process may be performed by a method utilizing feature points such as eyes, nose, and mouth. In these methods, it is determined whether or not the input image is a person's face by a pattern matching method of the input image and a plurality of standard patterns. As a result of face detection in the face detection process, information on feature points of a face image (nose / mouth / face contour shape, size of each, position of feature points, etc.) can be mentioned. Since the face detection process itself can be realized by a known technique as described above, detailed description thereof will be omitted here. In addition, different face detection methods and parameters may be used for the visible light image and the infrared light image. For example, since the infrared light image is often monochrome, a face detection method or parameter suitable for the monochrome image may be used.

ここで、図2を参照して顔検出部114による顔検出処理について説明する。図2は、本実施形態における顔検出結果を説明するための図である。図2(A)には、可視光画像201が示されている。可視光画像201に対する顔検出部114による顔検出処理の結果、顔203〜206が検出結果として出力される。一方、図2(B)には、赤外光画像202が示されている。赤外光画像202に対する顔検出部114による顔検出処理の結果、顔207および顔208が検出結果として出力される。実人物は皮膚が黒く映るため、顔209および顔210は検出結果として出力されない。 Here, the face detection process by the face detection unit 114 will be described with reference to FIG. FIG. 2 is a diagram for explaining the face detection result in the present embodiment. FIG. 2A shows a visible light image 201. As a result of face detection processing by the face detection unit 114 for the visible light image 201, faces 203 to 206 are output as detection results. On the other hand, FIG. 2B shows an infrared light image 202. As a result of the face detection process by the face detection unit 114 on the infrared light image 202, the face 207 and the face 208 are output as the detection results. Face 209 and face 210 are not output as detection results because the skin of a real person appears black.

顔検出部114から出力された、可視光画像に対する検出結果と赤外光画像に対する検出結果は、比較部115によって比較される。比較部115は、2つの検出結果を比較することにより、可視光画像において検出された人物(顔)のうち赤外光画像において検出されなかった人物(顔)を、実人物と判定する。 The detection result for the visible light image and the detection result for the infrared light image output from the face detection unit 114 are compared by the comparison unit 115. By comparing the two detection results, the comparison unit 115 determines that the person (face) detected in the visible light image but not detected in the infrared light image is a real person.

図2を参照すると、例えば、比較部115は、可視光画像201で検出された顔203〜206の領域から、赤外光画像202で検出された顔207および顔208の領域を差し引いた領域(顔207および208の領域)を実人物の顔と判定する。 Referring to FIG. 2, for example, the comparison unit 115 subtracts the regions of the face 207 and the face 208 detected in the infrared light image 202 from the regions of the faces 203 to 206 detected in the visible light image 201 (the region (the region of the face 207 and the face 208 detected in the infrared light image 202). The areas of faces 207 and 208) are determined to be the faces of real people.

また、比較部115は、可視光画像において検出された顔の位置と同じ位置で、赤外光画像202において顔が検出されたかを判定してもよい。この場合、比較部115は、同じ位置で顔が検出された場合は、可視光画像において検出された顔は実人物の顔ではないと判定する。ただし、可視光画像と赤外光画像とで検出された顔の位置は、は若干ずれが生じる場合がある。よって、所定のずれ量以内であれば「同一位置」と判定するようにすればよい。一方で、比較部115は、同じ位置で顔が検出されなかった場合、すなわち、可視画像のみで顔が検出された場合は、可視光画像において検出された顔は、実人物の顔であると判定する。図2を参照すると、例えば、比較部115は、可視光画像201において検出された顔203の位置で、赤外光画像202において顔207が検出されたので、顔203は実人物の顔ではないと判定する。また、比較部115は、可視光画像201において検出された顔205の位置で、赤外光画像202において顔は検出されていないので、顔205は実人物の顔であると判定する。 Further, the comparison unit 115 may determine whether or not the face is detected in the infrared light image 202 at the same position as the position of the face detected in the visible light image. In this case, if the face is detected at the same position, the comparison unit 115 determines that the face detected in the visible light image is not the face of a real person. However, the positions of the faces detected in the visible light image and the infrared light image may be slightly different from each other. Therefore, if it is within a predetermined deviation amount, it may be determined as "the same position". On the other hand, the comparison unit 115 determines that the face detected in the visible light image is the face of a real person when the face is not detected at the same position, that is, when the face is detected only in the visible image. judge. Referring to FIG. 2, for example, in the comparison unit 115, the face 207 was detected in the infrared light image 202 at the position of the face 203 detected in the visible light image 201, so that the face 203 is not the face of a real person. Is determined. Further, the comparison unit 115 determines that the face 205 is the face of a real person because the face is not detected in the infrared light image 202 at the position of the face 205 detected in the visible light image 201.

比較部115により判定された人物の情報は、出力部116に送られる。出力部116は、人物の情報を集計し、集計結果を、別途接続された表示装置(不図示)に出力する、また、出力部116は、集計結果を、別途接続された外部ストレージ(不図示)に蓄積することも可能である。 The information of the person determined by the comparison unit 115 is sent to the output unit 116. The output unit 116 aggregates the information of the person and outputs the aggregated result to a separately connected display device (not shown), and the output unit 116 outputs the aggregated result to the separately connected external storage (not shown). ) Can also be accumulated.

次に、図3を参照して、画像処理装置111による人物検出処理について説明する。図3は、本実施形態における人物検出処理の一例のフローチャートである。 Next, the person detection process by the image processing device 111 will be described with reference to FIG. FIG. 3 is a flowchart of an example of the person detection process in the present embodiment.

まず、画像処理装置111は。撮像装置101から可視光画像Aを取得する(s301)。続いて、画像処理装置111は、撮像装置101から赤外光画像Bを取得する(s302)。これらの画像取得処理では、ネットワークを介して撮像装置から順次、あるいは同時に取得する。なお、s301とs302の処理の順序は逆であってもよい。続いて、画像処理装置111は、取得した可視光画像Aと赤外光画像Bに対して、上述したような顔検出処理を行う(s303)。 First, the image processing device 111. The visible light image A is acquired from the image pickup apparatus 101 (s301). Subsequently, the image processing device 111 acquires an infrared light image B from the image pickup device 101 (s302). In these image acquisition processes, images are acquired sequentially or simultaneously from the image pickup apparatus via the network. The processing order of s301 and s302 may be reversed. Subsequently, the image processing device 111 performs the face detection process as described above on the acquired visible light image A and infrared light image B (s303).

顔検出処理(s303)の後、画像処理装置111は、可視光画像Aにおいて検出されたすべての顔に対して、赤外光画像Bで検出されたか否かを比較する(s304)。例えば、画像処理装置111は、可視光画像Aにおいて検出された顔が、赤外光画像Bでも同じ位置で検出されたか否かを比較する。同じ位置で検出された場合は、画像処理装置111は、可視光画像Aにおいて検出された顔は、実人物の顔ではないと判定する。一方で、同じ位置で検出されなかった場合、すなわち、可視画像のみで検出された場合は、画像処理装置111は、可視光画像Aにおいて検出された顔は、実人物の顔であると判定する。この判定結果に応じて、実人物の顔であると判定された場合は、人数のカウントを1増やす。以上の処理によって、画像処理装置111は、同一の画角内に存在する実人物の人数カウント結果を得る(s305)。 After the face detection process (s303), the image processing device 111 compares whether or not all the faces detected in the visible light image A are detected in the infrared light image B (s304). For example, the image processing device 111 compares whether or not the face detected in the visible light image A is also detected at the same position in the infrared light image B. If they are detected at the same position, the image processing device 111 determines that the face detected in the visible light image A is not the face of a real person. On the other hand, if it is not detected at the same position, that is, if it is detected only in the visible image, the image processing device 111 determines that the face detected in the visible light image A is the face of a real person. .. If it is determined that the face is a real person according to this determination result, the count of the number of people is incremented by 1. Through the above processing, the image processing device 111 obtains the result of counting the number of real people existing in the same angle of view (s305).

このように、本実施形態によれば、ポスターなどの印刷物に印刷された人物と、実際に存在する実人物が同じ画像内に混在する場合でも、実人物のみの検出が可能となる。したがって、本実施形態における撮像装置および画像処理装置により、撮像監視画像の中から実人物のみを検出しカウントするような監視システムを実現することが可能である。 As described above, according to the present embodiment, even when a person printed on a printed matter such as a poster and a real person who actually exists are mixed in the same image, it is possible to detect only the real person. Therefore, the imaging device and the image processing device in the present embodiment can realize a monitoring system that detects and counts only a real person from the captured monitoring images.

[実施形態2]
図6は、実施形態2における撮像装置101と画像処理装置111の構成の一例を示す図である。実施形態1において説明した図1と比較して、画像処理部117が追加された点が異なる。画像処理部117は、可視光画像において、実人物(実人物の顔)が存在すると判断された領域に対して、種々の画像処理を施す。例えば、画像処理部117は、実人物が存在すると判断された領域に、プライバシー保護のためのマスク画像を重畳してもよい。マスク画像を重畳することは、実人物が閲覧されたくない状況において有効である。また、画像処理部117は、実人物が存在すると判断された領域の画質(例えば解像度や階調、圧縮率)を、その他の領域の画質よりも高くするよう画像処理を行ってもよい。画質を高くすることにより、検出された実人物を精度よく閲覧することが可能となる。画像処理部117により画像処理が施された画像は、出力部116を介して外部の装置へ出力され得る。
[Embodiment 2]
FIG. 6 is a diagram showing an example of the configuration of the image pickup apparatus 101 and the image processing apparatus 111 according to the second embodiment. The difference is that the image processing unit 117 is added as compared with FIG. 1 described in the first embodiment. The image processing unit 117 performs various image processing on the region where the real person (the face of the real person) is determined to exist in the visible light image. For example, the image processing unit 117 may superimpose a mask image for privacy protection on an area where it is determined that a real person exists. Superimposing a mask image is effective in a situation where a real person does not want to be viewed. Further, the image processing unit 117 may perform image processing so that the image quality (for example, resolution, gradation, compression rate) of the region where the real person is determined to exist is higher than the image quality of the other regions. By increasing the image quality, it is possible to browse the detected real person with high accuracy. The image processed by the image processing unit 117 can be output to an external device via the output unit 116.

このように、本実施形態によれば、実施形態1において述べた効果に加え、検出された実人物の扱いに沿った画像を生成することが可能となる。 As described above, according to the present embodiment, in addition to the effects described in the first embodiment, it is possible to generate an image according to the treatment of the detected real person.

[その他の実施形態]
上記の実施形態では、人物を検出する例を説明したが、可視光画像と赤外光画像とで映り方が異なる被写体を検出する例にも、本実施形態を適用可能である。また、上記の実施形態は、顔を検出することにより人物を検出する例を説明したが、顔に限定されず、他の部位を検出することにより人物を検出してもよい。また、上記の実施形態では、可視光と赤外光を用いる例を説明したが、赤外光に替えて、赤外光以外の非可視光を用いることも可能である。また、上記の実施形態では、可視光画像と赤外光画像では同一の撮影範囲の画像としたが、全く同一でなくてもよい。例えば、可視光画像の撮影範囲が赤外光画像の撮影範囲に含まれてもよい。
[Other Embodiments]
In the above embodiment, an example of detecting a person has been described, but the present embodiment can also be applied to an example of detecting a subject whose appearance differs between a visible light image and an infrared light image. Further, although the above embodiment has described an example in which a person is detected by detecting a face, the present invention is not limited to the face, and the person may be detected by detecting another part. Further, in the above embodiment, the example of using visible light and infrared light has been described, but it is also possible to use invisible light other than infrared light instead of infrared light. Further, in the above embodiment, the visible light image and the infrared light image have the same shooting range, but they do not have to be exactly the same. For example, the shooting range of the visible light image may be included in the shooting range of the infrared light image.

また、画像処理装置111は、可視光画像において検出された顔のうち、実人物の顔ではないと判定した顔の情報を保管してもよい。この場合、例えば、画像処理装置111は、比較部115の処理を必要とせず、新たに得られた可視光画像において、実人物の顔ではない顔を判定することが可能となる。画像処理装置111は、このような実人物の顔ではないと判定した顔の情報を、あらゆる目的のために出力部116を介して出力することも可能である。 Further, the image processing device 111 may store the information of the face detected in the visible light image that is determined not to be the face of a real person. In this case, for example, the image processing device 111 does not require the processing of the comparison unit 115, and can determine a face other than the face of a real person in the newly obtained visible light image. The image processing device 111 can also output face information determined to be not the face of such a real person via the output unit 116 for all purposes.

以上、本発明の実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 撮像装置、11 光軸。12 光軸、102 対物レンズ、103 撮影絞り、104 フォーカスレンズ、105 撮像レンズ、106 ダイクロイックミラー、107 可視光撮像素子、108 赤外光撮像素子、109 画像処理部、110 制御部、111 画像処理装置、112 通信部、113 画像入力部、114 顔検出部、115 比較部、116 出力部 101 imager, 11 optical axis. 12 optical axis, 102 objective lens, 103 shooting aperture, 104 focus lens, 105 image sensor, 106 dichroic mirror, 107 visible light image sensor, 108 infrared light image sensor, 109 image processing unit, 110 control unit, 111 image processing device , 112 Communication section, 113 Image input section, 114 Face detection section, 115 Comparison section, 116 Output section

Claims (13)

可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出手段と、
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出手段と、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域に対して所定の画像処理を実行し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記所定の画像処理を実行しない画像処理手段と、
を有することを特徴とする画像処理装置。
In the visible light image obtained by photographing with visible light, the first detection means for detecting the face of the person by using the image feature of the face of the person and
A second detection means for detecting a person's face by using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face is detected in the visible light image. A predetermined image process is executed on the face area detected by the first detection means,
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. (1) An image processing means that does not perform the predetermined image processing on the face area detected by the detection means, and
An image processing device characterized by having.
前記画像処理手段は、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域をマスクするマスク処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記マスク処理を実行しないことを特徴とする請求項1に記載の画像処理装置。
The image processing means
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face in the visible light image A mask process for masking the face area detected by the first detection means is executed as the predetermined image process.
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. 1. The image processing apparatus according to claim 1, wherein the mask processing is not executed on the face region detected by the detection means.
前記画像処理手段は、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像における前記第1検出手段により検出された前記顔の領域に対して画質を高くする高画質化処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像における前記第1検出手段に検出された前記顔の領域に対して前記高画質化処理を実行しないことを特徴とする請求項1に記載の画像処理装置。
The image processing means
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face is detected in the visible light image. An image quality enhancement process for increasing the image quality of the face region detected by the first detection means is executed as the predetermined image process.
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. 1. The image processing apparatus according to claim 1, wherein the image quality improving process is not executed on the face region detected by the detection means.
人物の顔を検出する検出処理を実行する画像処理装置であって、
可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出手段と、
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出手段と、
前記検出処理の検出結果に関する情報を出力する出力手段とを有し、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出されなかった場合、前記可視光画像において前記第1検出手段により検出された前記顔は前記検出結果に含まれ、
前記可視光画像において前記第1検出手段により前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出手段により前記顔が検出された場合、前記可視光画像において前記第1検出手段により検出された前記顔は前記検出結果に含まれないことを特徴とする画像処理装置。
An image processing device that executes detection processing to detect a person's face.
In the visible light image obtained by photographing with visible light, the first detection means for detecting the face of the person by using the image feature of the face of the person and
A second detection means for detecting a person's face by using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
It has an output means for outputting information on the detection result of the detection process.
When the face is not detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the face is not detected in the visible light image. The face detected by the first detection means is included in the detection result, and is included in the detection result.
When the face is detected by the second detection means at the position in the infrared light image corresponding to the position where the face is detected by the first detection means in the visible light image, the first in the visible light image. (1) An image processing apparatus characterized in that the face detected by the detection means is not included in the detection result.
前記出力手段により出力される前記検出結果に関する情報は、前記赤外光画像において前記第2検出手段により前記顔が検出されなかった位置に対応する前記可視光画像における位置において前記第1検出手段により検出された前記顔の数を示す情報であることを特徴とする請求項4に記載の画像処理装置。 The information regarding the detection result output by the output means is obtained by the first detection means at a position in the visible light image corresponding to a position where the face is not detected by the second detection means in the infrared light image. The image processing apparatus according to claim 4, wherein the information indicates the number of detected faces. 前記出力手段は、前記検出結果に関する情報を表示手段に表示させることを特徴とする請求項4または5に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the output means causes the display means to display information regarding the detection result. 可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出工程と、
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出工程と、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して所定の画像処理を実行し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して前記所定の画像処理を実行しない画像処理工程と、
を有することを特徴とする画像処理方法。
In the visible light image obtained by taking a picture using visible light, the first detection step of detecting the person's face by using the image feature of the person's face and
A second detection step of detecting a person's face using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. A predetermined image process is executed on the face area detected in the first detection step, and the image processing is performed.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. 1 An image processing step in which the predetermined image processing is not performed on the face region detected in the detection step, and
An image processing method characterized by having.
前記画像処理工程において、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域をマスクするマスク処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して前記マスク処理を実行しないことを特徴とする請求項7に記載の画像処理方法。
In the image processing step
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. A mask process for masking the face area detected in the first detection step is executed as the predetermined image process.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. 1. The image processing method according to claim 7, wherein the mask processing is not performed on the face region detected in the detection step.
前記画像処理工程において、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して画質を高くする高画質化処理を前記所定の画像処理として実行し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔の領域に対して前記高画質化処理を実行しないことを特徴とする請求項7に記載の画像処理方法。
In the image processing step
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. An image quality enhancement process for increasing the image quality of the face region detected in the first detection step is executed as the predetermined image process.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. 1. The image processing method according to claim 7, wherein the image quality improving process is not executed on the face region detected in the detection step.
人物の顔を検出する検出処理を実行する画像処理方法であって、
可視光を用いて撮影することにより得られた可視光画像において、人物の顔の画像特徴を用いて、人物の顔を検出する第1検出工程と、
前記可視光画像の撮影範囲に対応する撮影範囲を、赤外光を用いて撮影することにより得られた赤外光画像において、前記画像特徴を用いて、人物の顔を検出する第2検出工程と、
前記検出処理の検出結果に関する情報を出力する出力工程とを有し、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出されなかった場合、前記可視光画像において前記第1検出工程において検出された前記顔は前記検出結果に含まれ、
前記可視光画像において前記第1検出工程において前記顔が検出された位置に対応する前記赤外光画像における位置において前記第2検出工程において前記顔が検出された場合、前記可視光画像における前記第1検出工程において検出された前記顔は前記検出結果に含まれないことを特徴とする画像処理方法。
An image processing method that executes detection processing to detect a person's face.
In the visible light image obtained by taking a picture using visible light, the first detection step of detecting the face of the person using the image feature of the face of the person and
A second detection step of detecting a person's face using the image features in an infrared light image obtained by photographing an imaging range corresponding to the imaging range of the visible light image using infrared light. When,
It has an output process that outputs information about the detection result of the detection process.
When the face is not detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the face is not detected in the visible light image. The face detected in the first detection step is included in the detection result, and is included in the detection result.
When the face is detected in the second detection step at the position in the infrared light image corresponding to the position where the face is detected in the first detection step in the visible light image, the first in the visible light image. (1) An image processing method characterized in that the face detected in the detection step is not included in the detection result.
前記出力工程において出力される前記検出結果に関する情報は、前記赤外光画像において前記第2検出工程において前記顔が検出されなかった位置に対応する前記可視光画像における位置において前記第1検出工程において検出された前記顔の数を示す情報であることを特徴とする請求項10に記載の画像処理方法。 The information regarding the detection result output in the output step is obtained in the first detection step at the position in the visible light image corresponding to the position where the face was not detected in the second detection step in the infrared light image. The image processing method according to claim 10, wherein the information indicates the number of detected faces. 前記出力工程において、前記検出結果に関する情報を表示手段に表示させることを特徴とする請求項10または11に記載の画像処理方法。 The image processing method according to claim 10 or 11, wherein in the output step, information on the detection result is displayed on a display means. コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 6.
JP2020125682A 2016-05-16 2020-07-22 Image processing equipment, image processing methods, and programs Active JP6934987B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020125682A JP6934987B2 (en) 2016-05-16 2020-07-22 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016098153A JP2017208616A (en) 2016-05-16 2016-05-16 Image processing apparatus, image processing method, and program
JP2020125682A JP6934987B2 (en) 2016-05-16 2020-07-22 Image processing equipment, image processing methods, and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016098153A Division JP2017208616A (en) 2016-05-16 2016-05-16 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020195140A true JP2020195140A (en) 2020-12-03
JP6934987B2 JP6934987B2 (en) 2021-09-15

Family

ID=73548147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125682A Active JP6934987B2 (en) 2016-05-16 2020-07-22 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6934987B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197914A (en) * 2004-01-06 2005-07-21 Fuji Photo Film Co Ltd Face image recognizing apparatus and digital camera equipped with the same
JP2008160354A (en) * 2006-12-22 2008-07-10 Matsushita Electric Ind Co Ltd Video output device
JP2009010669A (en) * 2007-06-28 2009-01-15 Sony Corp Image processing unit, imaging apparatus, image processing method, and program
JP2009296266A (en) * 2008-06-04 2009-12-17 Fujifilm Corp Monitoring camera device, and monitoring camera system
US20100141770A1 (en) * 2008-12-05 2010-06-10 Sony Corporation Imaging apparatus and imaging method
CN101964056A (en) * 2010-10-26 2011-02-02 徐勇 Bimodal face authentication method with living body detection function and system
US20130222564A1 (en) * 2012-02-29 2013-08-29 Suprema Inc. Apparatus for recognizing face based on environment adaptation
JP2017011451A (en) * 2015-06-19 2017-01-12 カシオ計算機株式会社 Detection device, detection method and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197914A (en) * 2004-01-06 2005-07-21 Fuji Photo Film Co Ltd Face image recognizing apparatus and digital camera equipped with the same
JP2008160354A (en) * 2006-12-22 2008-07-10 Matsushita Electric Ind Co Ltd Video output device
JP2009010669A (en) * 2007-06-28 2009-01-15 Sony Corp Image processing unit, imaging apparatus, image processing method, and program
JP2009296266A (en) * 2008-06-04 2009-12-17 Fujifilm Corp Monitoring camera device, and monitoring camera system
US20100141770A1 (en) * 2008-12-05 2010-06-10 Sony Corporation Imaging apparatus and imaging method
JP2010136223A (en) * 2008-12-05 2010-06-17 Sony Corp Imaging device and imaging method
CN101964056A (en) * 2010-10-26 2011-02-02 徐勇 Bimodal face authentication method with living body detection function and system
US20130222564A1 (en) * 2012-02-29 2013-08-29 Suprema Inc. Apparatus for recognizing face based on environment adaptation
JP2017011451A (en) * 2015-06-19 2017-01-12 カシオ計算機株式会社 Detection device, detection method and program

Also Published As

Publication number Publication date
JP6934987B2 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
JP2017208616A (en) Image processing apparatus, image processing method, and program
US10303973B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
KR102270674B1 (en) Biometric camera
US11294996B2 (en) Systems and methods for using machine learning for image-based spoof detection
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
US20050084179A1 (en) Method and apparatus for performing iris recognition from an image
WO2021073140A1 (en) Monocular camera, and image processing system and image processing method
US20160180169A1 (en) Iris recognition device, iris recognition system including the same and method of operating the iris recognition system
WO2005015896A1 (en) A method and system of filtering a red-eye phenomenon from a digital image
JP2000278584A (en) Image input device provided with image processing function and recording medium recording its image processing program
TWI394085B (en) Method of identifying the dimension of a shot subject
JP2017011634A (en) Imaging device, control method for the same and program
KR102152072B1 (en) Object detection system integrating real video camera and thermal video camera
US20080240520A1 (en) Imaging apparatus, display control method and recording medium
JP2009123081A (en) Face detection method and photographing apparatus
JP2004219277A (en) Method and system, program, and recording medium for detection of human body
JP2008252404A (en) Imaging apparatus, method, and program
JP6934987B2 (en) Image processing equipment, image processing methods, and programs
JP2021150760A (en) Imaging apparatus and method for controlling the same
JP2008021072A (en) Photographic system, photographic device and collation device using the same, and photographic method
JP6087615B2 (en) Image processing apparatus and control method therefor, imaging apparatus, and display apparatus
JP2013118574A (en) Imaging apparatus
JP2021005798A (en) Imaging apparatus, control method of imaging apparatus, and program
JP2020191546A (en) Image processing apparatus, image processing method, and program
JP2008160280A (en) Imaging apparatus and automatic imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200722

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210824

R151 Written notification of patent or utility model registration

Ref document number: 6934987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151