JP2019101974A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2019101974A
JP2019101974A JP2017235264A JP2017235264A JP2019101974A JP 2019101974 A JP2019101974 A JP 2019101974A JP 2017235264 A JP2017235264 A JP 2017235264A JP 2017235264 A JP2017235264 A JP 2017235264A JP 2019101974 A JP2019101974 A JP 2019101974A
Authority
JP
Japan
Prior art keywords
image
pupil
processing apparatus
image processing
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017235264A
Other languages
Japanese (ja)
Other versions
JP7078386B2 (en
Inventor
征也 畠山
Masaya Hatakeyama
征也 畠山
勇氣 ▲高▼橋
勇氣 ▲高▼橋
Yuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2017235264A priority Critical patent/JP7078386B2/en
Publication of JP2019101974A publication Critical patent/JP2019101974A/en
Application granted granted Critical
Publication of JP7078386B2 publication Critical patent/JP7078386B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an image processing device capable of estimating a line of sight of an object person who is photographed by image processing even if the person wears sunglasses.SOLUTION: An image processing device comprises a near infrared LED 12 radiating a near infrared ray with waves remarkably reduced in solar spectrum on the ground surface, an optical band-pass filter 13 which makes the waves that the near infrared LED 12 radiates penetrate therethrough, a camera 14 photographing a face of a person lit by the near infrared LED 12 through the optical band-pass filter 13, and a processing unit 15 performing data processing on a face image photographed by the camera 14 to detect a pupil from the face image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置に関し、特に、人の顔などを撮影した画像に基づき目の特徴である視線などを推定するために利用可能な技術に関する。   The present invention relates to an image processing apparatus, and more particularly, to a technology that can be used to estimate a gaze that is a feature of an eye based on an image obtained by capturing a face of a person or the like.

従来、人物の顔をカメラで撮影して得た画像のデータを処理して目の特徴を特定する画像処理装置が知られている(例えば特許文献1)。特許文献1の技術は、正確に瞳の領域を検出することを目的としている。   2. Description of the Related Art Conventionally, there is known an image processing apparatus that processes data of an image obtained by photographing a face of a person with a camera to specify an eye feature (for example, Patent Document 1). The technique of Patent Document 1 aims to accurately detect the area of the pupil.

また、特許文献1に示された画像処理装置においては、顔画像の目がある目領域を、少なくとも目における縦方向に微分して輝度勾配を求める第2微分部41と、目領域について、輝度勾配を2値化しエッジ点を抽出する2値化部42と、目頭点および目尻点を両端点とし、該両端点と制御点とによって表現される曲線であって、かつ、上記エッジ点に適合する曲線を、上瞼または下瞼の輪郭を表す曲線として特定する瞼輪郭特定部44とを備えている。   Further, in the image processing apparatus disclosed in Patent Document 1, the second differentiation unit 41 for obtaining the luminance gradient by differentiating at least the eye area where the eyes of the face image are located in the vertical direction of the eyes and the eye area It is a curve represented by a binarization unit 42 that binarizes a gradient and extracts an edge point, an eye inside point and an eye outside point as end points, and that is represented by the end point and a control point, and that matches the edge point And an eyelid contour specifying unit 44 which specifies the curve to be drawn as a curve representing the outline of the upper eyelid or the lower eyelid.

特開2012−190351号公報JP, 2012-190351, A

人の顔を撮影した動画から、画像処理によりその人の視線を推定するような装置においては、画像中から虹彩の領域または瞳孔の領域の中心座標を高精度に検出できることが望ましい。   In a device that estimates the line of sight of a person by image processing from a moving image of a person's face, it is desirable to be able to detect center coordinates of the iris region or pupil region from the image with high accuracy.

しかし、特許文献1に記載されている手法では、撮影されている対象者がサングラスを着用している場合、画像中から虹彩または瞳孔を検出することは難しい。このため、画像処理によりその対象者の視線を推定することが難しかった。   However, in the method described in Patent Document 1, it is difficult to detect an iris or a pupil from an image when a subject being photographed wears sunglasses. Therefore, it has been difficult to estimate the line of sight of the subject by image processing.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、撮影されている対象者がサングラスを着用している場合であっても、画像処理によりその人の視線を推定することができる画像処理装置を提供することにある。   The present invention has been made in view of the above-described circumstances, and an object thereof is to estimate the line of sight of a person by image processing even when the subject being photographed wears sunglasses. Providing an image processing apparatus capable of

前述した目的を達成するために、本発明に係る画像処理装置は、下記(1)〜(9)を特徴としている。
(1)
地表での太陽スペクトルが著しく低下する波長の近赤外光を照射する光源と、
前記光源が照射する波長を透過する光学フィルタと、
前記光源によって照らされた人間の顔を、前記光学フィルタを通して撮影するカメラと、
前記カメラによって撮影された顔画像に対してデータ処理を行い、前記顔画像から瞳孔を検出する処理部と、
を備えることを特徴とする画像処理装置。
(2)
上記(1)の構成の画像処理装置であって、
前記処理部は、
ある走査方向にてエッジを検出するフィルタ処理を前記顔画像に施して、勾配の大きさが情報として保持されたエッジ画像を生成し、
3次元モデルの表面に仮想的に位置する円形状のサンプリング円が前記エッジ画像に投影された状態において、前記サンプリング円を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさをサンプリング値として抽出して尤度評価の対象とし、
複数の前記サンプリング円のうち、尤度が最大となる前記サンプリング円を瞳孔として検出する、
ことを特徴とする画像処理装置。
(3)
上記(2)の構成の画像処理装置であって、
前記処理部は、動的に半径が変化する前記サンプリング円を用いて、前記顔画像から瞳孔を検出する
ことを特徴とする画像処理装置。
(4)
上記(3)の構成の画像処理装置であって、
前記処理部は、時間の経過に応じて、前記サンプリング円の半径を変化させる、
ことを特徴とする画像処理装置。
(5)
上記(3)の構成の画像処理装置であって、
前記処理部は、前記尤度がある閾値よりも低下した場合、前記サンプリング円の半径を変化させる、
ことを特徴とする画像処理装置。
(6)
上記(3)の構成の画像処理装置であって、
可視光を検出する光センサをさらに備え、
前記処理部は、前記光センサにより検出される強度に基づいて、前記サンプリング円の半径を変化させる、
ことを特徴とする画像処理装置。
(7)
上記(2)から(6)のいずれか1つの構成の画像処理装置であって、
前記処理部は、
半径の異なる複数の円を同一の位置を中心点として配したサンプリング円を用い、
3次元モデルの表面に仮想的に位置する前記サンプリング円が、前記エッジ画像に投影された状態において、前記サンプリング円を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさをサンプリング値として抽出して尤度評価の対象とし、
複数の前記サンプリング円のうち、尤度が最大となる前記サンプリング円を瞳孔として検出する、
ことを特徴とする画像処理装置。
(8)
上記(2)から(7)のいずれか1つの構成の画像処理装置であって、
前記処理部は、前記サンプリング円を前記エッジ画像に投影する前段として、前記顔画像を二値化した二値化画像に対して瞳孔を模擬した黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の中心が位置する前記二値化画像上の座標を瞳孔の中心位置として、当該黒丸画像の半径を瞳孔の半径として、それぞれ抽出し、
前記瞳孔の半径が設定された前記サンプリング円を、前記エッジ画像上における前記瞳孔の中心位置の近傍に投影する、
ことを特徴とする画像処理装置。
(9)
上記(8)の構成の画像処理装置であって、
前記処理部は、前記二値化画像に対して動的に半径が変化する前記黒丸画像をマッチングさせる、
ことを特徴とする画像処理装置。
In order to achieve the object described above, an image processing apparatus according to the present invention is characterized by the following (1) to (9).
(1)
A light source that emits near-infrared light of a wavelength at which the solar spectrum at the ground surface significantly decreases;
An optical filter that transmits the wavelength irradiated by the light source;
A camera for capturing a human face illuminated by the light source through the optical filter;
A processing unit that performs data processing on a face image captured by the camera and detects a pupil from the face image;
An image processing apparatus comprising:
(2)
The image processing apparatus according to the above (1), wherein
The processing unit is
Applying a filtering process to the face image to detect an edge in a certain scanning direction to generate an edge image in which the magnitude of the gradient is held as information;
In a state where a circular sampling circle virtually positioned on the surface of a three-dimensional model is projected onto the edge image, the gradient is generated at each position in the edge image corresponding to each of a plurality of points constituting the sampling circle. We extract the size of as a sampling value and use it as the target of likelihood evaluation,
Among the plurality of sampling circles, the sampling circle with the largest likelihood is detected as a pupil,
An image processing apparatus characterized by
(3)
The image processing apparatus according to the above (2), wherein
The image processing apparatus, wherein the processing unit detects a pupil from the face image by using the sampling circle whose radius changes dynamically.
(4)
The image processing apparatus according to the above (3), wherein
The processing unit changes the radius of the sampling circle according to the passage of time.
An image processing apparatus characterized by
(5)
The image processing apparatus according to the above (3), wherein
The processing unit changes the radius of the sampling circle when the likelihood is lower than a certain threshold.
An image processing apparatus characterized by
(6)
The image processing apparatus according to the above (3), wherein
It further comprises an optical sensor that detects visible light,
The processing unit changes the radius of the sampling circle based on the intensity detected by the light sensor.
An image processing apparatus characterized by
(7)
An image processing apparatus according to any one of the above (2) to (6), wherein
The processing unit is
Using a sampling circle in which a plurality of circles with different radii are arranged with the same position as the center point,
In the state where the sampling circle virtually positioned on the surface of the three-dimensional model is projected onto the edge image, the gradient of the gradient is generated at each position in the edge image corresponding to each of a plurality of points forming the sampling circle. The magnitude is extracted as a sampling value, which is the target of likelihood evaluation,
Among the plurality of sampling circles, the sampling circle with the largest likelihood is detected as a pupil,
An image processing apparatus characterized by
(8)
An image processing apparatus according to any one of the above (2) to (7), wherein
The processing unit matches the black circle image simulating the pupil with the binarized image obtained by binarizing the face image as a front stage of projecting the sampling circle onto the edge image, and is the black circle with the largest likelihood. The coordinates on the binarized image where the center of the image is located are extracted as the center position of the pupil, and the radius of the black circle image is extracted as the radius of the pupil.
Projecting the sampling circle in which the radius of the pupil is set in the vicinity of the center position of the pupil on the edge image;
An image processing apparatus characterized by
(9)
The image processing apparatus of the above configuration (8), wherein
The processing unit matches the black circle image whose radius dynamically changes with the binarized image.
An image processing apparatus characterized by

上記(1)の構成の画像処理装置によれば、運転手の前方の物体が自然光(太陽光)を受けて反射した可視光がサングラス表面にて反射しても、光学フィルタによって遮断されてカメラに入射しない。このため、カメラによって撮影された画像においてサングラス表面に物体が映り込むことを抑制できる。また、カメラによって撮影された画像では、瞳孔と瞳孔を囲む虹彩との濃淡の差が、虹彩と虹彩を囲む強膜(しろ目)または限瞼(まぶた)との濃淡の差よりも顕著に表れる。このため、画像処理により検出の対象を瞳孔と定めることによって、人の視線を精度よく推定することができる。
上記(2)の構成の画像処理装置によれば、パーティクルフィルタを用いて瞳孔を検出することによって、精度良く瞳孔の領域を特定することができる。
上記(3)の構成の画像処理装置によれば、パーティクルフィルタの径を動的に変更することによって、縮小または拡大する瞳孔に追従してパーティクルフィルタの径を設定することができる。これにより、瞳孔の中心座標を高精度に検出することできる。
上記(4)の構成の画像処理装置によれば、パーティクルフィルタの径が定期的に更新されることによって、縮小または拡大する瞳孔に追従してパーティクルフィルタの径を設定することができる。これにより、瞳孔の中心座標を高精度に検出することできる。
上記(5)の構成の画像処理装置によれば、現在のパーティクルフィルタにより算出される尤度が低下した場合にパーティクルフィルタの径が更新されることによって、縮小または拡大する瞳孔に追従してパーティクルフィルタの径を設定することができる。これにより、瞳孔の中心座標を高精度に検出することできる。
上記(6)の構成の画像処理装置によれば、光センサから伝達される信号の大小に応じてパーティクルフィルタの径が選択されることによって、パーティクルフィルタの径が動的に変更される。このように周囲環境の明るさからパーティクルフィルタの径を動的に変更することによって、瞳孔の中心座標を高精度に検出することできる。
上記(7)の構成の画像処理装置によれば、瞳孔径が変化する前後において、変化する前では径の大きい(小さい)サンプリング円が瞳孔を捕捉し、他方、変化した後では径の小さい(大きい)サンプリング円が瞳孔を捕捉することができる。このように、瞳孔径の変化に対応して瞳孔の中心座標を高精度に検出することできる。
上記(8)の構成の画像処理装置によれば、テンプレートマッチングの手法を用いて、瞳孔の粗探索を行うことによって、その後の処理でパーティクルフィルタを散布する範囲を絞ることができる。これにより、精度良く瞳孔の領域を特定することができる。
上記(9)の構成の画像処理装置によれば、黒丸画像の径が動的に変更されることにより、瞳孔の粗探索の精度が向上する。これにより、複数のパーティクルフィルタを散布したときに瞳孔の形状に合うパーティクルフィルタの出現率が高まるため、瞳孔の中心座標を高精度に検出することできる。
According to the image processing apparatus of the above configuration (1), even if visible light reflected by an object in front of the driver receives natural light (sunlight) is reflected on the surface of the sunglasses, it is blocked by the optical filter and the camera It does not enter. For this reason, it can suppress that an object is reflected in the sunglasses surface in the image image | photographed by the camera. Also, in the image taken by the camera, the difference in density between the pupil and the iris surrounding the pupil appears more prominently than the difference in density between the iris and the sclera (eye) or iris surrounding the iris (eyelid) . Therefore, by setting the detection target as the pupil by image processing, the line of sight of a person can be accurately estimated.
According to the image processing device having the configuration of (2), the pupil area can be identified with high accuracy by detecting the pupil using a particle filter.
According to the image processing device having the configuration of (3), by dynamically changing the diameter of the particle filter, it is possible to set the diameter of the particle filter following the pupil to be reduced or enlarged. Thereby, the central coordinates of the pupil can be detected with high accuracy.
According to the image processing apparatus having the configuration of (4), the diameter of the particle filter can be updated periodically, so that the diameter of the particle filter can be set following the pupil to be reduced or enlarged. Thereby, the central coordinates of the pupil can be detected with high accuracy.
According to the image processing apparatus having the configuration of (5), when the likelihood calculated by the current particle filter is decreased, the diameter of the particle filter is updated to follow the pupil which is reduced or enlarged. The diameter of the filter can be set. Thereby, the central coordinates of the pupil can be detected with high accuracy.
According to the image processing apparatus having the configuration of (6), the diameter of the particle filter is dynamically changed by selecting the diameter of the particle filter according to the magnitude of the signal transmitted from the optical sensor. As described above, by dynamically changing the diameter of the particle filter from the brightness of the surrounding environment, the central coordinates of the pupil can be detected with high accuracy.
According to the image processing device having the configuration of (7), before and after the pupil diameter changes, a large (small) sampling circle of the diameter captures the pupil, and after the pupil diameter changes, the diameter decreases ( A large) sampling circle can capture the pupil. Thus, the central coordinates of the pupil can be detected with high accuracy in response to changes in the pupil diameter.
According to the image processing apparatus having the configuration of (8), by performing a rough search of the pupil using a template matching method, it is possible to narrow down the range in which the particle filter is dispersed in the subsequent processing. Thereby, the area of the pupil can be identified with high accuracy.
According to the image processing apparatus of the configuration of (9), the diameter of the black circle image is dynamically changed, whereby the accuracy of the rough search of the pupil is improved. As a result, when a plurality of particle filters are dispersed, the appearance rate of the particle filter that matches the shape of the pupil is increased, so that the center coordinates of the pupil can be detected with high accuracy.

本発明の画像処理装置によれば、撮影されている対象者がサングラスを着用している場合であっても、画像処理によりその人の視線を推定することができる。   According to the image processing apparatus of the present invention, even when the subject being photographed wears sunglasses, the line of sight of the person can be estimated by image processing.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。   The present invention has been briefly described above. Furthermore, the details of the present invention will be further clarified by reading the modes for carrying out the invention described below (hereinafter referred to as "embodiments") with reference to the attached drawings. .

図1(a)、(b)は、本発明の画像処理装置が車両に搭載された配置状態の具体例を示す図である。FIGS. 1A and 1B are views showing a specific example of an arrangement state in which the image processing apparatus of the present invention is mounted on a vehicle. 図2は、地表での太陽光スペクトルを図である。FIG. 2 is a diagram of the sunlight spectrum on the ground. 図3は、本発明に係る第1実施形態の画像処理装置が実施する視線検出アルゴリズムの概要を示すフローチャートである。FIG. 3 is a flowchart showing an outline of a gaze detection algorithm implemented by the image processing apparatus according to the first embodiment of the present invention. 図4は、眼球の3D(三次元)モデルおよび2D(二次元)画像の関係を示す図である。FIG. 4 is a diagram showing the relationship between a 3D (three-dimensional) model of an eye and a 2D (two-dimensional) image. 図5は、本発明に係る第1実施形態の画像処理装置が実施する瞳孔検出アルゴリズムにおける、画像から瞳孔を探索する処理の流れおよびデータの具体例である。FIG. 5 is a specific example of a flow of processing for searching a pupil from an image and data in a pupil detection algorithm implemented by the image processing apparatus according to the first embodiment of the present invention. 図6は、パーティクルフィルタを用いて瞳孔位置を検出するための処理を説明するフローチャートである。FIG. 6 is a flowchart for explaining processing for detecting a pupil position using a particle filter. 図7は、図6に示した処理を実行する場合の処理データの具体例である。FIG. 7 is a specific example of process data when the process shown in FIG. 6 is performed. 図8は、実施例1の画像処理装置によるパーティクルフィルタの径を動的に変更するフローチャートを図8に示す。FIG. 8 shows a flowchart for dynamically changing the diameter of the particle filter by the image processing apparatus of the first embodiment. 図9(a)から(c)は、図8に示すフローチャートを実施するなかで尤度が最も高いパーティクルフィルタと瞳孔との位置関係を表す模式図である。FIGS. 9A to 9C are schematic diagrams showing the positional relationship between the particle filter having the highest likelihood and the pupil in the process of the flowchart shown in FIG. 図10は、実施例3の画像処理装置に用いるパーティクルフィルタの形状を説明する図である。FIG. 10 is a view for explaining the shape of a particle filter used in the image processing apparatus of the third embodiment. 図11は、図10に示したパーティクルフィルタを散布した模式図である。FIG. 11 is a schematic view in which the particle filter shown in FIG. 10 is dispersed. 図12は、実施例4の画像処理装置による黒丸画像の径を動的に変更するフローチャートである。FIG. 12 is a flowchart of dynamically changing the diameter of the black circle image by the image processing apparatus according to the fourth embodiment.

本発明の画像処理装置に関する具体的な実施の形態について、各図を参照しながら以下に説明する。   Specific embodiments of the image processing apparatus of the present invention will be described below with reference to the drawings.

<本発明の画像処理装置の概要>
本発明の画像処理装置が車両に搭載された配置状態の具体例を図1(a)、(b)に示す。
図1(a)、(b)に示した例では、車両の車室内10に近赤外LED(Light Emitting Diode)12、光学バンドパスフィルタ(Band-Pass Filter)13、カメラ14および処理部15が設置されている。具体的には、運転席に着座している人物11、すなわち運転者の目の領域11aを含む顔などをカメラ14によって撮影できるように、運転席前方のメータユニット内、あるいはコラムカバーの箇所に近赤外LED12、光学バンドパスフィルタ13、カメラ14が設置されている。
<Overview of Image Processing Device of the Present Invention>
The specific example of the arrangement | positioning state by which the image processing apparatus of this invention was mounted in the vehicle is shown to Fig.1 (a), (b).
In the example shown in FIGS. 1A and 1B, a near infrared LED (Light Emitting Diode) 12, an optical band pass filter (Band-Pass Filter) 13, a camera 14 and a processing unit 15 are provided in a vehicle interior 10 of a vehicle. Is installed. Specifically, in the meter unit in front of the driver's seat or at the column cover so that the person 14 sitting in the driver's seat, that is, the face including the driver's eyes area 11a can be photographed by the camera 14 A near infrared LED 12, an optical band pass filter 13, and a camera 14 are provided.

近赤外LED12は、近赤外光を放射する光源であり、人物11に対して近赤外光を照射できる位置または角度に、運転席前方のメータユニット内あるいはコラムカバー等に配置される。近赤外LED12が放射する近赤外光の波長は、940[nm]付近、1100[nm]付近、1400[nm]付近、1800[nm]付近であることが好ましい。この数値が好ましい理由については、追って説明する。   The near-infrared LED 12 is a light source that emits near-infrared light, and is disposed in a meter unit in front of a driver's seat, a column cover, or the like at a position or angle at which the person 11 can be irradiated with near-infrared light. The wavelengths of near infrared light emitted by the near infrared LED 12 are preferably around 940 nm, around 1100 nm, around 1400 nm, and around 1800 nm. The reason why this numerical value is preferable will be described later.

また、光学バンドパスフィルタ13は、近赤外LED12が放射する近赤外光を透過し、それ以外の波長の光を遮断する光学素子である。光学バンドパスフィルタ13は、図1(b)に示すように、カメラ14の撮影方向前方に設置されている。光学バンドパスフィルタ13は、光学バンドパスフィルタ13を透過した近赤外光のみがカメラ14に入射する位置または角度に、運転席前方のメータユニット内あるいはコラムカバー等に配置される。   The optical band pass filter 13 is an optical element that transmits near infrared light emitted by the near infrared LED 12 and blocks light of other wavelengths. The optical band pass filter 13 is disposed in front of the photographing direction of the camera 14 as shown in FIG. 1 (b). The optical band pass filter 13 is disposed in the meter unit in front of the driver's seat or in a column cover or the like at a position or angle where only near infrared light transmitted through the optical band pass filter 13 enters the camera 14.

処理部15は、カメラ14が人物11の顔を撮影した得られる二次元画像データを処理して、目の領域11aのデータから視線11bの方向を示す情報を推定する。処理部15が推定した視線11bの情報は、代表例として、車両を運転する運転者が安全確認のための視線移動をしているかどうかを車載装置が認識するために利用できる。勿論、このような視線の情報は様々な用途に利用可能である。したがって、本発明の画像処理装置は、例えば図1中の処理部15、あるいはその一部として構成することが想定される。   The processing unit 15 processes two-dimensional image data obtained by photographing the face of the person 11 by the camera 14, and estimates information indicating the direction of the line of sight 11b from the data of the eye area 11a. The information of the line of sight 11b estimated by the processing unit 15 can be used, as a representative example, for the on-vehicle apparatus to recognize whether the driver driving the vehicle is moving the line of sight for safety confirmation. Of course, such gaze information can be used for various applications. Therefore, it is assumed that the image processing apparatus of the present invention is configured as, for example, the processing unit 15 in FIG. 1 or a part thereof.

さて、本発明の画像処理装置は、近赤外LED12及び光学バンドパスフィルタ13を備える点、具体的には、近赤外LED12が近赤外光を放射し、光学バンドパスフィルタ13が同波長の近赤外光のみを透過する点、に特徴がある。本発明の特徴を説明するために、まずは、撮影されている対象者がサングラスを着用している場合に、特許文献1のような従来手法に潜在的に存在する課題について説明する。   Now, the image processing apparatus of the present invention includes the near infrared LED 12 and the optical band pass filter 13. Specifically, the near infrared LED 12 emits near infrared light, and the optical band pass filter 13 has the same wavelength. Is characterized in that it transmits only near infrared light. In order to explain the feature of the present invention, first, when the subject being photographed wears sunglasses, problems that are potentially present in the conventional method as described in Patent Document 1 will be described.

従来手法によって撮影された、サングラスをかけた対象者の画像を詳細に見てみると、運転手の前方の物体(風景)がサングラスに映り込んでいることが確認された。これは、運転手の前方の物体が自然光(太陽光)を受けて反射した可視光が、サングラス表面にて反射しカメラに入射しているためである。このようなサングラスに映り込んだ物体の位置と、サングラスの奥に位置する運転手の眼の位置とが画像上で重なると、運転手の虹彩または瞳孔を検出する精度が著しく低下することを本発明者らは突き詰めた。   From a close look at the image of the subject wearing sunglasses, taken by the conventional method, it was confirmed that an object (landscape) in front of the driver was reflected in the sunglasses. This is because an object in front of the driver receives natural light (sunlight) and reflected visible light is reflected on the surface of the sunglasses and is incident on the camera. If the position of the object reflected in such sunglasses and the position of the driver's eye located at the back of the sunglasses overlap on the image, the accuracy in detecting the driver's iris or pupil is significantly reduced. The inventors rushed.

そこで、本発明者らは、地表での太陽光スペクトルに着目した。地表での太陽光スペクトルを図2に示す。図2には、参考までに大気圏外での太陽光スペクトルを記載している。図2から読み取れるように、地表での太陽光スペクトルは、可視光において放射照度がピークとなり、波長が長い近赤外光(750[nm]〜2500[nm])に向かうにつれて放射照度が減少することが分かる。特に、近赤外光では、放射照度が940[nm]付近、1100[nm]付近、1400[nm]付近、1800[nm]付近の波長で著しく低下することが分かる。これを踏まえ、本発明者らは、地表での太陽光スペクトルが著しく低下する波長の近赤外光のみカメラ14に入射するようにすれば、この波長における自然光は強度が低いために物体が自然光を受けて反射した光の強度も弱いために、撮影された画像においてサングラス表面に物体が映り込むことを抑制できる。一方で、近赤外LED12によって照らされて対象者の顔を反射した近赤外光は充分な強度が得られる。これにより、運転手の虹彩または瞳孔を検出する精度が向上すると思い至った。この着想にしたがい発明した構成が、上述した図1(a)、(b)に示す構成である。図1(a)、(b)に示す構成であれば、運転手の前方の物体が自然光(太陽光)を受けて反射した可視光がサングラス表面にて反射しても、光学バンドパスフィルタ13によって遮断されてカメラ14にそもそも入射しない。また、光学バンドパスフィルタ13を通過する波長では、物体が自然光を受けて反射した光の強度も弱い。こうして、カメラ14によって撮影された画像においてサングラス表面に物体が映り込むことを抑制できる。尚、本発明の実施形態では、撮影された画像において物体が映り込む対象をサングラスとしたが、同様の現象はメガネにも確認される。このため、本発明によれば、撮影された画像においてメガネ表面に物体が映り込むことを抑制することができる。このため、本発明の効果を一般化すると次のようにいうことができる。すなわち、自然光(太陽光)を受けて反射する遮蔽物がカメラと人間の眼との間に有る場合、撮影された画像において遮蔽物表面に物体が映り込むことを抑制することができる。   Therefore, the present inventors focused on the sunlight spectrum on the ground surface. The sunlight spectrum on the ground is shown in FIG. The sunlight spectrum outside the atmosphere is shown in FIG. 2 for reference. As can be read from FIG. 2, the sunlight spectrum at the ground surface has an irradiance peak at visible light, and the irradiance decreases as the wavelength goes to near infrared light (750 [nm] to 2500 [nm]) I understand that. In particular, it can be seen that, in the near infrared light, the irradiance decreases significantly at wavelengths near 940 nm, 1100 nm, 1400 nm, and 1800 nm. Based on this, if we let only the near-infrared light of the wavelength where the sunlight spectrum on the ground surface falls remarkably be incident on the camera 14, the natural light at this wavelength is low in intensity and the object is a natural light Since the intensity of light received and reflected is also weak, it is possible to suppress the reflection of an object on the surface of the sunglasses in the photographed image. On the other hand, near-infrared light illuminated by the near-infrared LED 12 and reflected on the face of the subject can have sufficient intensity. It is believed that this improves the accuracy of detecting the iris or pupil of the driver. The configuration invented according to this idea is the configuration shown in FIGS. 1 (a) and 1 (b) described above. With the configuration shown in FIGS. 1 (a) and 1 (b), the optical band pass filter 13 is obtained even if visible light reflected by an object in front of the driver receives natural light (sunlight) is reflected on the surface of the sunglasses. And is not incident on the camera 14 in the first place. In addition, at the wavelength that passes through the optical band pass filter 13, the intensity of light that the object receives and reflects natural light is weak. In this way, it is possible to suppress the reflection of an object on the surface of the sunglasses in the image taken by the camera 14. In the embodiment of the present invention, although the object into which the object is reflected in the photographed image is sunglasses, the same phenomenon is also confirmed in glasses. For this reason, according to the present invention, it is possible to suppress the reflection of an object on the surface of the glasses in the photographed image. Therefore, the effects of the present invention can be generalized as follows. That is, when there is a shield that receives and reflects natural light (sunlight) between the camera and the human eye, it is possible to suppress an object from being reflected on the surface of the shield in the captured image.

本発明者らは図1(a)、(b)に示す構成を用いて画像処理による視線推定方法の検証を進めたところ、図1(a)、(b)に示す構成は瞳孔の検出により適しているとの知見を得た。これは、近赤外光が入射するカメラ14によって撮影された画像では、瞳孔と瞳孔を囲む虹彩との濃淡の差が、虹彩と虹彩を囲む強膜(しろ目)または限瞼(まぶた)との濃淡の差よりも顕著に表れるためである。濃淡の差が顕著であることは、カメラ14によって撮影された画像に対してエッジ抽出処理を行ったとき、精度よく瞳孔と虹彩との境界を抽出することができることに繋がる。こうして、図1(a)、(b)に示す構成に示す本発明の画像処理装置によれば、画像処理により検出の対象を瞳孔と定めることによって、人の視線を精度よく推定することができる。以上、本発明の画像処理装置の概要を説明した。以降では、本発明に係る第1実施形態の画像処理装置について詳細に説明する。   The present inventors proceeded to verify the gaze estimation method by image processing using the configurations shown in FIGS. 1 (a) and 1 (b). As a result, the configurations shown in FIGS. 1 (a) and 1 (b) We found that it was suitable. This is because, in an image captured by the camera 14 in which near-infrared light is incident, the difference in density between the pupil and the iris surrounding the pupil is the sclera (half eye) or iris (eyelid) surrounding the iris and the iris. This is because it appears more prominently than the difference in light and shade of. The fact that the difference in density is remarkable leads to the fact that the boundary between the pupil and the iris can be accurately extracted when the edge extraction processing is performed on the image captured by the camera 14. Thus, according to the image processing apparatus of the present invention shown in the configurations shown in FIGS. 1A and 1B, the line of sight of a person can be accurately estimated by setting the detection target as the pupil by image processing. . The outline of the image processing apparatus of the present invention has been described above. Hereinafter, the image processing apparatus according to the first embodiment of the present invention will be described in detail.

<本発明に係る第1実施形態の画像処理装置の詳細>
<視線検出アルゴリズムの概要>
本発明に係る第1実施形態の画像処理装置が実施する視線検出アルゴリズムの概要を説明する。図3は、本発明に係る第1実施形態の画像処理装置が実施する視線検出アルゴリズムの概要を示すフローチャートである。画像処理装置のコンピュータが所定のプログラムを実行することにより、図3に示した視線検出アルゴリズムに従った動作が順次に行われる。
<Details of Image Processing Apparatus According to First Embodiment of the Present Invention>
<Overview of gaze detection algorithm>
An outline of a gaze detection algorithm implemented by the image processing apparatus according to the first embodiment of the present invention will be described. FIG. 3 is a flowchart showing an outline of a gaze detection algorithm implemented by the image processing apparatus according to the first embodiment of the present invention. When the computer of the image processing apparatus executes a predetermined program, operations in accordance with the gaze detection algorithm shown in FIG. 3 are sequentially performed.

カメラ14は、人物11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。画像処理装置のコンピュータは、ステップS12でカメラ14から映像の信号を1フレーム分取り込む。   The camera 14 constantly captures an image of an area including the face of the person 11 at a constant cycle, and outputs a signal of the image. In step S12, the computer of the image processing apparatus captures one frame of video signal from the camera 14.

そして次のステップS13で、グレースケール化を含む、画像のデータ形式の変換、すなわち「下処理」を行う。例えば、1フレーム内の各画素位置毎に、輝度を「0〜255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向及び横方向に並べた二次元(2D)配列の画像データを生成する。   Then, in the next step S13, conversion of the data format of the image, that is, “down process” including gray scale conversion is performed. For example, at each pixel position in one frame, two 8-bit data representing luminance with gradation in the range of “0 to 255” are arranged in the vertical direction and Generate image data of a two-dimensional (2D) array.

次のステップS14では、例えば「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。「Viola-Jones法」の技術は、例えば以下の文献に示されている。
「P.viola and M.J.Jones,"Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE CVPR(2001).」
In the next step S14, face detection is performed using, for example, the "Viola-Jones method", and an area including a face is extracted as a rectangular area from one frame of two-dimensional image data. That is, a face region is extracted using a detector which is characterized by the face shadow difference and created by learning using "Boosting". The technology of the "Viola-Jones method" is shown, for example, in the following document.
"P. viola and MJJones,""Rapid Object Detection using a Boosted Cascade of Simple Features," IEEE CVPR (2001). "

次のステップS15では、S14で抽出した顔の矩形領域のデータの中から、例えば「Viola-Jones法」を用いて目の領域を検出する。   In the next step S15, the eye area is detected from the data of the face rectangular area extracted in S14 using, for example, the "Viola-Jones method".

また、本第1実施形態では後述する眼球3Dモデルを用いるモデルベース手法によって視線を検出する場合を想定しているので、眼球中心を特定する必要がある。この眼球中心をステップS16で推定する。ここでは、ステップS15で検出した目の矩形領域の中心座標を眼球中心と仮定する。なお、例えば目尻、目頭位置に基づき眼球中心を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することも想定される。   In the first embodiment, it is assumed that the line of sight is detected by a model-based method using an eyeball 3D model described later, so it is necessary to specify the eyeball center. The eyeball center is estimated in step S16. Here, it is assumed that the center coordinates of the rectangular area of the eye detected in step S15 is the eyeball center. For example, it is also conceivable to use a method of determining the eyeball center based on the positions of the eyes and the corners, and a method of estimating the skeleton from feature points of the face and calculating the eyeball center position simultaneously.

ステップS17では、S15で検出した目の矩形領域のデータについて、テンプレートマッチングの手法を適用して、瞳孔の粗探索を行う。具体的には、目周辺を切り出した目画像を二値化した画像に対して、テンプレートとして黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の画像中心(黒丸の中心)の座標を目画像中の瞳孔の中心位置とし、最も尤度の大きかった黒丸画像の半径を目画像中の瞳孔の半径とする。なお、ステップS17の処理は、目画像中の瞳孔の中心位置及び半径に関しておおよその目処をつけるために行うものである。   In step S17, a method of template matching is applied to the data of the rectangular area of the eye detected in S15 to perform a rough pupil search. Specifically, the coordinates of the image center (the center of the black circle) of the black circle image having the largest likelihood are matched with the image obtained by matching the black circle image as a template to the image obtained by binarizing the eye image in which the eye periphery is cut out The center position of the pupil in the image is used, and the radius of the black circle image with the largest likelihood is the radius of the pupil in the eye image. The process in step S17 is performed to approximate the center position and radius of the pupil in the eye image.

ステップS18では、S17で探索した瞳孔の中心位置及び半径を利用し、パーティクルフィルタの手法を適用して、より精度の高い瞳孔の中心位置及び半径を検出する。ステップS18には本発明の特徴的な処理が含まれているので、この内容については後で詳細に説明する。   In step S18, using the center position and radius of the pupil searched in S17, the particle filter method is applied to detect the center position and radius of the pupil with higher accuracy. Since the characteristic process of the present invention is included in step S18, the contents will be described in detail later.

ステップS13〜S18の処理により、1フレームの画像について、眼球中心座標や瞳孔の中心位置の座標のデータが得られるので、その数値データをステップS19で出力する。眼球中心座標および瞳孔の中心位置の座標により視線の方向を特定できる。また、カメラ14が出力する映像が途切れるまで、ステップS11〜S20のループ状の処理を繰り返すことで、リアルタイムでの視線検出を実現する。   Since the data of the eyeball center coordinates and the coordinates of the center position of the pupil can be obtained for the image of one frame by the processes of steps S13 to S18, the numerical data is output in step S19. The direction of the line of sight can be specified by the eye center coordinates and the coordinates of the center position of the pupil. Also, by repeating the loop processing of steps S11 to S20 until the video output from the camera 14 is interrupted, the gaze detection in real time is realized.

<眼球3Dモデルの説明>
眼球の3D(三次元)モデルおよび2D(二次元)画像の関係を図4に示す。
図4に示した眼球3Dモデル30において、この眼球は眼球中心31と、半径Rとで表される球体である。また、この眼球の表面に円形形状の虹彩32があり、虹彩32の中央に円形形状の瞳孔33がある。
<Description of eyeball 3D model>
The relationship between a 3D (three dimensional) model of the eye and a 2D (two dimensional) image is shown in FIG.
In the eyeball 3D model 30 shown in FIG. 4, the eyeball is a sphere represented by the eyeball center 31 and the radius R. In addition, a circular shaped iris 32 is on the surface of the eyeball, and a circular shaped pupil 33 is in the center of the iris 32.

したがって、視線の方向は、眼球中心31から虹彩32または瞳孔33の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、虹彩32または瞳孔33の中心座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。   Therefore, the direction of the line of sight can be identified as the direction from the eyeball center 31 toward the center of the iris 32 or pupil 33, and the rotation angle yaw (yaw) with respect to the reference direction in the horizontal plane and the rotation angle pitch (pitch) with respect to the vertical reference direction Can be represented by Further, center coordinates of the iris 32 or the pupil 33 can be represented by an eyeball radius R, a yaw, and a pitch based on the eyeball center 31.

一方、カメラ14が撮影する映像は特定の2次元平面を表している。したがって、カメラ14の撮影で得た二次元画像34を眼球3Dモデル30に適用する場合には、二次元/三次元の相互変換を行う必要がある。そこで、例えば次の計算式を用いて変換する。   On the other hand, the video captured by the camera 14 represents a specific two-dimensional plane. Therefore, in the case of applying the two-dimensional image 34 obtained by photographing by the camera 14 to the eyeball 3D model 30, it is necessary to perform two-dimensional / three-dimensional mutual conversion. Therefore, conversion is performed using, for example, the following formula.

X=−R×cos(pitch)×sin(yaw) ・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
X =-R x cos (pitch) x sin (yaw) (1)
Y = R × sin (pitch) (2)
X: distance in the x direction from the eyeball center 31 on the two-dimensional image plane Y: distance in the y direction from the eyeball center 31 on the two-dimensional image plane

<画像から瞳孔を探索する処理の詳細>
<処理の流れ>
本発明に係る第1実施形態の画像処理装置が実施する瞳孔検出アルゴリズムの詳細を説明する。図5は、本発明に係る第1実施形態の画像処理装置が実施する瞳孔検出アルゴリズムにおける、画像から瞳孔を探索する処理の流れおよびデータの具体例である。
図5のステップS41では、図4中のステップS15の結果を利用して、1フレーム全体の二次元画像データの中から目およびその周辺の矩形領域を切り出して、データD41を取得する。
<Details of Process for Searching for Pupil from Image>
<Flow of processing>
Details of a pupil detection algorithm implemented by the image processing apparatus according to the first embodiment of the present invention will be described. FIG. 5 is a specific example of a flow of processing for searching a pupil from an image and data in a pupil detection algorithm implemented by the image processing apparatus according to the first embodiment of the present invention.
In step S41 of FIG. 5, using the result of step S15 in FIG. 4, the rectangular region of the eye and its periphery is cut out from the two-dimensional image data of the entire one frame, and data D41 is acquired.

図5のステップS42では、ステップS41で取得したデータD41を画素毎の階調が黒/白の二値のみになるように二値化した二値化画像D42を生成した後で、この二値化画像D42に対して図3のステップS17のテンプレートマッチングを実施する。すなわち、瞳孔の形状に似た黒丸形状の画像D4tをテンプレートとして利用し、このテンプレートを二値化画像D42の画像上で走査しながら、特徴が尤も似ているおおよその瞳孔の位置P41を探索し、その位置および瞳孔の半径または直径を特定する。   In step S42 of FIG. 5, after the binarized image D42 obtained by binarizing the data D41 acquired in step S41 so that the gray scale for each pixel is only the black / white binary value is generated, this binary value is generated. The template matching in step S17 of FIG. 3 is performed on the digitized image D42. That is, while using a black circle-shaped image D4t similar to the shape of the pupil as a template, while scanning this template on the image of the binarized image D42, an approximate pupil position P41 with similar features is searched for , Identify its position and the radius or diameter of the pupil.

また、図5のステップS43では、ステップS41で取得した目のデータD41に対してソーベルフィルタの処理を施す。具体的には、目のデータD41を左から右に向かって水平方向に順次に走査し、輝度変化のない部分では黒(階調値:0)を出力し、輝度変化の勾配が大きいほど白(階調値:255)に近づくようにして、エッジを検出する。これにより、エッジを抽出した目画像のエッジ画像D43が得られる。   Further, in step S43 of FIG. 5, the Sobel filter process is performed on the eye data D41 acquired in step S41. Specifically, the eye data D41 is sequentially scanned in the horizontal direction from left to right, and black (gradation value: 0) is output in a portion where there is no luminance change, and the larger the gradient of the luminance change, the more white The edge is detected as it approaches (gradation value: 255). Thus, an edge image D43 of the eye image from which the edge has been extracted is obtained.

図5のステップS44では、ステップS42の結果得られたおおよその瞳孔の位置近傍に、ステップS43の結果得られた目画像のエッジ画像D43に対してパーティクルフィルタの処理を実行する。   In step S44 in FIG. 5, a particle filter process is performed on the edge image D43 of the eye image obtained as a result of step S43 in the vicinity of the approximate pupil position obtained as a result of step S42.

<パーティクルフィルタによる瞳孔検出の処理>
図5に示したステップS44の詳細を図6に示す。すなわち、パーティクルフィルタを用いて瞳孔位置を検出するための処理を説明するフローチャートが図6に示されている。また、図6に示した処理を実行する場合の処理データの具体例を図7に示す。
<Processing of pupil detection by particle filter>
Details of step S44 shown in FIG. 5 are shown in FIG. That is, FIG. 6 shows a flowchart for explaining a process for detecting a pupil position using a particle filter. Further, FIG. 7 shows a specific example of process data when the process shown in FIG. 6 is executed.

図7中の二値化した二値化画像データD91に対してステップS42の粗探索を実行することにより、円形の瞳孔の領域91が検出される。図6のステップS18aでは、ステップS17またはS42の粗探索で得られた瞳孔の中心位置を、第(1)式および第(2)式に基づき眼球3Dモデル30の座標系(R、Pp、Py)に変換し、瞳孔の中心位置を表す眼球回転角(Pp、Py)を得る。
R:眼球半径
Pp:回転角pitchを表す変数
Py:回転角yaw表す変数
By executing the rough search in step S42 on the binarized binarized image data D91 in FIG. 7, a circular pupil area 91 is detected. In step S18a of FIG. 6, the center position of the pupil obtained by the rough search in step S17 or S42 is set to the coordinate system (R, Pp, Py of the eyeball 3D model 30 based on the equations (1) and (2). To obtain an eye rotation angle (Pp, Py) representing the central position of the pupil.
R: eyeball radius Pp: variable representing rotation angle pitch Py: variable representing rotation angle yaw

したがって、粗探索で得た円形の瞳孔の領域92の位置を、図7に示すように眼球3Dモデル30A上の眼球表面位置に反映することができる。   Therefore, the position of the circular pupil area 92 obtained by the rough search can be reflected on the eye surface position on the eye 3D model 30A as shown in FIG.

続いて、図6のステップS18bでは、実際の瞳孔位置の候補を見つけるために必要な複数のパーティクルフィルタを粗探索で得た瞳孔の中心位置(Pp、Py)の近傍に散布する。具体的には、乱数を用いて、例えば100セットのサンプリング円93を作成する。これらのサンプリング円93は、図7に示すように眼球3Dモデル30B上の眼球表面位置に反映することができる。各々のサンプリング円93は、瞳孔の中心位置(Pp、Py)に、それぞれ異なる乱数成分(Ppd、Pyd)を加算した位置を中心とする円形の領域である。
Ppd:回転角pitchに加算される乱数成分
Pyd:回転角yawに加算される乱数成分
また、各々のサンプリング円93の半径としては、テンプレートマッチングによって用いた黒丸画像の半径を適用する。
Subsequently, in step S18b of FIG. 6, a plurality of particle filters necessary for finding actual pupil position candidates are dispersed in the vicinity of the pupil center position (Pp, Py) obtained by the rough search. Specifically, for example, 100 sets of sampling circles 93 are created using random numbers. These sampling circles 93 can be reflected on the eye surface position on the eye 3D model 30B as shown in FIG. Each sampling circle 93 is a circular area centered at a position obtained by adding different random number components (Ppd, Pyd) to the central position (Pp, Py) of the pupil.
Ppd: Random number component to be added to rotation angle pitch: Random number component to be added to rotation angle yaw As the radius of each sampling circle 93, the radius of the black circle image used by template matching is applied.

100セットのサンプリング円93を作成する際には、正規分布に従ってランダムノイズを加えるように各乱数成分(Ppd、Pyd)を生成する。したがって、図7に示した眼球3Dモデル30Bのように、瞳孔の領域92の近傍の様々な位置に、サンプリング円93がランダムに形成される。   When creating 100 sets of sampling circles 93, each random component (Ppd, Pyd) is generated so as to add random noise according to the normal distribution. Therefore, sampling circles 93 are randomly formed at various positions near the region 92 of the pupil, as in the eyeball 3D model 30B shown in FIG.

図6のステップS18cでは、100セットのサンプリング円93のそれぞれを、図7に示したエッジ画像D92(図5中のエッジ画像D43に相当)の平面に投影する。なお、瞳孔の領域92や各サンプリング円93の形状は円形であるが、各円の位置がカメラ14の正面を向いている状態でない限り、眼球3Dモデル30上の各円を二次元画像の平面に投影すると、傾斜した状態で投影されるため、二次元平面上では楕円形になる。そのため、便宜上、二次元平面上に投影されたサンプリング円93をサンプリング楕円94と称する。サンプリング楕円94は、弧上の各位置に均等に割り当てられた複数点によって構成されている。   In step S18c of FIG. 6, each of the 100 sets of sampling circles 93 is projected onto the plane of the edge image D92 (corresponding to the edge image D43 in FIG. 5) shown in FIG. Although the shape of the pupil area 92 and each sampling circle 93 is a circle, each circle on the eyeball 3D model 30 is a plane of a two-dimensional image unless the position of each circle faces the front of the camera 14 When projected onto, it is projected in an inclined state, so it becomes elliptical on a two-dimensional plane. Therefore, for convenience, the sampling circle 93 projected on the two-dimensional plane is referred to as a sampling ellipse 94. The sampling ellipse 94 is composed of a plurality of points equally allocated to each position on the arc.

図6のステップS18dでは、次に説明する「サンプリング処理」を実施する。すなわち、サンプリング楕円94毎に、楕円を構成する各点(この例では総数が120点)のエッジ画像のエッジ強度(勾配の大きさ)を足し合わせ、その結果を一つのサンプリング楕円94の尤度とする。   In step S18d of FIG. 6, "sampling processing" to be described next is performed. That is, for each sampling ellipse 94, the edge intensity (gradient magnitude) of the edge image of each point (the total number is 120 in this example) constituting the ellipse is added, and the result is the likelihood of one sampling ellipse 94 I assume.

100セットの全てのサンプリング楕円94についてステップS18c、S18dの処理を繰り返し、全ての処理が終了すると、ステップS18eからS18fに進む。ステップS18fでは、100セットのサンプリング楕円94の中で、ステップS18dで検出した尤度が最大の1つのサンプリング楕円94を特定し、その位置および形状を実際の瞳孔の位置および形状として検出する。以上、本発明に係る第1実施形態の画像処理装置におけるパーティクルフィルタを用いた瞳孔検出の詳細を説明した。   The processes of steps S18c and S18d are repeated for all 100 sets of sampling ellipses 94. When all the processes are completed, the process proceeds from step S18e to step S18f. In step S18f, one sampling ellipse 94 having the largest likelihood detected in step S18d is identified from the 100 sets of sampling ellipses 94, and the position and shape thereof are detected as the actual position and shape of the pupil. The details of pupil detection using the particle filter in the image processing apparatus according to the first embodiment of the present invention have been described above.

<本発明に係る第2実施形態の画像処理装置の詳細>
<瞳孔検出アルゴリズムの概要>
続いて、本発明に係る第2実施形態の画像処理装置におけるパーティクルフィルタを用いた瞳孔検出アルゴリズムを説明する。第1実施形態で説明した瞳孔検出アルゴリズムでは、発明の理解を助けるため瞳孔の半径が変化する点については触れなかったが、実際には、周囲環境の明るくなれば瞳孔が縮小し暗くなれば瞳孔が拡大する。以後説明する本発明に係る第2実施形態では、瞳孔の半径の変化に対応することができる瞳孔検出アルゴリズムについて説明する。
<Details of Image Processing Apparatus of Second Embodiment According to the Present Invention>
<Overview of pupil detection algorithm>
Subsequently, a pupil detection algorithm using a particle filter in an image processing apparatus according to a second embodiment of the present invention will be described. Although the pupil detection algorithm described in the first embodiment does not touch the point at which the radius of the pupil changes in order to help the understanding of the invention, in fact, if the surrounding environment becomes brighter, the pupil shrinks and becomes darker Will expand. In the second embodiment of the present invention to be described later, a pupil detection algorithm capable of coping with changes in pupil radius will be described.

<実施例1:パーティクルフィルタの径を動的に変更する方法>
実施例1では、眼球3Dモデル30に散布するパーティクルフィルタに着目し、縮小または拡大する瞳孔に追従してパーティクルフィルタの径を動的に変更する方法について説明する。尚、実施例1におけるパーティクルフィルタを用いた瞳孔検出アルゴリズムは、パーティクルフィルタの径を動的に変更するフローが、第1実施形態の画像処理装置による瞳孔検出アルゴリズムに追加されたものである。このため、第1実施形態の画像処理装置による瞳孔検出アルゴリズムと重複する処理についての詳細な説明を省略する。実施例1の画像処理装置によるパーティクルフィルタの径を動的に変更するフローチャートを図8に示す。また、図8に示すフローチャートを実施するなかで尤度が最も高いパーティクルフィルタと瞳孔との位置関係を表す模式図を図9(a)から(c)に示す。
<Example 1: Method of dynamically changing the diameter of particle filter>
In the first embodiment, a method of dynamically changing the diameter of the particle filter following the pupil to be reduced or enlarged focusing on the particle filter dispersed in the eyeball 3D model 30 will be described. In the pupil detection algorithm using the particle filter in the first embodiment, a flow for dynamically changing the diameter of the particle filter is added to the pupil detection algorithm by the image processing apparatus according to the first embodiment. For this reason, the detailed description about the process which overlaps with the pupil detection algorithm by the image processing apparatus of 1st Embodiment is abbreviate | omitted. A flowchart for dynamically changing the diameter of the particle filter by the image processing apparatus of the first embodiment is shown in FIG. Further, FIGS. 9A to 9C are schematic diagrams showing the positional relationship between the particle filter having the highest likelihood and the pupil in the execution of the flowchart shown in FIG.

図8に示すパーティクルフィルタの径を動的に変更するパーティクル径変更処理は、図6に示す瞳孔検出処理と並列的に実施される。このため、図8に示すパーティクル径変更処理では、図6に示す瞳孔検出処理で参照されるデータが利用される。また、図8に示すパーティクル径変更処理は、次の条件(1)または(2)を満たしたときに実行される。
(1)前回当該パーティクル径変更処理が実行されてから一定時間が経過した場合
(2)図6に示す瞳孔検出処理のステップS18eで算出された複数のサンプリング楕円の尤度がいずれも所定の閾値を下回った場合
以下、図8に示すパーティクル径変更処理を詳細に説明する。
The particle diameter change processing for dynamically changing the diameter of the particle filter shown in FIG. 8 is performed in parallel with the pupil detection processing shown in FIG. Therefore, in the particle diameter change process shown in FIG. 8, data referred to in the pupil detection process shown in FIG. 6 is used. Further, the particle diameter change process shown in FIG. 8 is executed when the following condition (1) or (2) is satisfied.
(1) When a fixed time has elapsed since the previous particle diameter change processing was performed (2) The likelihoods of the plurality of sampling ellipses calculated in step S18e of the pupil detection processing shown in FIG. 6 are all predetermined threshold values In the following, the particle diameter changing process shown in FIG. 8 will be described in detail.

上述の条件(1)または(2)が満たされた場合、径φを2[mm]としたパーティクルフィルタを作成し(ステップS28a)、作成したパーティクルフィルタを粗探索で得た瞳孔の中心位置(Pp、Py)の近傍に複数散布してパーティクルフィルタそれぞれの尤度を算出する(ステップS28b)。ステップS28bの処理については、図6を参照して説明したステップS18aからS18eの処理と同様であるため、ここでの再度の説明を省略する。そして、複数のパーティクルフィルタのうち最も尤度が高いものを特定し、その尤度を保存する(ステップS28c)。その後、径φを2[mm]増加させたパーティクルフィルタを作成する(ステップS28d)。   If the above condition (1) or (2) is satisfied, a particle filter with a diameter φ of 2 mm is created (step S28a), and the center position of the pupil obtained by rough search of the created particle filter A plurality of particle filters are scattered in the vicinity of Pp, Py) to calculate the likelihood of each of the particle filters (step S 28 b). The process of step S28b is the same as the process of steps S18a to S18e described with reference to FIG. 6, and thus the description thereof will not be repeated. Then, among the plurality of particle filters, the one with the highest likelihood is identified, and the likelihood is stored (step S28c). Thereafter, a particle filter with the diameter φ increased by 2 [mm] is created (step S28 d).

続いて、径φが4[mm]とされた作成したパーティクルフィルタを粗探索で得た瞳孔の中心位置(Pp、Py)の近傍に複数散布してパーティクルフィルタそれぞれの尤度を算出する(ステップS28b)。そして、複数のパーティクルフィルタのうち最も尤度が高いものを特定し、その尤度を保存する(ステップS28c)。その後、径φをさらに2[mm]増加させたパーティクルフィルタを作成する(ステップS28d)。   Subsequently, a plurality of particle filters having a diameter φ of 4 mm are dispersed in the vicinity of the center position (Pp, Py) of the pupil obtained by the rough search to calculate the likelihood of each of the particle filters (step S28b). Then, among the plurality of particle filters, the one with the highest likelihood is identified, and the likelihood is stored (step S28c). Thereafter, a particle filter with the diameter φ further increased by 2 [mm] is created (step S28 d).

同様に、径φが6[mm]とされた作成したパーティクルフィルタを粗探索で得た瞳孔の中心位置(Pp、Py)の近傍に複数散布してパーティクルフィルタそれぞれの尤度を算出する(ステップS28b)。そして、複数のパーティクルフィルタのうち最も尤度が高いものを特定し、その尤度を保存する(ステップS28c)。その後、径φが6[mm]に到達すると(ステップS28e、Yes)、ステップS28cにおいて保存した、パーティクルフィルタの径φが2、4、6[mm]それぞれの場合の尤度を参照し、尤度が最も高いパーティクルフィルタの径φを、次回図6に示す瞳孔検出処理が実行される際のサンプリング円の径として設定する(ステップS28f)。こうして、図8に示すパーティクル径変更処理が終了する。尚、ステップS28fが処理された時刻を記憶しておくことによって、上述の条件(1)の判別のための経過時間が計測される。   Similarly, a plurality of particle filters having a diameter φ of 6 [mm] are scattered in the vicinity of the center position (Pp, Py) of the pupil obtained by the rough search to calculate the likelihood of each of the particle filters (step S28b). Then, among the plurality of particle filters, the one with the highest likelihood is identified, and the likelihood is stored (step S28c). Thereafter, when the diameter φ reaches 6 [mm] (step S28 e, Yes), the particle filter diameter φ stored in step S 28 c refers to the likelihood in the respective cases of 2, 4 and 6 [mm]. The diameter φ of the particle filter with the highest degree is set as the diameter of the sampling circle when the pupil detection process shown in FIG. 6 is performed next (step S28 f). Thus, the particle diameter change process shown in FIG. 8 is completed. Incidentally, by storing the time when step S28f is processed, the elapsed time for determination of the above-mentioned condition (1) is measured.

ここで、図9を参照して、径φが2、4、6[mm]それぞれの場合において、尤度が最も高いパーティクルフィルタと瞳孔との位置関係を説明する。尚、図9では、径φが2[mm]の円に瞳孔の領域92が近い場合を示している。この場合において、図9(a)に示すように瞳孔の領域92の近傍に径φが2[mm]のサンプリング円93を散布した場合、瞳孔の領域92の輪郭に円周の大部分が沿うように位置するサンプリング円93が、尤度が最も高いものとして選ばれる。また、図9(b)、(c)に示すように瞳孔の領域92の近傍に径φが4[mm]または6[mm]のサンプリング円93を散布した場合、瞳孔の領域92の輪郭に円周の一部分が沿うように位置するサンプリング円93が、尤度が最も高いものとして選ばれる。このとき、径φが2、4、6[mm]のサンプリング円93それぞれの尤度を比較した場合、瞳孔の領域92に沿う距離が長い径φが2[mm]のサンプリング円93が、最も尤度が高くなる。こうして、尤度が最も高いパーティクルフィルタの径φが選択されることによって、パーティクルフィルタの径が動的に変更される。このように縮小または拡大する瞳孔に追従してパーティクルフィルタの径を設定することにより、瞳孔の中心座標を高精度に検出することできる。   Here, with reference to FIG. 9, the positional relationship between the particle filter having the highest likelihood and the pupil in the case where the diameter φ is 2, 4 and 6 [mm] will be described. Note that FIG. 9 shows the case where the area 92 of the pupil is close to a circle with a diameter φ of 2 [mm]. In this case, as shown in FIG. 9A, when a sampling circle 93 with a diameter φ of 2 mm is dispersed in the vicinity of the pupil area 92, most of the circumference follows the contour of the pupil area 92. The sampling circle 93 located as such is chosen as the one with the highest likelihood. Further, as shown in FIGS. 9B and 9C, when a sampling circle 93 with a diameter φ of 4 mm or 6 mm is dispersed near the pupil area 92, the contour of the pupil area 92 is obtained. A sampling circle 93, which lies along a portion of the circumference, is chosen as the one with the highest likelihood. At this time, when the likelihoods of the sampling circles 93 each having a diameter φ of 2, 4 and 6 [mm] are compared, the sampling circle 93 having a long diameter φ 2 [mm] along the pupil area 92 is the most The likelihood increases. Thus, the diameter of the particle filter is dynamically changed by selecting the diameter φ of the particle filter with the highest likelihood. By setting the diameter of the particle filter following the pupil to be reduced or enlarged in this manner, the central coordinates of the pupil can be detected with high accuracy.

尚、ステップS28fの処理において、尤度が最も高いパーティクルフィルタの径φを、次回図6に示す瞳孔検出処理が実行される際のサンプリング円の径として設定するとした。このときに、径φの異なるパーティクルフィルタのうちの最も高い尤度がある閾値を超えるか否かを判別するようにし、超えた場合に、その尤度が最も高いパーティクルフィルタの径φを、次回図6に示す瞳孔検出処理が実行される際のサンプリング円の径とするようにしてもよい。このようにすることで、径の異なるパーティクルフィルタがいずれも瞳孔の形状に沿っていない場合には、パーティクルフィルタの径φが選択されることを防ぐことができる。   In the process of step S28f, the diameter φ of the particle filter with the highest likelihood is set as the diameter of the sampling circle when the pupil detection process shown in FIG. 6 is performed next time. At this time, it is determined whether the highest likelihood among particle filters different in diameter φ exceeds a certain threshold, and if it exceeds the diameter φ of the particle filter having the highest likelihood, next time The diameter of the sampling circle may be set when the pupil detection process shown in FIG. 6 is performed. By doing this, it is possible to prevent the particle filter diameter φ from being selected when none of the particle filters having different diameters conform to the shape of the pupil.

また、本実施例1では、発明の理解を助けるため、ステップS28dにおいて径φを2[mm]ずつ増加させたが、増加させる幅をさらに細かく設定することによって、より瞳孔の形状に沿ったパーティクルフィルタを設定することができる。また、ステップS28dにおいて径φを増加させるのに代えて径φを減少させるようにしてもよい。この場合、ステップS28aではパーティクルフィルタの径φが取り得る上限値が設定される。   Further, in the first embodiment, the diameter φ is increased by 2 [mm] at step S 28 d in order to help the understanding of the invention, but particles more along the shape of the pupil can be obtained by setting the width to be increased more finely. You can set the filter. Further, instead of increasing the diameter φ in step S28d, the diameter φ may be decreased. In this case, in step S28a, an upper limit value that can be taken by the diameter φ of the particle filter is set.

<実施例2:パーティクルフィルタの径を周囲環境に応じて変更する方法>
実施例1では画像処理によってパーティクルフィルタの径を設定する方法について説明したが、実施例2では瞳孔に挿し込む光の明るさに着目する。実施例2では、画像処理装置に光センサを接続して光センサから信号を入力するようにしておき、その信号の強度が大きい場合、つまり周囲環境が明るい場合、にはパーティクルフィルタの径を縮小し、その信号の強度が小さい場合、つまり周囲環境が暗い場合、にはパーティクルフィルタの径を拡大する。こうして、光センサから伝達される信号の大小に応じてパーティクルフィルタの径φが選択されることによって、パーティクルフィルタの径が動的に変更される。このように周囲環境の明るさからパーティクルフィルタの径を動的に変更することによっても、瞳孔の中心座標を高精度に検出することできる。
<Example 2: Method of changing the diameter of the particle filter according to the surrounding environment>
In the first embodiment, the method of setting the diameter of the particle filter by image processing has been described. However, in the second embodiment, attention is focused on the brightness of light inserted into the pupil. In the second embodiment, an optical sensor is connected to the image processing apparatus to input a signal from the optical sensor, and the diameter of the particle filter is reduced when the intensity of the signal is large, that is, when the surrounding environment is bright. If the intensity of the signal is small, that is, if the surrounding environment is dark, the diameter of the particle filter is enlarged. Thus, the diameter of the particle filter is dynamically changed by selecting the diameter φ of the particle filter in accordance with the magnitude of the signal transmitted from the optical sensor. The central coordinates of the pupil can also be detected with high accuracy by dynamically changing the diameter of the particle filter from the brightness of the surrounding environment.

<実施例3:多重円のパーティクルフィルタを利用する方法>
実施例3では、眼球3Dモデル30に散布するパーティクルフィルタに着目し、縮小または拡大する瞳孔に対応できるパーティクルフィルタの形状について説明する。尚、実施例3におけるパーティクルフィルタを用いた瞳孔検出アルゴリズムは、パーティクルフィルタの形状が異なる点を除き、第1実施形態の画像処理装置による瞳孔検出アルゴリズムと同様である。このため、第1実施形態の画像処理装置による瞳孔検出アルゴリズムと重複する処理についての詳細な説明を省略する。実施例3の画像処理装置に用いるパーティクルフィルタの形状を図10に示す。また、図10に示したパーティクルフィルタを散布した模式図を図11に示す。
Example 3 Method of Using Multi-Circle Particle Filter
In the third embodiment, paying attention to the particle filter dispersed in the eyeball 3D model 30, the shape of the particle filter that can correspond to the reduced or enlarged pupil will be described. The pupil detection algorithm using the particle filter in the third embodiment is the same as the pupil detection algorithm by the image processing apparatus of the first embodiment except that the shape of the particle filter is different. For this reason, the detailed description about the process which overlaps with the pupil detection algorithm by the image processing apparatus of 1st Embodiment is abbreviate | omitted. The shape of the particle filter used in the image processing apparatus of the third embodiment is shown in FIG. Further, a schematic view in which the particle filter shown in FIG. 10 is dispersed is shown in FIG.

図10に示したパーティクルフィルタPFは、半径の異なる3つのサンプリング円C1、C2、C3が同一の位置を中心点とする円形のパターンである。図11に示すように、パーティクルフィルタPFは、サンプリング円C1、C2、C3が眼球3Dモデル30に散布され、サンプリング楕円D1、D2、D3が二次元平面上のエッジ画像D92に投影される。尚、図11は、サンプリング円及びサンプリング楕円の形状を除き図7と同様であるため、ここでの詳細な説明を省略する。   The particle filter PF illustrated in FIG. 10 is a circular pattern in which three sampling circles C1, C2, and C3 having different radii have the same position as a central point. As shown in FIG. 11, in the particle filter PF, sampling circles C1, C2, and C3 are dispersed in the eyeball 3D model 30, and sampling ellipses D1, D2, and D3 are projected on an edge image D92 on a two-dimensional plane. Note that FIG. 11 is the same as FIG. 7 except for the shapes of the sampling circle and the sampling ellipse, and thus detailed description thereof will be omitted.

このパーティクルフィルタPFは、サンプリング円C1、C2、C3毎に、円周上に均等な間隔で配置された多数のサンプリング点201、202、203を有している。また、各サンプリング円C1、C2、C3毎のサンプリング点201、202、203は、同数のサンプリング点が設定されており、径方向に並ぶよう放射状に配置されている。パーティクルフィルタPFの尤度を算出するにあたっては、各サンプリング円C1、C2、C3毎のサンプリング点201、202、203におけるエッジ画像のエッジ強度(勾配の大きさ)を足し合わせ、その結果を一つのパーティクルフィルタPFにおける尤度とする。   This particle filter PF has a large number of sampling points 201, 202, 203 arranged at equal intervals on the circumference for each sampling circle C1, C2, C3. Further, the sampling points 201, 202, and 203 for each sampling circle C1, C2, and C3 have the same number of sampling points set, and are arranged radially so as to be aligned in the radial direction. In calculating the likelihood of the particle filter PF, the edge intensities (gradient magnitudes) of the edge image at the sampling points 201, 202 and 203 for each sampling circle C1, C2 and C3 are added, and the result is one The likelihood in the particle filter PF.

粗探索で得た瞳孔位置の近傍に複数のパーティクルを散布するにあたっては、瞳孔の領域92の中心位置(Pp、Py)に対してそれぞれ異なる乱数成分(Ppd、Pyd)を加算した位置が3つの円に共通する中心点となるよう、各々のサンプリング円C1、C2、C3を配置する。   When scattering a plurality of particles in the vicinity of the pupil position obtained by the coarse search, three different positions are obtained by adding different random number components (Ppd, Pyd) to the center position (Pp, Py) of the pupil region 92. Each sampling circle C1, C2, C3 is arranged to be a central point common to the circles.

この3つの円から構成されるパーティクルフィルタPFは、図11に示したように二次元平面上のエッジ画像D92にサンプリング楕円D1、D2、D3として投影される。   The particle filter PF composed of these three circles is projected as sampling ellipses D1, D2, and D3 on an edge image D92 on a two-dimensional plane as shown in FIG.

実施例3のパーティクルフィルタPFでは、3重に形成された各円によって、瞳孔径の変化に対応することができる。すなわち、ある時点t1の画像フレームにおいて撮影された瞳孔が、次の時点t2の画像フレームにおいて瞳孔径が変化したとしても、時点t1で瞳孔を捉えていたサンプリング円(C1、C2、C3のいずれか)よりも大きいまたは小さいサンプリング円(C1、C2、C3のいずれか)が時点t2における瞳孔を捉えることができる。このように、実施例3のパーティクルフィルタによれば、瞳孔径の変化に対応して瞳孔の中心座標を高精度に検出することできる。   In the particle filter PF of the third embodiment, it is possible to cope with a change in pupil diameter by means of each circle formed in triple. That is, even if the pupil captured at an image frame at a certain time t1 changes the pupil diameter at an image frame at the next time t2, the sampling circle (C1, C2, or C3) which has captured the pupil at time t1. A sampling circle (either C1, C2, C3) larger or smaller than) can capture the pupil at time t2. As described above, according to the particle filter of the third embodiment, the central coordinates of the pupil can be detected with high accuracy in response to the change of the pupil diameter.

<実施例4:テンプレートマッチングに用いる黒丸画像の径を動的に変更する方法>
実施例4では、目周辺を切り出した目画像を二値化した画像に対してマッチングを行う黒丸画像に着目し、縮小または拡大する瞳孔に追従して黒丸画像の径を動的に変更する方法について説明する。尚、実施例4における黒丸画像を用いた瞳孔検出アルゴリズムは、黒丸画像の径を動的に変更するフローが、実施例1の瞳孔検出アルゴリズムに追加されたものである。このため、実施例1の画像処理装置による瞳孔検出アルゴリズムと重複する処理についての詳細な説明を省略する。実施例4の画像処理装置による黒丸画像の径を動的に変更するフローチャートを図12に示す。
<Example 4: Method of dynamically changing the diameter of the black circle image used for template matching>
In the fourth embodiment, a method of dynamically changing the diameter of a black circle image following a pupil to be reduced or enlarged by focusing on a black circle image which performs matching on an image obtained by binarizing an eye image in which the periphery of the eye is cut out Will be explained. In the pupil detection algorithm using the black circle image in the fourth embodiment, a flow for dynamically changing the diameter of the black circle image is added to the pupil detection algorithm in the first embodiment. For this reason, the detailed description about the process which overlaps with the pupil detection algorithm by the image processing apparatus of Example 1 is omitted. A flowchart for dynamically changing the diameter of the black circle image by the image processing apparatus of the fourth embodiment is shown in FIG.

図12に示す黒丸画像の径を動的に変更する黒丸径変更処理は、図6に示す瞳孔検出処理と並列的に実施される。このため、図12に示す黒丸径変更処理では、図6に示す瞳孔検出処理で参照されるデータが利用される。また、図8に示す黒丸径変更処理は、図8を参照して実施例1にて説明したステップS28fの後のステップS28gにおいて実行される。以下、ステップS28gの処理について説明する。   The black circle diameter changing process for dynamically changing the diameter of the black circle image shown in FIG. 12 is performed in parallel with the pupil detection process shown in FIG. Therefore, in the black circle diameter changing process shown in FIG. 12, data referred to in the pupil detection process shown in FIG. 6 is used. Further, the black circle diameter changing process shown in FIG. 8 is executed in step S28g after step S28f described in the first embodiment with reference to FIG. Hereinafter, the process of step S28g will be described.

ステップS28fにて、尤度が最も高いパーティクルフィルタの径φが、次回図6に示す瞳孔検出処理が実行される際のサンプリング円の径として設定されると、次いで、尤度が最も高いパーティクルフィルタの径φを、次回図3のステップS17に示す瞳孔粗探索が実行される際の黒丸画像の径として設定される(ステップS28g)。   When the diameter φ of the particle filter with the highest likelihood is set as the diameter of the sampling circle when the pupil detection process shown in FIG. 6 is performed next in step S28 f, then the particle filter with the highest likelihood is the next. The diameter .phi. Is set as the diameter of the black circle image at the next execution of the pupil rough search shown in step S17 of FIG. 3 (step S28 g).

こうして、尤度が最も高いパーティクルフィルタの径φに合わせて黒丸画像の径が選択されることによって、黒丸画像の径が動的に変更される。このように縮小または拡大する瞳孔に追従して黒丸画像の径を設定することにより、図3のステップS17に示す瞳孔粗探索の精度が向上する。これは、図3のステップS18においてパーティクルフィルタを散布する際の瞳孔の中心位置がより正確に得られることを意味する。これにより、複数のパーティクルフィルタを散布したときに瞳孔の形状に合うパーティクルフィルタ(つまり、より尤度が高いパーティクルフィルタ)の出現率が高まるため、瞳孔の中心座標を高精度に検出することできる。   Thus, the diameter of the black circle image is dynamically changed by selecting the diameter of the black circle image in accordance with the diameter φ of the particle filter with the highest likelihood. By setting the diameter of the black circle image following the pupil to be reduced or enlarged in this manner, the accuracy of the pupil rough search shown in step S17 of FIG. 3 is improved. This means that the center position of the pupil at the time of scattering the particle filter in step S18 of FIG. 3 can be obtained more accurately. As a result, the appearance rate of the particle filter (that is, the particle filter having a higher likelihood) conforming to the shape of the pupil when scattering a plurality of particle filters is increased, so that the center coordinates of the pupil can be detected with high accuracy.

また、別の見方をすれば、パーティクルフィルタを散布する個数を減らしたとしても瞳孔の中心座標を検出する精度を維持することできる、ともいうことができる。第1実施形態では100セットのサンプリング円を散布する場合を説明したが、図3のステップS17に示す瞳孔粗探索の精度が向上することにより、サンプリング円を散布する個数を25セット、50セットと減らすことができる。このような散布するサンプリング円の個数の削減は、瞳孔検出処理の演算量の削減に大きく寄与するため、瞳孔検出処理の高速化を実現することができる。   From another point of view, it can be said that the accuracy of detecting the center coordinates of the pupil can be maintained even if the number of scattering particle filters is reduced. In the first embodiment, the case of scattering 100 sets of sampling circles has been described. However, as the accuracy of the pupil rough search shown in step S17 of FIG. It can be reduced. Since the reduction of the number of sampling circles to be dispersed contributes greatly to the reduction of the calculation amount of the pupil detection processing, the pupil detection processing can be speeded up.

ここで、上述した本発明に係る画像処理装置の実施形態の特徴をそれぞれ以下[1]〜[9]に簡潔に纏めて列記する。
[1]
地表での太陽スペクトルが著しく低下する波長の近赤外光を照射する光源(近赤外LED12)と、
前記光源(12)が照射する波長を透過する光学フィルタ(光学バンドパスフィルタ13)と、
前記光源(12)によって照らされた人間の顔を、前記光学フィルタ(13)を通して撮影するカメラ(14)と、
前記カメラ(14)によって撮影された顔画像に対してデータ処理を行い、前記顔画像から瞳孔を検出する処理部(15)と、
を備えることを特徴とする画像処理装置。
[2]
上記[1]の構成の画像処理装置であって、
前記処理部(15)は、
ある走査方向にてエッジを検出するフィルタ処理を前記顔画像に施して、勾配の大きさが情報として保持されたエッジ画像(D43、D92)を生成し、
3次元モデルの表面に仮想的に位置する円形状のサンプリング円(93)が前記エッジ画像(D43、D92)に投影された状態において、前記サンプリング円(93)を構成する複数点それぞれに対応する前記エッジ画像(D43、D92)中の位置ごとに、前記勾配の大きさをサンプリング値として抽出して尤度評価の対象とし、
複数の前記サンプリング円(93)のうち、尤度が最大となる前記サンプリング円を瞳孔として検出する、
ことを特徴とする画像処理装置。
[3]
上記[2]の構成の画像処理装置であって、
前記処理部(15)は、動的に半径が変化する前記サンプリング円(93)を用いて、前記顔画像から瞳孔を検出する
ことを特徴とする画像処理装置。
[4]
上記[3]の構成の画像処理装置であって、
前記処理部は、時間の経過に応じて、前記サンプリング円(93)の半径を変化させる、
ことを特徴とする画像処理装置。
[5]
上記[3]の構成の画像処理装置であって、
前記処理部は、前記尤度がある閾値よりも低下した場合、前記サンプリング円(93)の半径を変化させる、
ことを特徴とする画像処理装置。
[6]
上記[3]の構成の画像処理装置であって、
可視光を検出する光センサをさらに備え、
前記処理部は、前記光センサにより検出される強度に基づいて、前記サンプリング円(93)の半径を変化させる、
ことを特徴とする画像処理装置。
[7]
上記[2]から[6]のいずれか1つの構成の画像処理装置であって、
前記処理部(15)は、
半径の異なる複数の円を同一の位置を中心点として配したサンプリング円(C1、C2、C3)を用い、
3次元モデルの表面に仮想的に位置する前記サンプリング円(C1、C2、C3)が、前記エッジ画像(D92)に投影された状態において、前記サンプリング円(C1、C2、C3)を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさをサンプリング値として抽出して尤度評価の対象とし、
複数の前記サンプリング円(C1、C2、C3)のうち、尤度が最大となる前記サンプリング円を瞳孔として検出する、
ことを特徴とする画像処理装置。
[8]
上記[2]から[7]のいずれか1つの構成の画像処理装置であって、
前記処理部(15)は、前記サンプリング円(93)を前記エッジ画像(D43、D92)に投影する前段として、前記顔画像を二値化した二値化画像(D42)に対して瞳孔を模擬した黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の中心が位置する前記二値化画像上の座標を瞳孔の中心位置として、当該黒丸画像の半径を瞳孔の半径として、それぞれ抽出し、
前記瞳孔の半径が設定された前記サンプリング円を、前記エッジ画像上における前記瞳孔の中心位置の近傍に投影する、
ことを特徴とする画像処理装置。
[9]
上記[8]の構成の画像処理装置であって、
前記処理部は、前記二値化画像(D42)に対して動的に半径が変化する前記黒丸画像をマッチングさせる、
ことを特徴とする画像処理装置。
Here, the features of the embodiments of the image processing apparatus according to the present invention described above will be briefly summarized and listed in the following [1] to [9].
[1]
A light source (near infrared LED 12) that emits near infrared light of a wavelength at which the solar spectrum at the ground surface significantly decreases;
An optical filter (optical band pass filter 13) that transmits the wavelength irradiated by the light source (12);
A camera (14) for photographing a human face illuminated by the light source (12) through the optical filter (13);
A processing unit (15) that performs data processing on a face image captured by the camera (14) and detects a pupil from the face image;
An image processing apparatus comprising:
[2]
The image processing apparatus according to the above [1], wherein
The processing unit (15)
The face image is subjected to filtering processing for detecting an edge in a certain scanning direction to generate an edge image (D43, D92) in which the magnitude of the gradient is held as information;
In a state in which a circular sampling circle (93) virtually positioned on the surface of a three-dimensional model is projected onto the edge image (D43, D92), it corresponds to each of a plurality of points constituting the sampling circle (93) The magnitude of the gradient is extracted as a sampling value for each position in the edge image (D43, D92) to be a target of likelihood evaluation,
Among the plurality of sampling circles (93), the sampling circle with the largest likelihood is detected as a pupil
An image processing apparatus characterized by
[3]
An image processing apparatus having the configuration of [2] above,
The image processing apparatus characterized in that the processing unit (15) detects a pupil from the face image using the sampling circle (93) whose radius changes dynamically.
[4]
The image processing apparatus having the configuration of [3] above,
The processing unit changes the radius of the sampling circle (93) according to the passage of time.
An image processing apparatus characterized by
[5]
The image processing apparatus having the configuration of [3] above,
The processing unit changes the radius of the sampling circle (93) when the likelihood is lower than a certain threshold.
An image processing apparatus characterized by
[6]
The image processing apparatus having the configuration of [3] above,
It further comprises an optical sensor that detects visible light,
The processing unit changes the radius of the sampling circle (93) based on the intensity detected by the light sensor.
An image processing apparatus characterized by
[7]
An image processing apparatus according to any one of the above [2] to [6],
The processing unit (15)
Using sampling circles (C1, C2, C3) in which a plurality of circles having different radii are arranged at the same position as a central point,
A plurality of sampling circles (C1, C2, C3) in a state where the sampling circles (C1, C2, C3) virtually positioned on the surface of the three-dimensional model are projected onto the edge image (D92) For each position in the edge image corresponding to each point, the magnitude of the gradient is extracted as a sampling value to be a target of likelihood evaluation,
Among the plurality of sampling circles (C1, C2, C3), the sampling circle with the largest likelihood is detected as a pupil.
An image processing apparatus characterized by
[8]
An image processing apparatus according to any one of the above [2] to [7],
The processing unit (15) simulates a pupil of a binarized image (D42) obtained by binarizing the face image as a previous stage of projecting the sampling circle (93) onto the edge image (D43, D92). The black circle image is matched, and the coordinates on the binarized image at which the center of the black circle image with the highest likelihood is located are extracted as the pupil center position, and the radius of the black circle image is extracted as the pupil radius.
Projecting the sampling circle in which the radius of the pupil is set in the vicinity of the center position of the pupil on the edge image;
An image processing apparatus characterized by
[9]
An image processing apparatus having the configuration of [8] above,
The processing unit matches the black circle image whose radius dynamically changes with the binarized image (D42).
An image processing apparatus characterized by

11 人物
12 近赤外LED
13 光学バンドパスフィルタ
14 カメラ
15 処理部
30 眼球3Dモデル
31 眼球中心
32 虹彩
33 瞳孔
93 サンプリング円
94 サンプリング楕円
201、202、203 サンプリング点
C1、C2、C3 サンプリング円
D1、D2、D3 サンプリング楕円
11 person 12 near infrared LED
13 optical band pass filter 14 camera 15 processing unit 30 eye 3D model 31 eye center 32 iris 33 pupil 93 sampling circle 94 sampling ellipse 201, 202, 203 sampling point C1, C2, C3 sampling circle D1, D2, D3 sampling ellipse

Claims (9)

地表での太陽スペクトルが著しく低下する波長の近赤外光を照射する光源と、
前記光源が照射する波長を透過する光学フィルタと、
前記光源によって照らされた人間の顔を、前記光学フィルタを通して撮影するカメラと、
前記カメラによって撮影された顔画像に対してデータ処理を行い、前記顔画像から瞳孔を検出する処理部と、
を備えることを特徴とする画像処理装置。
A light source that emits near-infrared light of a wavelength at which the solar spectrum at the ground surface significantly decreases;
An optical filter that transmits the wavelength irradiated by the light source;
A camera for capturing a human face illuminated by the light source through the optical filter;
A processing unit that performs data processing on a face image captured by the camera and detects a pupil from the face image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記処理部は、
ある走査方向にてエッジを検出するフィルタ処理を前記顔画像に施して、勾配の大きさが情報として保持されたエッジ画像を生成し、
3次元モデルの表面に仮想的に位置する円形状のサンプリング円が前記エッジ画像に投影された状態において、前記サンプリング円を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさをサンプリング値として抽出して尤度評価の対象とし、
複数の前記サンプリング円のうち、尤度が最大となる前記サンプリング円を瞳孔として検出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein
The processing unit is
Applying a filtering process to the face image to detect an edge in a certain scanning direction to generate an edge image in which the magnitude of the gradient is held as information;
In a state where a circular sampling circle virtually positioned on the surface of a three-dimensional model is projected onto the edge image, the gradient is generated at each position in the edge image corresponding to each of a plurality of points constituting the sampling circle. We extract the size of as a sampling value and use it as the target of likelihood evaluation,
Among the plurality of sampling circles, the sampling circle with the largest likelihood is detected as a pupil,
An image processing apparatus characterized by
請求項2に記載の画像処理装置であって、
前記処理部は、動的に半径が変化する前記サンプリング円を用いて、前記顔画像から瞳孔を検出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing apparatus, wherein the processing unit detects a pupil from the face image by using the sampling circle whose radius changes dynamically.
請求項3に記載の画像処理装置であって、
前記処理部は、時間の経過に応じて、前記サンプリング円の半径を変化させる、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The processing unit changes the radius of the sampling circle according to the passage of time.
An image processing apparatus characterized by
請求項3に記載の画像処理装置であって、
前記処理部は、前記尤度がある閾値よりも低下した場合、前記サンプリング円の半径を変化させる、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The processing unit changes the radius of the sampling circle when the likelihood is lower than a certain threshold.
An image processing apparatus characterized by
請求項3に記載の画像処理装置であって、
可視光を検出する光センサをさらに備え、
前記処理部は、前記光センサにより検出される強度に基づいて、前記サンプリング円の半径を変化させる、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
It further comprises an optical sensor that detects visible light,
The processing unit changes the radius of the sampling circle based on the intensity detected by the light sensor.
An image processing apparatus characterized by
請求項2から6のいずれか1項に記載の画像処理装置であって、
前記処理部は、
半径の異なる複数の円を同一の位置を中心点として配したサンプリング円を用い、
3次元モデルの表面に仮想的に位置する前記サンプリング円が、前記エッジ画像に投影された状態において、前記サンプリング円を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさをサンプリング値として抽出して尤度評価の対象とし、
複数の前記サンプリング円のうち、尤度が最大となる前記サンプリング円を瞳孔として検出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 2 to 6, wherein
The processing unit is
Using a sampling circle in which a plurality of circles with different radii are arranged with the same position as the center point,
In the state where the sampling circle virtually positioned on the surface of the three-dimensional model is projected onto the edge image, the gradient of the gradient is generated at each position in the edge image corresponding to each of a plurality of points forming the sampling circle. The magnitude is extracted as a sampling value, which is the target of likelihood evaluation,
Among the plurality of sampling circles, the sampling circle with the largest likelihood is detected as a pupil,
An image processing apparatus characterized by
請求項2から7のいずれか1項に記載の画像処理装置であって、
前記処理部は、前記サンプリング円を前記エッジ画像に投影する前段として、前記顔画像を二値化した二値化画像に対して瞳孔を模擬した黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の中心が位置する前記二値化画像上の座標を瞳孔の中心位置として、当該黒丸画像の半径を瞳孔の半径として、それぞれ抽出し、
前記瞳孔の半径が設定された前記サンプリング円を、前記エッジ画像上における前記瞳孔の中心位置の近傍に投影する、
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 2 to 7, wherein
The processing unit matches the black circle image simulating the pupil with the binarized image obtained by binarizing the face image as a front stage of projecting the sampling circle onto the edge image, and is the black circle with the largest likelihood. The coordinates on the binarized image where the center of the image is located are extracted as the center position of the pupil, and the radius of the black circle image is extracted as the radius of the pupil.
Projecting the sampling circle in which the radius of the pupil is set in the vicinity of the center position of the pupil on the edge image;
An image processing apparatus characterized by
請求項8に記載の画像処理装置であって、
前記処理部は、前記二値化画像に対して動的に半径が変化する前記黒丸画像をマッチングさせる、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 8,
The processing unit matches the black circle image whose radius dynamically changes with the binarized image.
An image processing apparatus characterized by
JP2017235264A 2017-12-07 2017-12-07 Image processing equipment Active JP7078386B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017235264A JP7078386B2 (en) 2017-12-07 2017-12-07 Image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017235264A JP7078386B2 (en) 2017-12-07 2017-12-07 Image processing equipment

Publications (2)

Publication Number Publication Date
JP2019101974A true JP2019101974A (en) 2019-06-24
JP7078386B2 JP7078386B2 (en) 2022-05-31

Family

ID=66973881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017235264A Active JP7078386B2 (en) 2017-12-07 2017-12-07 Image processing equipment

Country Status (1)

Country Link
JP (1) JP7078386B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137602A1 (en) * 2020-12-22 2022-06-30 株式会社スワローインキュベート Eye detection method, eye detection device, and eye detection program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000028315A (en) * 1998-07-13 2000-01-28 Honda Motor Co Ltd Object detector
JP2008123137A (en) * 2006-11-09 2008-05-29 Aisin Seiki Co Ltd On-vehicle image processor and control method therefor
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
JP2009181424A (en) * 2008-01-31 2009-08-13 Nec Corp Image processor, method for processing image, and image processing program
JP2017068615A (en) * 2015-09-30 2017-04-06 富士通株式会社 Line-of-sight detection system, line-of-sight detection method, and line-of-sight detection program
WO2017204406A1 (en) * 2016-05-25 2017-11-30 엠텍비젼 주식회사 Device and method for detecting eye position of driver, and imaging device having rolling shutter driving type image sensor and lighting control method therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000028315A (en) * 1998-07-13 2000-01-28 Honda Motor Co Ltd Object detector
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
JP2008123137A (en) * 2006-11-09 2008-05-29 Aisin Seiki Co Ltd On-vehicle image processor and control method therefor
JP2009181424A (en) * 2008-01-31 2009-08-13 Nec Corp Image processor, method for processing image, and image processing program
JP2017068615A (en) * 2015-09-30 2017-04-06 富士通株式会社 Line-of-sight detection system, line-of-sight detection method, and line-of-sight detection program
WO2017204406A1 (en) * 2016-05-25 2017-11-30 엠텍비젼 주식회사 Device and method for detecting eye position of driver, and imaging device having rolling shutter driving type image sensor and lighting control method therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
北川 洋介 他3名: "アイモデルを用いたConDensationによる視線推定", 情報処理学会研究報告, vol. 2005, no. 88, JPN6021045046, 6 September 2005 (2005-09-06), JP, pages 17 - 24, ISSN: 0004639305 *
浅野 誠之 他2名: "パーティクルフィルタとエッジ方向特徴量を用いた顔の向きに頑健な目検出法", 情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011, JPN6021045048, 20 July 2011 (2011-07-20), JP, pages 1119 - 1125, ISSN: 0004639306 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137602A1 (en) * 2020-12-22 2022-06-30 株式会社スワローインキュベート Eye detection method, eye detection device, and eye detection program
JP2022099129A (en) * 2020-12-22 2022-07-04 株式会社スワローインキュベート Eye detection method, eye detection apparatus, and eye detection program
US11961328B2 (en) 2020-12-22 2024-04-16 Swallow Incubate Co., Ltd. Eye detecting method, eye detecting device, and non-transitory computer-readable recording medium recording eye detecting program

Also Published As

Publication number Publication date
JP7078386B2 (en) 2022-05-31

Similar Documents

Publication Publication Date Title
US8675925B2 (en) Spoof detection for biometric authentication
US6885766B2 (en) Automatic color defect correction
CN106845414B (en) Method and system for quality metrics for biometric verification
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
US20160019421A1 (en) Multispectral eye analysis for identity authentication
WO2016010720A1 (en) Multispectral eye analysis for identity authentication
US20110169934A1 (en) Vein pattern recognition based biometric system and methods thereof
CN103871049B (en) Edge detection method under non-uniform background light
US10521659B2 (en) Image processing device, image processing method, and image processing program
Baker et al. Power line detection using Hough transform and line tracing techniques
US11375133B2 (en) Automatic exposure module for an image acquisition system
CN115100104A (en) Defect detection method, device and equipment for glass ink area and readable storage medium
CN109635761A (en) A kind of iris recognition image determines method, apparatus, terminal device and storage medium
KR101582467B1 (en) Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same
JP7044504B2 (en) Image processing device, image processing method and image processing program
Dixit et al. Iris recognition by daugman’s method
JP2003271932A (en) Sight line direction detector
JP7078386B2 (en) Image processing equipment
US20230386256A1 (en) Techniques for detecting a three-dimensional face in facial recognition
KR101704717B1 (en) Apparatus for recognizing iris and operating method thereof
CN114511885A (en) Palm region-of-interest extraction system and method
CN111699495B (en) Anti-spoof face ID sensing
Kovoor et al. Iris biometric recognition system employing canny operator
JP2005339388A (en) Picture processing method and picture processor
CN115409762B (en) Method and device for automatically detecting overlapping of planning point and blood vessel

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220519

R150 Certificate of patent or registration of utility model

Ref document number: 7078386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350