JP2021077333A - Line-of-sight detection method, line-of-sight detection device, and control program - Google Patents

Line-of-sight detection method, line-of-sight detection device, and control program Download PDF

Info

Publication number
JP2021077333A
JP2021077333A JP2020103649A JP2020103649A JP2021077333A JP 2021077333 A JP2021077333 A JP 2021077333A JP 2020103649 A JP2020103649 A JP 2020103649A JP 2020103649 A JP2020103649 A JP 2020103649A JP 2021077333 A JP2021077333 A JP 2021077333A
Authority
JP
Japan
Prior art keywords
eye
face
information indicating
detected
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020103649A
Other languages
Japanese (ja)
Other versions
JP6745518B1 (en
Inventor
寿和 大野
Toshikazu Ono
寿和 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Swallow Incubate Co Ltd
Original Assignee
Panasonic Corp
Swallow Incubate Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Swallow Incubate Co Ltd filed Critical Panasonic Corp
Priority to JP2020103649A priority Critical patent/JP6745518B1/en
Application granted granted Critical
Publication of JP6745518B1 publication Critical patent/JP6745518B1/en
Publication of JP2021077333A publication Critical patent/JP2021077333A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To further improve line-of-sight detection accuracy.SOLUTION: Image data of the face of a person is acquired. A left-eye region including the left eye of the person and a right-eye region including the right eye of the person are detected from the facial image data. When only one eye region, that is, the right-eye region or the left-eye region, is detected, an ear region including an ear of the person and/or a hair region including the hair of the person is detected from the facial image data, information indicating the orientation of the face is detected on the basis of information indicating the position of the one eye included in the one eye region and information indicating at least one of the position of the ear included in the ear region and the position of the hair included in the hair region, and information indicating the line of sight of the person is detected on the basis of the information indicating the position of the one eye and the information indicating the orientation of the face.SELECTED DRAWING: Figure 2

Description

本開示は、人の視線を検出する技術に関するものである。 The present disclosure relates to a technique for detecting a person's line of sight.

視線検出技術は、人物の興味対象の推定、眠気等の人物の状態の推定、及び視線による機器への入力を行うユーザインターフェースといった種々の用途で用いられている。視線検出技術は、頭部装着型と非接触型とに大別される。頭部装着型の視線検出技術は、ヘッドマウントディスプレイ等の装置を人物の頭部に装着して視線を検出する技術である。非接触型の視線検出技術は人物に装置を装着することなく視線を検出する技術である。非接触型の視線検出技術は、頭部装着型の視線検出技術のように頭部に装置を装着する必要がないため、人物に煩わしさを与えない、人物の視界を遮らないといった利点がある。そこで、本開示では、非接触型の視線検出技術に着目している。 The line-of-sight detection technique is used in various applications such as estimation of a person's interest target, estimation of a person's state such as drowsiness, and a user interface for inputting to a device by the line of sight. The line-of-sight detection technology is roughly divided into a head-mounted type and a non-contact type. The head-mounted line-of-sight detection technique is a technique for detecting a line-of-sight by attaching a device such as a head-mounted display to a person's head. The non-contact type line-of-sight detection technology is a technology for detecting the line-of-sight without attaching a device to a person. Unlike the head-mounted line-of-sight detection technology, the non-contact type line-of-sight detection technology does not require a device to be attached to the head, and has the advantages of not bothering the person and not obstructing the person's field of vision. .. Therefore, this disclosure focuses on a non-contact line-of-sight detection technique.

ここで、非接触型の視線検出技術は、瞳孔角膜反射法と三次元眼球モデルによる方法との2つに大別される。瞳孔角膜反射法とは、例えば特許文献1に記載のように、発光素子によって人間の目に光を照射し、目に投影された反射像の位置と、光の照射角度と、反射像の位置の移動量等によって視線を検出する方法である。 Here, the non-contact type eye-gaze detection technique is roughly classified into two methods, a pupillary corneal reflex method and a three-dimensional eyeball model method. The pupillary corneal reflex method is, for example, as described in Patent Document 1, in which light is irradiated to the human eye by a light emitting element, the position of the reflected image projected on the eye, the irradiation angle of the light, and the position of the reflected image. This is a method of detecting the line of sight based on the amount of movement of the light.

三次元眼球モデルによる方法とは、顔画像を解析することにより得られた眼球に関する情報に基づき、視線方向を推定する方法である。例えば、特許文献2には、顔画像を解析することにより得られた眼球の回転角及び顔の向きから視線方向を推定する方法が開示されている。また、顔画像を解析することにより得られた眼球中心位置と虹彩中心位置とを結ぶ三次元ベクトルを視線方向と推定したり、瞳孔中心位置の接平面に対する法線を視線方向と推定したりする方法も知られている。 The method based on the three-dimensional eyeball model is a method of estimating the line-of-sight direction based on the information about the eyeball obtained by analyzing the facial image. For example, Patent Document 2 discloses a method of estimating the line-of-sight direction from the rotation angle of the eyeball and the direction of the face obtained by analyzing the face image. In addition, the three-dimensional vector connecting the center position of the eyeball and the center position of the iris obtained by analyzing the face image is estimated as the line-of-sight direction, and the normal line of the center position of the pupil with respect to the tangent plane is estimated as the line-of-sight direction. The method is also known.

特開昭61−172552号公報Japanese Unexamined Patent Publication No. 61-172552 特開2003−271932号公報Japanese Unexamined Patent Publication No. 2003-271932

しかし、非接触型の視線検出技術においては、顔の片側を示す顔画像を用いた場合、言い換えると、顔画像から片方の目しか検出できない場合には、視線方向を精度良く検出することが困難となる。そのため、例えば、歩行者の進行方向に対して側方に設置した対象物に対して、歩行者の視線情報に基づき注視度やわき見の有無を判定するといったことが困難になるという課題がある。上記特許文献1及び2に開示の非接触型の視線検出技術では、このような片方の目しか検出できない場合の視線の検出方法について具体的に考慮されていない。 However, in the non-contact type line-of-sight detection technology, when a face image showing one side of the face is used, in other words, when only one eye can be detected from the face image, it is difficult to accurately detect the line-of-sight direction. It becomes. Therefore, for example, there is a problem that it becomes difficult to determine the degree of gaze and the presence or absence of aside from an object installed on the side of the pedestrian's traveling direction based on the pedestrian's line-of-sight information. In the non-contact type line-of-sight detection technique disclosed in Patent Documents 1 and 2, the method of detecting the line-of-sight when only one eye can be detected is not specifically considered.

本開示は、このような課題を解決するためになされたものであり、顔画像から片方の目しか検出できない場合における視線の検出精度のさらなる向上を図ることを目的とする。 The present disclosure has been made to solve such a problem, and an object of the present disclosure is to further improve the detection accuracy of the line of sight when only one eye can be detected from the face image.

本開示の第一の態様は、視線検出装置における視線検出方法であって、人の顔の画像データを取得し、前記顔の画像データから前記人の左目を含む左目領域及び前記人の右目を含む右目領域を検出し、前記右目領域又は前記左目領域の一方の目領域のみを検出した場合、前記顔の画像データから前記人の耳を含む耳領域及び前記人の髪を含む髪領域の少なくとも一方を検出し、前記一方の目領域に含まれる一方の目の位置を示す情報と前記耳領域に含まれる耳の位置及び前記髪領域に含まれる髪の位置の少なくとも一方の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出し、前記一方の目の位置を示す情報と前記顔の向きを示す情報とに基づいて、前記人の視線を示す情報を検出する。 The first aspect of the present disclosure is a line-of-sight detection method in a line-of-sight detection device, in which image data of a person's face is acquired, and the left eye region including the left eye of the person and the right eye of the person are obtained from the image data of the face. When the right eye region including the right eye region is detected and only one eye region of the right eye region or the left eye region is detected, at least the ear region including the human ear and the hair region including the human hair are detected from the image data of the face. One is detected, and information indicating the position of one eye included in the one eye region and information indicating the position of at least one of the position of the ear included in the ear region and the position of the hair included in the hair region. Based on, the information indicating the direction of the face is detected, and the information indicating the line of sight of the person is detected based on the information indicating the position of one of the eyes and the information indicating the direction of the face.

本開示の第二の態様は、視線検出装置における視線検出方法であって、人の顔の画像データを取得し、前記顔の画像データから前記人の左目を含む左目領域及び前記人の右目を含む右目領域を検出し、前記右目領域及び前記左目領域を検出した場合、前記顔の画像データから前記顔の向きを示す情報を検出し、前記右目領域に含まれる右目の位置を示す情報及び前記左目領域に含まれる左目の位置を示す情報と前記顔の向きを示す情報とを用いた第一の処理により前記人の視線を示す情報を検出し、前記右目領域又は前記左目領域の一方の目領域のみを検出した場合、前記一方の目領域に含まれる一方の目の位置を示す情報と前記顔における目と異なる部位の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出し、前記一方の目の位置を示す情報と前記顔の向きを示す情報とを用いた第二の処理により前記人の視線を示す情報を検出する。 A second aspect of the present disclosure is a line-of-sight detection method in a line-of-sight detection device, in which image data of a person's face is acquired, and the left eye region including the left eye of the person and the right eye of the person are obtained from the image data of the face. When the right eye region including the right eye region is detected and the right eye region and the left eye region are detected, the information indicating the orientation of the face is detected from the image data of the face, and the information indicating the position of the right eye included in the right eye region and the said Information indicating the line of sight of the person is detected by the first process using the information indicating the position of the left eye and the information indicating the orientation of the face included in the left eye region, and one eye of the right eye region or the left eye region is detected. When only a region is detected, information indicating the orientation of the face is detected based on the information indicating the position of one eye included in the one eye region and the information indicating the position of a portion different from the eyes on the face. Then, the information indicating the line of sight of the person is detected by the second process using the information indicating the position of the one eye and the information indicating the direction of the face.

本開示によれば、顔画像から片方の目しか検出できない場合における視線の検出精度のさらなる向上を図ることができる。 According to the present disclosure, it is possible to further improve the detection accuracy of the line of sight when only one eye can be detected from the face image.

本開示の実施の形態1に係る画像処理システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing system which concerns on Embodiment 1 of this disclosure. 実施の形態1に係る画像処理システムの詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of the detailed structure of the image processing system which concerns on Embodiment 1. FIG. 右目領域及び左目領域の一例を示す図である。It is a figure which shows an example of a right eye region and a left eye region. 片目視線検出部の詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of the detailed structure of the one-sided visual line detection part. 耳領域の一例を示す図である。It is a figure which shows an example of an ear region. 顔領域の一例を示す図である。It is a figure which shows an example of a face area. 二値化された顔領域の一例を示す図である。It is a figure which shows an example of the binarized face area. 二値化された顔領域の他の一例を示す図である。It is a figure which shows another example of the binarized face area. 上方からみた人物の顔向き度合の一例を示す模式図である。It is a schematic diagram which shows an example of the degree of face orientation of a person seen from above. 人物の視野角を示す図である。It is a figure which shows the viewing angle of a person. 視線方向の検出方法の説明図である。It is explanatory drawing of the detection method of the line-of-sight direction. 実施の形態1に係る画像処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the image processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る片目視線検出部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the one-sided visual line detection part which concerns on Embodiment 1. FIG. 実施の形態2に係る画像処理システムの詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of the detailed structure of the image processing system which concerns on Embodiment 2. FIG.

(本開示の基礎となる知見)
従来の三次元眼球モデルによる視線の検出方法においては、顔画像を解析することによって、両目の眼球に関する情報を検出し、当該検出した情報に基づいて視線方向が推定される。しかし、検出対象の人がわき見していることで、片方の目しか含まれていない顔画像が視線検出に用いられる場合がある。この場合、顔画像から検出可能な片目と、顔画像から検出できない片目とが共に略同じ方向を向いている等と推定する他なかった。
(Findings underlying this disclosure)
In the conventional method of detecting the line of sight by the three-dimensional eyeball model, information on the eyeballs of both eyes is detected by analyzing the face image, and the line of sight direction is estimated based on the detected information. However, when the person to be detected is looking aside, a face image containing only one eye may be used for line-of-sight detection. In this case, there was no choice but to presume that one eye that can be detected from the face image and one eye that cannot be detected from the face image both face substantially the same direction.

このように、従来の三次元眼球モデルによる視線の検出方法は、顔の片側を示す顔画像しか検出できない場合において、視線方向を精度良く検出することが困難であった。視線方向を精度良く検出できなければ、例えば、歩行者の進行方向に対して側方に設置した対象物に対して、歩行者の視線情報に基づき注視度やわき見の有無を判定することが困難になる。 As described above, in the conventional method of detecting the line of sight using the three-dimensional eyeball model, it is difficult to accurately detect the direction of the line of sight when only a face image showing one side of the face can be detected. If the line-of-sight direction cannot be detected accurately, for example, it is difficult to determine the degree of gaze and the presence or absence of aside from an object installed on the side of the pedestrian's traveling direction based on the pedestrian's line-of-sight information. become.

本発明者は、このような課題に対して詳細な検討を行った結果、顔画像から片目しか検出できない場合、目とは異なる部位に関する情報を用いることにより、視線検出の精度を向上できるとの知見を得て、下記に示す各態様を想到するに至った。 As a result of conducting a detailed study on such a problem, the present inventor can improve the accuracy of line-of-sight detection by using information on a part different from the eyes when only one eye can be detected from the face image. Based on the findings, we came up with the following aspects.

本開示の第一の態様に係る視線検出方法は、視線検出装置における視線検出方法であって、人の顔の画像データを取得し、前記顔の画像データから前記人の左目を含む左目領域及び前記人の右目を含む右目領域を検出し、前記右目領域又は前記左目領域の一方の目領域のみを検出した場合、前記顔の画像データから前記人の耳を含む耳領域及び前記人の髪を含む髪領域の少なくとも一方を検出し、前記一方の目領域に含まれる一方の目の位置を示す情報と前記耳領域に含まれる耳の位置及び前記髪領域に含まれる髪の位置の少なくとも一方の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出し、前記一方の目の位置を示す情報と前記顔の向きを示す情報とに基づいて、前記人の視線を示す情報を検出する。 The line-of-sight detection method according to the first aspect of the present disclosure is a line-of-sight detection method in a line-of-sight detection device, in which image data of a human face is acquired, and the left eye region including the left eye of the person and the left eye region including the left eye of the person are obtained from the image data of the face. When the right eye region including the right eye of the person is detected and only one eye region of the right eye region or the left eye region is detected, the ear region including the human ear and the hair of the person are obtained from the image data of the face. At least one of the information indicating the position of one eye included in the one eye region, the position of the ear included in the ear region, and the position of the hair included in the hair region by detecting at least one of the including hair regions. Information indicating the orientation of the face is detected based on the information indicating the position, and information indicating the line of sight of the person is obtained based on the information indicating the position of the one eye and the information indicating the orientation of the face. To detect.

本構成によれば、顔の画像データから右目領域又は左目領域の一方の目領域のみを検出した場合、顔の画像データから耳領域及び髪領域の少なくとも一方が検出される。そして、前記一方の目領域に含まれる一方の目の位置を示す情報と、当該検出された耳領域及び髪領域の少なくとも一方に含まれる耳又は髪の位置を示す情報とに基づいて、顔の向きを示す情報が検出される。そして、当該検出された顔の向きを示す情報と前記一方の目の位置を示す情報とに基づいて、人の視線を示す情報が検出される。 According to this configuration, when only one eye region of the right eye region or the left eye region is detected from the face image data, at least one of the ear region and the hair region is detected from the face image data. Then, based on the information indicating the position of one eye included in the one eye region and the information indicating the position of the ear or hair included in at least one of the detected ear region and hair region, the face Information indicating the orientation is detected. Then, based on the detected information indicating the orientation of the face and the information indicating the position of one of the eyes, the information indicating the line of sight of a person is detected.

これにより、本構成は、右目又は左目だけを含む顔の画像データしか取得できない場合でも、両目の位置関係に代えて、検出された片目と耳又は髪との位置関係に基づいて、顔の向きを精度よく検出することができる。その結果、本構成は、顔画像から片方の目しか検出できない場合であっても、顔の向きを精度よく特定でき、ひいては視線の検出精度を向上させることができる。 As a result, in this configuration, even if only the image data of the face including only the right eye or the left eye can be acquired, the orientation of the face is based on the detected positional relationship between one eye and the ear or hair instead of the positional relationship between both eyes. Can be detected accurately. As a result, this configuration can accurately identify the orientation of the face even when only one eye can be detected from the face image, and can improve the detection accuracy of the line of sight.

上記態様において、前記一方の目領域のみを検出した場合、前記顔の画像データから前記耳領域を検出し、前記耳領域を検出できた場合、前記一方の目の位置を示す情報と前記耳の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, when only the one eye region is detected, the ear region is detected from the image data of the face, and when the ear region can be detected, the information indicating the position of the one eye and the ear The information indicating the orientation of the face may be detected based on the information indicating the position.

本構成によれば、顔の画像データから右目領域又は左目領域の一方の目領域のみを検出した場合、顔の画像データから耳領域が検出され、前記一方の目領域に含まれる一方の目の位置を示す情報と、当該検出された耳領域に含まれる耳の位置を示す情報とに基づいて、顔の向きを示す情報が検出される。これにより、本構成は、顔画像から片方の目しか検出できない場合であっても、両目の位置関係に代えて、片目と耳の位置関係に基づいて、顔の向きを精度よく検出することができる。 According to this configuration, when only one eye region of the right eye region or the left eye region is detected from the face image data, the ear region is detected from the face image data, and one eye included in the one eye region is detected. Information indicating the orientation of the face is detected based on the information indicating the position and the information indicating the position of the ear included in the detected ear region. As a result, even if only one eye can be detected from the face image, the present configuration can accurately detect the orientation of the face based on the positional relationship between one eye and the ear instead of the positional relationship between both eyes. it can.

上記態様において、前記耳領域を検出できなかった場合、前記顔の画像データから前記髪領域を検出し、前記一方の目の位置を示す情報と前記髪の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, when the ear region cannot be detected, the hair region is detected from the image data of the face, and the hair region is detected based on the information indicating the position of the one eye and the information indicating the position of the hair. Information indicating the orientation of the face may be detected.

本構成によれば、顔の画像データから右目領域又は左目領域の一方の目領域のみを検出した場合、顔の画像データから髪領域が検出され、前記一方の目領域に含まれる一方の目の位置を示す情報と、当該検出された髪領域に含まれる髪の位置を示す情報とに基づいて、顔の向きを示す情報が検出される。これにより、本構成は、顔画像から片方の目しか検出できない場合であっても、両目の位置関係に代えて、片目と髪の位置関係に基づいて、顔の向きを精度よく検出することができる。 According to this configuration, when only one eye region of the right eye region or the left eye region is detected from the face image data, the hair region is detected from the face image data, and one eye included in the one eye region is detected. Information indicating the orientation of the face is detected based on the information indicating the position and the information indicating the position of the hair included in the detected hair area. As a result, even if only one eye can be detected from the face image, the present configuration can accurately detect the orientation of the face based on the positional relationship between one eye and the hair instead of the positional relationship between both eyes. it can.

上記態様において、前記顔の画像データと前記一方の目の位置を示す情報とに基づいて、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する前記顔の輪郭線上の点を示す輪郭点を検出し、前記一方の目の位置から前記輪郭点までの第一距離と、前記一方の目の位置から前記耳の位置までの第二距離と、に基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, based on the image data of the face and the information indicating the position of the one eye, on the contour line of the face existing on the inner side of the eye of the one eye with respect to the position of the outer corner of the eye of the one eye. A contour point indicating a point is detected, and the face is based on the first distance from the position of the one eye to the contour point and the second distance from the position of the one eye to the position of the ear. Information indicating the direction of is may be detected.

本構成によれば、前記一方の目の位置から、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する顔の輪郭線上の点を示す輪郭点までの第一距離と、前記一方の目の位置から耳の位置までの第二距離とに基づいて、顔の向きを示す情報が検出される。これにより、本構成は、第一距離が示す、検出された片目よりも目頭側の顔の幅と、第二距離が示す、検出された片目よりも耳側、すなわち、目尻側の顔の幅とに基づいて、顔の向きを精度よく検出することができる。 According to this configuration, the first distance from the position of the one eye to the contour point indicating a point on the contour line of the face existing on the inner side of the eye of the one eye rather than the position of the outer corner of the eye of the one eye. , Information indicating the orientation of the face is detected based on the second distance from the position of one eye to the position of the ear. As a result, in this configuration, the width of the face on the inner side of the eye from the detected one eye, which is indicated by the first distance, and the width of the face on the ear side, that is, the outer side of the eye, which is indicated by the second distance. Based on the above, the orientation of the face can be detected accurately.

上記態様において、前記顔の画像データと前記一方の目の位置を示す情報とに基づいて、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する前記顔の輪郭線上の点を示す輪郭点を検出し、前記一方の目の位置から前記輪郭点までの第一距離と、前記一方の目の位置から、前記一方の目の目頭の位置よりも目尻側に位置する前記髪領域内の点までの第三距離と、に基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, based on the image data of the face and the information indicating the position of the one eye, on the contour line of the face existing on the inner side of the eye of the one eye with respect to the position of the outer corner of the eye of the one eye. The contour point indicating a point is detected, and the first distance from the position of the one eye to the contour point and the position of the one eye are located closer to the outer corner of the eye than the position of the inner corner of the one eye. Information indicating the orientation of the face may be detected based on the third distance to the point in the hair area.

本構成によれば、前記一方の目の位置から、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する顔の輪郭線上の点を示す輪郭点までの第一距離と、前記一方の目の位置から、前記一方の目の目頭の位置よりも目尻側に位置する髪領域内の点までの第三距離と、に基づいて、顔の向きを示す情報が検出される。これにより、本構成は、第一距離が示す、検出された片目よりも目頭側の顔の幅と、第三距離が示す、検出された片目よりも目尻側の顔の幅とに基づいて、顔の向きを精度よく検出することができる。 According to this configuration, the first distance from the position of the one eye to the contour point indicating a point on the contour line of the face existing on the inner side of the eye of the one eye rather than the position of the outer corner of the eye of the one eye. , Information indicating the orientation of the face is detected based on the third distance from the position of the one eye to the point in the hair region located on the outer corner side of the eye with respect to the position of the inner corner of the eye. .. Thereby, this configuration is based on the width of the face on the inner side of the eye than the detected one eye indicated by the first distance and the width of the face on the outer corner of the eye than the detected one eye indicated by the third distance. The orientation of the face can be detected accurately.

上記態様において、前記右目領域及び前記左目領域を検出した場合、前記顔の画像データから前記顔の向きを示す情報を検出し、前記右目領域に含まれる右目の位置及び前記左目領域に含まれる左目の位置を示す情報と前記顔の向きを示す情報とに基づいて、前記人の視線を示す情報を検出してもよい。 In the above aspect, when the right eye region and the left eye region are detected, information indicating the orientation of the face is detected from the image data of the face, and the position of the right eye included in the right eye region and the left eye included in the left eye region are detected. Information indicating the line of sight of the person may be detected based on the information indicating the position of the person and the information indicating the direction of the face.

本構成によれば、顔の画像データから右目領域及び左目領域を検出した場合、顔の画像データから顔の向きを示す情報が検出される。そして、当該検出された顔の向きを示す情報と両目の位置を示す情報とに基づいて、人の視線を示す情報が検出される。これにより、本構成は、顔画像から両目を検出できる場合には、顔の画像データから得られる両目の位置と顔の向きとから、視線を検出することができる。 According to this configuration, when the right eye region and the left eye region are detected from the face image data, the information indicating the direction of the face is detected from the face image data. Then, based on the detected information indicating the orientation of the face and the information indicating the positions of both eyes, the information indicating the line of sight of the person is detected. Thereby, in the present configuration, when both eyes can be detected from the face image, the line of sight can be detected from the positions of both eyes and the direction of the face obtained from the image data of the face.

本開示の第二の態様に係る視線検出方法は、視線検出装置における視線検出方法であって、人の顔の画像データを取得し、前記顔の画像データから前記人の左目を含む左目領域及び前記人の右目を含む右目領域を検出し、前記右目領域及び前記左目領域を検出した場合、前記顔の画像データから前記顔の向きを示す情報を検出し、前記右目領域に含まれる右目の位置を示す情報及び前記左目領域に含まれる左目の位置を示す情報と前記顔の向きを示す情報とを用いた第一の処理により前記人の視線を示す情報を検出し、前記右目領域又は前記左目領域の一方の目領域のみを検出した場合、前記一方の目領域に含まれる一方の目の位置を示す情報と前記顔における目と異なる部位の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出し、前記一方の目の位置を示す情報と前記顔の向きを示す情報とを用いた第二の処理により前記人の視線を示す情報を検出する。 The line-of-sight detection method according to the second aspect of the present disclosure is a line-of-sight detection method in a line-of-sight detection device, which acquires image data of a person's face, and from the image data of the face, a left eye region including the left eye of the person and When the right eye region including the right eye of the person is detected and the right eye region and the left eye region are detected, information indicating the orientation of the face is detected from the image data of the face, and the position of the right eye included in the right eye region is detected. The information indicating the line of sight of the person is detected by the first processing using the information indicating the left eye, the information indicating the position of the left eye included in the left eye region, and the information indicating the orientation of the face, and the right eye region or the left eye. When only one eye region of the region is detected, the orientation of the face is based on the information indicating the position of one eye included in the one eye region and the information indicating the position of a portion of the face different from the eyes. The information indicating the line of sight of the person is detected by a second process using the information indicating the position of one eye and the information indicating the direction of the face.

本構成によれば、顔の画像データから右目領域及び左目領域を検出した場合、顔の画像データから顔の向きを示す情報が検出される。そして、当該検出された顔の向きを示す情報と両目の位置を示す情報とを用いた第一の処理により、人の視線を示す情報が検出される。これにより、本構成は、顔画像から両目を検出できる場合には、第一の処理を行うことで、両目の位置と顔の向きとから、視線を検出することができる。 According to this configuration, when the right eye region and the left eye region are detected from the face image data, the information indicating the direction of the face is detected from the face image data. Then, the information indicating the line of sight of a person is detected by the first process using the detected information indicating the orientation of the face and the information indicating the positions of both eyes. As a result, when both eyes can be detected from the face image, the present configuration can detect the line of sight from the positions of both eyes and the orientation of the face by performing the first process.

一方、顔の画像データから右目領域又は左目領域の一方の目領域のみを検出した場合、前記一方の目領域に含まれる一方の目の位置を示す情報と、顔における目とは異なる部位の位置を示す情報と、に基づいて、顔の向きを示す情報が検出される。そして、当該検出された顔の向きを示す情報と前記一方の目の位置を示す情報とを用いた第二の処理により、人の視線を示す情報が検出される。これにより、本構成は、顔画像から片方の目しか検出できない場合には、目とは異なる部位と検出された片目との位置関係に基づいて顔の向きを検出し、第二の処理を行うことで、検出された片目の位置と当該検出された顔の向きとから、視線を検出することができる。 On the other hand, when only one eye region of the right eye region or the left eye region is detected from the image data of the face, the information indicating the position of one eye included in the one eye region and the position of the portion different from the eyes on the face Based on the information indicating the direction of the face, the information indicating the orientation of the face is detected. Then, the information indicating the line of sight of a person is detected by the second process using the detected information indicating the orientation of the face and the information indicating the position of one of the eyes. As a result, when only one eye can be detected from the face image, the present configuration detects the orientation of the face based on the positional relationship between the part different from the eye and the detected one eye, and performs the second process. Therefore, the line of sight can be detected from the detected position of one eye and the detected orientation of the face.

このように、本構成は、顔画像から検出される目の数に応じて処理を切り替えて、適切に視線を検出することができる。 As described above, in this configuration, the process can be switched according to the number of eyes detected from the face image, and the line of sight can be appropriately detected.

上記態様において、前記異なる部位は、耳又は髪であってもよい。 In the above embodiment, the different part may be an ear or hair.

本構成によれば、顔の画像データから右目領域又は左目領域の一方の目領域のみを検出した場合、前記一方の目領域に含まれる一方の目の位置を示す情報と、耳又は髪の位置を示す情報とに基づいて、顔の向きを示す情報が検出される。これにより、本構成は、顔画像から片方の目しか検出できない場合であっても、検出された片目と耳又は髪との位置関係に基づいて、顔の向きを精度よく検出することができる。 According to this configuration, when only one eye region of the right eye region or the left eye region is detected from the image data of the face, the information indicating the position of one eye included in the one eye region and the position of the ear or hair Information indicating the orientation of the face is detected based on the information indicating the orientation of the face. As a result, the present configuration can accurately detect the orientation of the face based on the positional relationship between the detected one eye and the ear or hair even when only one eye can be detected from the face image.

上記態様において、前記一方の目領域のみを検出した場合、前記顔の画像データから前記人の耳を含む耳領域を検出し、前記耳領域を検出できた場合、前記一方の目の位置を示す情報と前記耳領域に含まれる耳の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, when only the one eye region is detected, the ear region including the human ear is detected from the image data of the face, and when the ear region can be detected, the position of the one eye is indicated. The information indicating the orientation of the face may be detected based on the information and the information indicating the position of the ear included in the ear region.

本構成によれば、顔の画像データから右目領域又は左目領域の一方の目領域のみを検出した場合、顔の画像データから耳領域が検出され、前記一方の目領域に含まれる一方の目の位置を示す情報と、当該検出された耳領域に含まれる耳の位置を示す情報とに基づいて、顔の向きを示す情報が検出される。これにより、本構成は、顔画像から片方の目しか検出できない場合であっても、両目の位置関係に代えて、片目と耳の位置関係に基づいて、顔の向きを精度よく検出することができる。 According to this configuration, when only one eye region of the right eye region or the left eye region is detected from the face image data, the ear region is detected from the face image data, and one eye included in the one eye region is detected. Information indicating the orientation of the face is detected based on the information indicating the position and the information indicating the position of the ear included in the detected ear region. As a result, even if only one eye can be detected from the face image, the present configuration can accurately detect the orientation of the face based on the positional relationship between one eye and the ear instead of the positional relationship between both eyes. it can.

上記態様において、前記耳領域を検出できなかった場合、前記顔の画像データから前記人の髪を含む髪領域を検出し、前記一方の目の位置を示す情報と前記髪領域に含まれる髪の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, when the ear region cannot be detected, the hair region including the human hair is detected from the image data of the face, and the information indicating the position of the one eye and the hair included in the hair region are detected. The information indicating the orientation of the face may be detected based on the information indicating the position.

本構成によれば、顔の画像データから右目領域又は左目領域の一方の目領域のみを検出した場合、顔の画像データから髪領域が検出され、前記一方の目領域に含まれる一方の目の位置を示す情報と、当該検出された髪領域に含まれる髪の位置を示す情報とに基づいて、顔の向きを示す情報が検出される。これにより、本構成は、顔画像から片方の目しか検出できない場合であっても、両目の位置関係に代えて、片目と髪の位置関係に基づいて、顔の向きを精度よく検出することができる。 According to this configuration, when only one eye region of the right eye region or the left eye region is detected from the face image data, the hair region is detected from the face image data, and one eye included in the one eye region is detected. Information indicating the orientation of the face is detected based on the information indicating the position and the information indicating the position of the hair included in the detected hair area. As a result, even if only one eye can be detected from the face image, the present configuration can accurately detect the orientation of the face based on the positional relationship between one eye and the hair instead of the positional relationship between both eyes. it can.

上記態様において、前記顔の画像データと前記一方の目の位置を示す情報とに基づいて、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する前記顔の輪郭線上の点を示す輪郭点を検出し、前記一方の目の位置から前記輪郭点までの第一距離と前記一方の目の位置から前記耳の位置までの第二距離とに基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, based on the image data of the face and the information indicating the position of the one eye, on the contour line of the face existing on the inner side of the eye of the one eye with respect to the position of the outer corner of the eye of the one eye. A contour point indicating a point is detected, and the orientation of the face is based on the first distance from the position of the one eye to the contour point and the second distance from the position of the one eye to the position of the ear. Information indicating that may be detected.

本構成によれば、前記一方の目の位置から、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する顔の輪郭線上の点を示す輪郭点までの第一距離と、前記一方の目の位置から耳の位置までの第二距離とに基づいて、顔の向きを示す情報が検出される。これにより、本構成は、第一距離が示す、検出された片目よりも目頭側の顔の幅と、第二距離が示す、検出された片目よりも耳側、すなわち、目尻側の顔の幅とに基づいて、顔の向きを精度よく検出することができる。 According to this configuration, the first distance from the position of the one eye to the contour point indicating a point on the contour line of the face existing on the inner side of the eye of the one eye rather than the position of the outer corner of the eye of the one eye. , Information indicating the orientation of the face is detected based on the second distance from the position of one eye to the position of the ear. As a result, in this configuration, the width of the face on the inner side of the eye from the detected one eye, which is indicated by the first distance, and the width of the face on the ear side, that is, the outer side of the eye, which is indicated by the second distance. Based on the above, the orientation of the face can be detected accurately.

上記態様において、前記顔の画像データと前記一方の目の位置を示す情報とに基づいて、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する前記顔の輪郭線上の点を示す輪郭点を検出し、前記一方の目の位置から前記輪郭点までの第一距離と、前記一方の目の位置から、前記一方の目の目頭の位置よりも目尻側に位置する前記髪領域内の点までの第三距離と、に基づいて、前記顔の向きを示す情報を検出してもよい。 In the above aspect, based on the image data of the face and the information indicating the position of the one eye, on the contour line of the face existing on the inner side of the eye of the one eye with respect to the position of the outer corner of the eye of the one eye. The contour point indicating a point is detected, and the first distance from the position of the one eye to the contour point and the position of the one eye are located closer to the outer corner of the eye than the position of the inner corner of the one eye. Information indicating the orientation of the face may be detected based on the third distance to the point in the hair area.

本構成によれば、前記一方の目の位置から、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する顔の輪郭線上の点を示す輪郭点までの第一距離と、前記一方の目の位置から、前記一方の目の目頭の位置よりも目尻側に位置する髪領域内の点までの第三距離と、に基づいて、顔の向きを示す情報が検出される。これにより、本構成は、第一距離が示す、検出された片目よりも目頭側の顔の幅と、第三距離が示す、検出された片目よりも目尻側の顔の幅とに基づいて、顔の向きを精度よく検出することができる。 According to this configuration, the first distance from the position of the one eye to the contour point indicating a point on the contour line of the face existing on the inner side of the eye of the one eye rather than the position of the outer corner of the eye of the one eye. , Information indicating the orientation of the face is detected based on the third distance from the position of the one eye to the point in the hair region located on the outer corner side of the eye with respect to the position of the inner corner of the eye. .. Thereby, this configuration is based on the width of the face on the inner side of the eye than the detected one eye indicated by the first distance and the width of the face on the outer corner of the eye than the detected one eye indicated by the third distance. The orientation of the face can be detected accurately.

本開示は、このような視線検出方法に含まれる特徴的な各構成をコンピュータに実行させる制御プログラム、或いはこの制御プログラムによって動作する視線検出装置として実現することもできる。また、このような制御プログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。 The present disclosure can also be realized as a control program that causes a computer to execute each characteristic configuration included in such a line-of-sight detection method, or as a line-of-sight detection device that operates by this control program. Needless to say, such a control program can be distributed via a computer-readable non-temporary recording medium such as a CD-ROM or a communication network such as the Internet.

尚、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、全ての実施の形態において、各々の内容を組み合わせることもできる。 It should be noted that all of the embodiments described below show a specific example of the present disclosure. The numerical values, shapes, components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept are described as arbitrary components. Moreover, in all the embodiments, each content can be combined.

(実施の形態1)
図1は、本開示の実施の形態1に係る画像処理システム1の全体構成の一例を示す図である。画像処理システム1は、人物400を撮影し、得られた人物400の画像データから人物400の視線を示す視線情報を検出するシステムである。図1の例では、画像処理システム1は、表示装置300に表示された複数のオブジェクト301のうち、どのオブジェクト301を人物400が注視しているかを特定している。但し、これは一例であり、画像処理システム1は、表示装置300の表示画面上に表示されたオブジェクト301のみならず、実空間内において人物400が注視するオブジェクト301を特定してもよい。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the overall configuration of the image processing system 1 according to the first embodiment of the present disclosure. The image processing system 1 is a system that photographs a person 400 and detects line-of-sight information indicating the line-of-sight of the person 400 from the obtained image data of the person 400. In the example of FIG. 1, the image processing system 1 specifies which object 301 the person 400 is gazing at among the plurality of objects 301 displayed on the display device 300. However, this is an example, and the image processing system 1 may specify not only the object 301 displayed on the display screen of the display device 300 but also the object 301 that the person 400 gazes at in the real space.

図1の例では、画像処理システム1はデジタルサイネージシステムに適用されている。したがって、表示装置300に表示されるオブジェクト301は、広告等のサイネージの画像となる。 In the example of FIG. 1, the image processing system 1 is applied to a digital signage system. Therefore, the object 301 displayed on the display device 300 becomes an image of signage such as an advertisement.

画像処理システム1は、画像処理装置100、カメラ200、及び表示装置300を含む。画像処理装置100は、カメラ200及び表示装置300と所定の通信路を介して接続されている。所定の通信路は、例えば、有線LAN等の有線の通信路、又は無線LAN及びブルートゥース(登録商標)等の無線の通信路である。画像処理装置100は、例えば表示装置300の周囲に設置されたコンピュータで構成されている。但し、これは一例であり、画像処理装置100は、クラウドサーバで構成されてもよい。この場合、画像処理装置100は、カメラ200及び表示装置300とインターネットを介して接続される。画像処理装置100は、カメラ200で撮像された人物400の画像データから、人物400の視線情報を検出し、表示装置300に出力する。また、画像処理装置100は、カメラ200又は表示装置300にハードウェアとして組み込まれてもよい。また、カメラ200又は表示装置300がプロセッサを備え、画像処理装置100がソフトウェアとして組み込まれていてもよい。 The image processing system 1 includes an image processing device 100, a camera 200, and a display device 300. The image processing device 100 is connected to the camera 200 and the display device 300 via a predetermined communication path. The predetermined communication path is, for example, a wired communication path such as a wired LAN, or a wireless communication path such as a wireless LAN and Bluetooth (registered trademark). The image processing device 100 is composed of, for example, a computer installed around the display device 300. However, this is an example, and the image processing device 100 may be configured by a cloud server. In this case, the image processing device 100 is connected to the camera 200 and the display device 300 via the Internet. The image processing device 100 detects the line-of-sight information of the person 400 from the image data of the person 400 captured by the camera 200 and outputs the information to the display device 300. Further, the image processing device 100 may be incorporated as hardware in the camera 200 or the display device 300. Further, the camera 200 or the display device 300 may include a processor, and the image processing device 100 may be incorporated as software.

カメラ200は、例えば所定のフレームレートで表示装置300の周囲の環境を撮影することにより、表示装置300の周囲に位置する人物400の画像データを取得する。カメラ200は、取得した画像データを所定のフレームレートで順次に画像処理装置100に出力する。カメラ200は、可視光カメラであってもよいし、赤外光カメラであってもよい。また、カメラ200は、例えば、表示装置300又はスマートフォン等の電子機器が機能的に備える可視光カメラ又は赤外光カメラであってもよい。 The camera 200 acquires image data of a person 400 located around the display device 300, for example, by photographing the environment around the display device 300 at a predetermined frame rate. The camera 200 sequentially outputs the acquired image data to the image processing device 100 at a predetermined frame rate. The camera 200 may be a visible light camera or an infrared light camera. Further, the camera 200 may be, for example, a visible light camera or an infrared light camera functionally provided in an electronic device such as a display device 300 or a smartphone.

表示装置300は、例えば液晶パネル又は有機ELパネル等の表示装置で構成されている。図1の例では、表示装置300は、サイネージディスプレイである。尚、図1の例では、画像処理システム1は、表示装置300を含むとして説明したが、これは一例であり、表示装置300に代えて、別の機器が採用されてもよい。例えば、画像処理システム1が視線により機器への入力を受け付けるユーザインターフェースとして利用されるのであれば、画像処理システム1は例えば表示装置300に代えて、冷蔵庫、テレビ、及び洗濯機等の家電機器が採用されてもよい。例えば、画像処理システム1が車両に搭載されるのであれば、表示装置300に代えて、自動車等の車両が採用されてもよい。この場合、カメラ200は、家電機器又は車両等が機能的に備える可視光カメラ又は赤外光カメラであってもよい。更に、表示装置300に代えてハードディスクドライブ、ソリッドステートドライブ等の記憶装置が採用されてもよい。 The display device 300 is composed of a display device such as a liquid crystal panel or an organic EL panel. In the example of FIG. 1, the display device 300 is a signage display. In the example of FIG. 1, the image processing system 1 has been described as including the display device 300, but this is an example, and another device may be adopted instead of the display device 300. For example, if the image processing system 1 is used as a user interface that accepts input to the device by the line of sight, the image processing system 1 may be replaced with, for example, the display device 300 by a home appliance such as a refrigerator, a television, and a washing machine. It may be adopted. For example, if the image processing system 1 is mounted on a vehicle, a vehicle such as an automobile may be adopted instead of the display device 300. In this case, the camera 200 may be a visible light camera or an infrared light camera functionally provided in a home electric appliance, a vehicle, or the like. Further, a storage device such as a hard disk drive or a solid state drive may be adopted instead of the display device 300.

図2は、実施の形態1に係る画像処理システム1の詳細な構成の一例を示すブロック図である。画像処理装置100は、プロセッサ110を含む。プロセッサ110は、CPU、FPGA等の電気回路である。プロセッサ110は、視線検出装置120及び出力部130を含む。 FIG. 2 is a block diagram showing an example of a detailed configuration of the image processing system 1 according to the first embodiment. The image processing device 100 includes a processor 110. The processor 110 is an electric circuit such as a CPU and an FPGA. The processor 110 includes a line-of-sight detection device 120 and an output unit 130.

視線検出装置120は、画像取得部121、目検出部122、両目視線検出部123、及び片目視線検出部124を含む。尚、プロセッサ110が備える各ブロックは、プロセッサ110がコンピュータを画像処理装置として機能させる制御プログラムを実行することで実現されてもよいし、専用の電気回路で構成されてもよい。 The line-of-sight detection device 120 includes an image acquisition unit 121, an eye detection unit 122, both visual line detection units 123, and a single visual line detection unit 124. Each block included in the processor 110 may be realized by the processor 110 executing a control program that causes the computer to function as an image processing device, or may be configured by a dedicated electric circuit.

画像取得部121は、カメラ200が撮像した画像データを取得する。ここで、取得される画像データには、表示装置300の周囲の人物400(人の一例)の顔が含まれる。尚、画像取得部121が取得する画像データは、例えばウェブサイトに掲載された画像データであってもよいし、外部の記憶装置が記憶する画像データであってもよい。 The image acquisition unit 121 acquires the image data captured by the camera 200. Here, the acquired image data includes the faces of a person 400 (an example of a person) around the display device 300. The image data acquired by the image acquisition unit 121 may be, for example, image data posted on a website or image data stored by an external storage device.

目検出部122は、画像取得部121が取得した画像データから人物400の左目を含む左目領域及び人物400の右目を含む右目領域を検出する。以降、左目領域及び右目領域を総称する場合、目領域と記載する。詳細には、目検出部122は、目領域を検出するために予め作成された分類器を用いて目領域を検出すればよい。ここで用いられる分類器は、例えばオープンソースによる画像処理ライブラリにおいて目領域を検出するために予め作成されたハール(Haar)状のカスケード分類器である。 The eye detection unit 122 detects a left eye region including the left eye of the person 400 and a right eye region including the right eye of the person 400 from the image data acquired by the image acquisition unit 121. Hereinafter, when the left eye area and the right eye area are collectively referred to, they are referred to as an eye area. Specifically, the eye detection unit 122 may detect the eye region using a classifier created in advance to detect the eye region. The classifier used here is, for example, a Haar-shaped cascade classifier created in advance for detecting an eye region in an open source image processing library.

目領域は、目の大きさに所定のマージンを加えた程度のサイズを持つ矩形状の領域である。但し、これは一例であり、目領域の形状は矩形以外の、例えば、3角形、5角形、6角形、又は8角形等であってもよい。また、目領域の境界を目に対してどの位置に設定するのかは分類器の性能に依存する。 The eye area is a rectangular area having a size obtained by adding a predetermined margin to the size of the eyes. However, this is an example, and the shape of the eye region may be other than a rectangle, for example, a triangle, a pentagon, a hexagon, an octagon, or the like. In addition, the position where the boundary of the eye region is set with respect to the eye depends on the performance of the classifier.

図3は、右目領域50R及び左目領域50Lの一例を示す図である。図3に示すように、本実施の形態において、目とは、上瞼の境界53と下瞼の境界54とによって取り囲まれる、白目と、黒目等の有色の部分とを含む領域を指す。瞳とは、図3に示すように、瞳孔55と、瞳孔55を取り囲むドーナツ状の虹彩56とを含む有色の部分を指す。また、本実施の形態では、説明の便宜上、右目とは人物400を正面から見て右側にある目のことを指し、左目とは人物400を正面から見て左側にある目のことを指す。図3は、目検出部122が、右目を含む右目領域50R及び左目を含む左目領域50Lを検出した例を示している。但し、これは一例であり、人物400から見て右側にある目を右目、人物400から見て左側にある目を左目としてもよい。また、本実施の形態では、紙面の右側の方向を右方、紙面の左側の方向を左方とする。 FIG. 3 is a diagram showing an example of a right eye region 50R and a left eye region 50L. As shown in FIG. 3, in the present embodiment, the eye refers to a region including a white eye and a colored portion such as a black eye, which is surrounded by the boundary 53 of the upper eyelid and the boundary 54 of the lower eyelid. As shown in FIG. 3, the pupil refers to a colored portion including the pupil 55 and the donut-shaped iris 56 surrounding the pupil 55. Further, in the present embodiment, for convenience of explanation, the right eye refers to the eye on the right side when the person 400 is viewed from the front, and the left eye refers to the eye on the left side when the person 400 is viewed from the front. FIG. 3 shows an example in which the eye detection unit 122 detects the right eye region 50R including the right eye and the left eye region 50L including the left eye. However, this is an example, and the eye on the right side when viewed from the person 400 may be the right eye, and the eye on the left side when viewed from the person 400 may be the left eye. Further, in the present embodiment, the right side direction of the paper surface is the right side, and the left side direction of the paper surface is the left side.

両目視線検出部123は、目検出部122が右目領域50R及び左目領域50Lを検出した場合、画像取得部121が取得した画像データから、人物400の顔の向きを示す情報(以降、顔向き情報)を検出する。そして、両目視線検出部123は、右目領域50Rに含まれる右目の位置を示す情報及び左目領域50Lに含まれる左目の位置を示す情報と、検出した顔向き情報とを用いた第一の処理により、人物400の視線を示す情報(以降、視線情報)を検出する。 When the eye detection unit 122 detects the right eye region 50R and the left eye region 50L, both visual line detection units 123 provide information indicating the face orientation of the person 400 from the image data acquired by the image acquisition unit 121 (hereinafter, face orientation information). ) Is detected. Then, both visual line detection units 123 perform the first processing using the information indicating the position of the right eye included in the right eye region 50R, the information indicating the position of the left eye included in the left eye region 50L, and the detected face orientation information. , Information indicating the line of sight of the person 400 (hereinafter referred to as line-of-sight information) is detected.

具体的には、両目視線検出部123が行う顔向き情報の検出及び第一の処理には、3次元眼球モデルにより視線を検出する公知の視線検出処理を適用すればよい。両目視線検出部123は、顔向き情報の検出に適用する公知の視線検出処理に応じて、画像取得部121が取得した画像データから、顔向き情報を検出すればよい。顔向き情報には、例えば、カメラ200の光軸に対する顔の正面方向を示す角度等が含まれる。また、両目視線検出部123は、第一の処理として適用する公知の視線検出処理に応じて、目検出部122が検出した右目領域50R及び左目領域50Lから、右目及び左目の位置を示す情報を取得すればよい。右目の位置を示す情報には、例えば、右目の瞳、右目の瞳孔、右目の目頭、右目の目尻及び右目の重心の位置等が含まれる。同様に、左目の位置を示す情報には、例えば、左目の瞳、左目の瞳孔、左目の目頭、左目の目尻及び左目の重心の位置等が含まれる。 Specifically, a known line-of-sight detection process for detecting the line-of-sight by a three-dimensional eyeball model may be applied to the detection of face orientation information and the first process performed by both line-of-sight detection units 123. Both visual line detection units 123 may detect face orientation information from the image data acquired by the image acquisition unit 121 according to a known line-of-sight detection process applied to the detection of face orientation information. The face orientation information includes, for example, an angle indicating the front direction of the face with respect to the optical axis of the camera 200. Further, both visual line detection units 123 provide information indicating the positions of the right eye and the left eye from the right eye region 50R and the left eye region 50L detected by the eye detection unit 122 according to the known eye line detection process applied as the first process. You just have to get it. The information indicating the position of the right eye includes, for example, the positions of the pupil of the right eye, the pupil of the right eye, the inner corner of the right eye, the outer corner of the right eye, and the center of gravity of the right eye. Similarly, the information indicating the position of the left eye includes, for example, the positions of the pupil of the left eye, the pupil of the left eye, the inner corner of the left eye, the outer corner of the left eye, and the center of gravity of the left eye.

視線情報には、人物400の視線の方向を3次元的に示すベクトルが含まれてもよいし、所定の対象面(例えば表示装置300)における注視点の座標データが含まれてもよい。注視点は、例えば対象面と視線を示すベクトルとが交差する位置である。 The line-of-sight information may include a vector that three-dimensionally indicates the direction of the line of sight of the person 400, or may include coordinate data of the gazing point on a predetermined target surface (for example, the display device 300). The gazing point is, for example, a position where the target surface and the vector indicating the line of sight intersect.

片目視線検出部124は、目検出部122が右目領域50R又は左目領域50Lの一方の目領域50のみを検出した場合、前記一方の目領域50に含まれる一方の目の位置を示す情報と人物400の顔における目と異なる部位の位置を示す情報とに基づいて、顔向き情報を検出する。そして、片目視線検出部124は、前記一方の目の位置を示す情報と、検出した顔向き情報とを用いた第二の処理により、視線情報を検出する。尚、目と異なる部位には、例えば、耳又は髪等が含まれる。片目視線検出部124の詳細は、後述する。 When the eye detection unit 122 detects only one eye area 50 of the right eye area 50R or the left eye area 50L, the one-sided visual line detection unit 124 indicates information indicating the position of one eye included in the one eye area 50 and a person. Face orientation information is detected based on information indicating the position of a portion different from the eyes on the face of 400. Then, the one-sided visual line detection unit 124 detects the line-of-sight information by a second process using the information indicating the position of the one eye and the detected face orientation information. The portion different from the eyes includes, for example, ears or hair. Details of the one-sided visual line detection unit 124 will be described later.

出力部130は、両目視線検出部123及び片目視線検出部124によって検出された視線情報を表示装置300に出力する。出力部130は、表示装置300で表示されているオブジェクト301の情報を取得し、取得した情報と注視点の座標データとから人物400が注視するオブジェクト301(以降、注視オブジェクト)を特定し、特定結果を表示装置300に出力してもよい。 The output unit 130 outputs the line-of-sight information detected by both the line-of-sight detection units 123 and the one-sided line-of-sight detection unit 124 to the display device 300. The output unit 130 acquires the information of the object 301 displayed on the display device 300, identifies the object 301 (hereinafter referred to as the gaze object) to be gazed by the person 400 from the acquired information and the coordinate data of the gazing point, and identifies the object 301. The result may be output to the display device 300.

カメラ200は、図1で説明したため、ここでは説明を省略する。 Since the camera 200 has been described with reference to FIG. 1, the description thereof will be omitted here.

表示装置300は、例えば出力部130から出力された視線情報を示すマーカーを表示する。表示装置300は、例えば出力部130から出力された人物400が注視するオブジェクト301を示すマーカーを表示してもよい。 The display device 300 displays, for example, a marker indicating line-of-sight information output from the output unit 130. The display device 300 may display, for example, a marker indicating an object 301 to be watched by the person 400 output from the output unit 130.

例えば、表示装置300に対して、視線情報として注視点の座標データが出力されたとする。この場合、表示装置300は、座標データに対応する位置に、視線位置を示すマーカーを表示中の画像に重畳して表示させるといった処理を行う。例えば、表示装置300に対して、注視オブジェクトの特定結果が出力されたとする。この場合、表示装置300は、注視オブジェクトを示すマーカーを表示中の画面に重畳して表示させるといった処理を行ってもよい。 For example, it is assumed that the coordinate data of the gazing point is output to the display device 300 as the line-of-sight information. In this case, the display device 300 performs a process of superimposing a marker indicating the line-of-sight position on the displayed image and displaying it at a position corresponding to the coordinate data. For example, it is assumed that the specific result of the gaze object is output to the display device 300. In this case, the display device 300 may perform a process of superimposing a marker indicating the gaze object on the screen being displayed and displaying the marker.

尚、画像処理システム1が、表示装置300に代えて家電機器で構成される場合、家電機器は視線情報から人物400の入力を受け付ける。また、画像処理システム1が、表示装置300に代えて記憶装置で構成される場合、記憶装置は、視線情報を記憶する。この場合、記憶装置は視線情報にタイムスタンプを対応付けて記憶してもよい。 When the image processing system 1 is composed of home appliances instead of the display device 300, the home appliances accept the input of the person 400 from the line-of-sight information. Further, when the image processing system 1 is composed of a storage device instead of the display device 300, the storage device stores the line-of-sight information. In this case, the storage device may store the line-of-sight information in association with a time stamp.

次に、片目視線検出部124の詳細について説明する。図4は、片目視線検出部124の詳細な構成の一例を示すブロック図である。図4に示すように、片目視線検出部124は、耳検出部41(部位検出部の一例)、髪検出部42(部位検出部の一例)、顔向き検出部43、及び片側顔視線検出部44(視線検出部の一例)を含む。 Next, the details of the one-sided visual line detection unit 124 will be described. FIG. 4 is a block diagram showing an example of a detailed configuration of the one-sided visual line detection unit 124. As shown in FIG. 4, the one-sided visual line detection unit 124 includes an ear detection unit 41 (an example of a site detection unit), a hair detection unit 42 (an example of a site detection unit), a face orientation detection unit 43, and a one-sided face line-of-sight detection unit. 44 (an example of a line-of-sight detection unit) is included.

耳検出部41は、画像取得部121が取得した画像データから、人物400の右耳を含む右耳領域及び人物400の左耳を含む左耳領域を検出する。詳細には、耳検出部41は、人物400の右耳を含む領域を検出するために予め作成された右耳用分類器を用いて右耳領域を検出し、人物400の左耳を含む領域を検出するために予め作成された左耳用分類器を用いて左耳領域を検出すればよい。ここで用いられる右耳用分類器及び左耳用分類器は、例えばオープンソースによる画像処理ライブラリにおいて右耳領域及び左耳領域のそれぞれを検出するために予め作成されたハール状のカスケード分類器である。以降、右耳領域及び左耳領域を総称する場合、耳領域と記載する。 The ear detection unit 41 detects the right ear region including the right ear of the person 400 and the left ear region including the left ear of the person 400 from the image data acquired by the image acquisition unit 121. Specifically, the ear detection unit 41 detects the right ear region using a right ear classifier created in advance to detect the region including the right ear of the person 400, and the region including the left ear of the person 400. The left ear region may be detected using a pre-made left ear classifier in order to detect. The right-ear and left-ear classifiers used here are, for example, Haar-shaped cascade classifiers created in advance to detect each of the right-ear region and the left-ear region in an open source image processing library. is there. Hereinafter, when the right ear region and the left ear region are collectively referred to, they are referred to as ear regions.

耳領域は、耳の大きさ程度のサイズを持つ矩形状の領域である。但し、これは一例であり、耳領域の形状は矩形以外の、例えば、3角形、5角形、6角形、又は8角形等であってもよい。また、耳領域の境界を耳に対してどの位置に設定するのかは分類器の性能に依存する。 The ear region is a rectangular region having a size about the size of an ear. However, this is an example, and the shape of the ear region may be other than a rectangle, for example, a triangle, a pentagon, a hexagon, an octagon, or the like. In addition, the position where the boundary of the ear region is set with respect to the ear depends on the performance of the classifier.

図5は、耳領域30の一例を示す図である。図5に示すように、本実施の形態において、耳とは、破線31で取り込まれた耳介を示す領域を指す。また、本実施の形態では、説明の便宜上、右耳とは人物400を正面から見て右側にある耳のことを指し、左耳とは人物400を正面から見て左側にある耳のことを指す。図5は、耳検出部41が、右耳用分類器を用いて右耳領域30R(不図示)を検出せずに、左耳用分類器を用いて左耳領域30Lだけを検出した例を示している。但し、これは一例であり、人物400から見て右側にある耳を右耳、人物400から見て左側にある耳を左耳としてもよい。 FIG. 5 is a diagram showing an example of the ear region 30. As shown in FIG. 5, in the present embodiment, the ear refers to the region indicating the pinna taken in by the broken line 31. Further, in the present embodiment, for convenience of explanation, the right ear refers to the ear on the right side when the person 400 is viewed from the front, and the left ear refers to the ear on the left side when the person 400 is viewed from the front. Point to. FIG. 5 shows an example in which the ear detection unit 41 detects only the left ear region 30L using the left ear classifier without detecting the right ear region 30R (not shown) using the right ear classifier. Shown. However, this is an example, and the ear on the right side when viewed from the person 400 may be the right ear, and the ear on the left side when viewed from the person 400 may be the left ear.

髪検出部42は、画像取得部121が取得した画像データから、人物400の髪を含む髪領域を検出する。以下、髪領域が検出される処理の詳細について説明する。 The hair detection unit 42 detects a hair region including the hair of the person 400 from the image data acquired by the image acquisition unit 121. Hereinafter, the details of the process for detecting the hair region will be described.

まず、髪検出部42は、画像取得部121が取得した画像データから、人物400の顔の少なくとも一部を含む顔領域を検出する。詳細には、髪検出部42は、顔領域を検出するために予め作成された分類器を用いて顔領域を検出すればよい。ここで用いられる分類器は、例えばオープンソースによる画像処理ライブラリにおいて顔領域を検出するために予め作成されたハール状のカスケード分類器である。 First, the hair detection unit 42 detects a face region including at least a part of the face of the person 400 from the image data acquired by the image acquisition unit 121. Specifically, the hair detection unit 42 may detect the face region using a classifier created in advance to detect the face region. The classifier used here is, for example, a Haar-shaped cascade classifier created in advance for detecting a face region in an open source image processing library.

図6は、顔領域60の一例を示す図である。図6に示すように、顔領域60は、例えば顔の全体を含む程度のサイズを持つ矩形状の領域である。但し、これは一例であり、顔領域60の形状は矩形以外の例えば、3角形、5角形、6角形、又は8角形などであってもよい。また、髪検出部42は、例えば、パターンマッチングにより顔領域60を検出してもよい。 FIG. 6 is a diagram showing an example of the face region 60. As shown in FIG. 6, the face area 60 is, for example, a rectangular area having a size that includes the entire face. However, this is an example, and the shape of the face region 60 may be, for example, a triangle, a pentagon, a hexagon, or an octagon other than a rectangle. Further, the hair detection unit 42 may detect the face region 60 by pattern matching, for example.

次に、髪検出部42は、検出した顔領域60を二値化する。図7は、二値化された顔領域60の一例を示す図である。ここでは、例えば大津の二値化と呼ばれる手法が採用されている。また、輝度が閾値より低い箇所が白、輝度が閾値以上の箇所が黒で表されている。 Next, the hair detection unit 42 binarizes the detected face region 60. FIG. 7 is a diagram showing an example of the binarized face region 60. Here, for example, a method called binarization of Otsu is adopted. Further, the portion where the brightness is lower than the threshold value is represented by white, and the portion where the brightness is higher than the threshold value is represented by black.

次に、髪検出部42は、二値化された顔領域60に現れる白の島にラベリング番号を付与するラベリング処理を行う。図7の例では、髪が1つの島71とみなされ、島71に「1」のラベリング番号が付与されている。また、左目が1つの島72とみなされ、島72に「2」のラベリング番号が付与されている。また、鼻の左孔が1つの島73とみなされ、島73に「3」のラベリング番号が付与されている。また、唇が一つの島74とみなされ、島74に「4」のラベリング番号が付与されている。 Next, the hair detection unit 42 performs a labeling process of assigning a labeling number to the white islands appearing in the binarized face area 60. In the example of FIG. 7, the hair is regarded as one island 71, and the island 71 is given a labeling number of "1". Further, the left eye is regarded as one island 72, and the island 72 is given a labeling number of "2". Further, the left hole of the nose is regarded as one island 73, and the island 73 is given a labeling number of "3". In addition, the lips are regarded as one island 74, and the island 74 is given a labeling number of "4".

そして、髪検出部42は、ラベリングした島のうち、最も大きな面積を有する島を髪領域として検出する。図7の例では、島71が髪領域として検出される。 Then, the hair detection unit 42 detects the island having the largest area among the labeled islands as the hair region. In the example of FIG. 7, the island 71 is detected as a hair region.

顔向き検出部43は、目検出部122によって検出された右目領域50R又は左目領域50Lの一方の目領域50に含まれる一方の目の位置を示す情報と、耳検出部41によって検出された耳領域30に含まれる耳の位置を示す情報又は髪検出部42によって検出された髪領域に含まれる髪の位置を示す情報と、に基づいて、顔向き情報を検出する。顔向き情報には、人物400の顔が右向きであるのか左向きであるのかを示す情報、及び、人物400がカメラ200の光軸に対して左右方向に顔の向きを傾けている度合(以降、顔向き度合)等が含まれる。以下、顔向き情報を検出する処理の詳細について説明する。 The face orientation detection unit 43 includes information indicating the position of one eye included in one eye region 50 of the right eye region 50R or the left eye region 50L detected by the eye detection unit 122, and the ear detected by the ear detection unit 41. The face orientation information is detected based on the information indicating the position of the ears included in the region 30 or the information indicating the position of the hair included in the hair region detected by the hair detecting unit 42. The face orientation information includes information indicating whether the face of the person 400 is facing right or left, and the degree to which the person 400 tilts the face to the left or right with respect to the optical axis of the camera 200 (hereinafter, the face orientation information). Face orientation) etc. are included. Hereinafter, the details of the process of detecting the face orientation information will be described.

顔向き検出部43は、まず、人物400の顔が右向きであるのか、左向きであるのかを判断する。具体的には、耳検出部41によって左耳領域30Lが検出された場合、顔向き検出部43は、人物400が右方を向いていると判断し、顔の向きが右向きであると判断する。一方、耳検出部41によって右耳領域30Rが検出された場合、顔向き検出部43は、人物400が左方を向いていると判断し、顔の向きが左向きであると判断する。図5の例では、耳検出部41が左耳領域30Lを検出したので、顔の向きが右向きであると判定される。 The face orientation detection unit 43 first determines whether the face of the person 400 is facing right or facing left. Specifically, when the left ear region 30L is detected by the ear detection unit 41, the face orientation detection unit 43 determines that the person 400 is facing to the right and determines that the face is facing to the right. .. On the other hand, when the right ear region 30R is detected by the ear detection unit 41, the face orientation detection unit 43 determines that the person 400 is facing left, and determines that the face is facing left. In the example of FIG. 5, since the ear detection unit 41 has detected the left ear region 30L, it is determined that the face is facing right.

尚、耳検出部41が右耳領域30Rと左耳領域30Lとを誤検出する虞がある。当該誤検出を考慮して、顔向き検出部43を以下のように構成してもよい。つまり、耳検出部41による耳領域30の検出後、顔向き検出部43が、髪検出部42と同様に、画像取得部121が取得した画像データから顔領域60を検出するようにしてもよい。そして、顔向き検出部43が、当該検出した顔領域60において、目検出部122によって検出された目領域50の位置が、耳検出部41が検出した耳領域30よりも右側にある場合に、顔の向きが右向きであると判定し、当該目領域50の位置が当該耳領域30よりも左側にある場合に、顔の向きが左向きであると判定するようにしてもよい。 The ear detection unit 41 may erroneously detect the right ear region 30R and the left ear region 30L. In consideration of the false detection, the face orientation detection unit 43 may be configured as follows. That is, after the ear detection unit 41 detects the ear region 30, the face orientation detection unit 43 may detect the face region 60 from the image data acquired by the image acquisition unit 121 in the same manner as the hair detection unit 42. .. Then, when the position of the eye region 50 detected by the eye detection unit 122 in the detected face region 60 by the face orientation detection unit 43 is on the right side of the ear region 30 detected by the ear detection unit 41. It may be determined that the face orientation is rightward, and when the position of the eye region 50 is on the left side of the ear region 30, it may be determined that the face orientation is leftward.

また、顔向き検出部43は、髪検出部42によって髪領域として検出された島の重心の位置が、顔領域60における左半分の領域に存在する場合、人物400が右方を向いていると判断し、顔の向きが右向きであると判断する。一方、髪検出部42によって髪領域として検出された島の重心の位置が、顔領域60における右半分の領域に存在する場合、顔向き検出部43は、人物400が左方を向いていると判断し、顔の向きが左向きであると判断する。図7の例では、髪検出部42によって髪領域として検出された島71の重心の位置P71が、顔領域60における左半分の領域に存在するので、顔の向きが右向きであると判断される。 Further, the face orientation detection unit 43 states that the person 400 is facing to the right when the position of the center of gravity of the island detected as the hair region by the hair detection unit 42 is in the left half region of the face region 60. Judge and judge that the face is facing right. On the other hand, when the position of the center of gravity of the island detected as the hair region by the hair detection unit 42 exists in the right half region of the face region 60, the face orientation detection unit 43 states that the person 400 is facing to the left. Judge and judge that the face is facing left. In the example of FIG. 7, since the position P71 of the center of gravity of the island 71 detected as the hair region by the hair detection unit 42 exists in the left half region of the face region 60, it is determined that the face orientation is to the right. ..

次に、顔向き検出部43は、画像取得部121が取得した画像データと、目検出部122が検出した一方の目領域50に含まれる目の位置を示す情報と、に基づいて、当該目の目尻の位置よりも当該目の目頭側に存在する人物400の顔の輪郭線上の点を示す輪郭点を検出する。以下、顔の向きが右向きであると判断された場合に、輪郭点が検出される処理の詳細について説明する。尚、顔の向きが左向きであると判断された場合に、輪郭点が検出される処理は、顔の向きが右向きであると判断された場合と同様であるので説明を省略する。 Next, the face orientation detection unit 43 is based on the image data acquired by the image acquisition unit 121 and the information indicating the position of the eyes included in one of the eye regions 50 detected by the eye detection unit 122. A contour point indicating a point on the contour line of the face of the person 400 existing on the inner corner side of the eye rather than the position of the outer corner of the eye is detected. Hereinafter, details of the process of detecting the contour point when it is determined that the face direction is rightward will be described. The process of detecting the contour point when the face orientation is determined to be left is the same as that when the face orientation is determined to be right, and thus the description thereof will be omitted.

まず、顔向き検出部43は、髪検出部42と同様にして、画像取得部121が取得した画像データから顔領域60を検出して二値化する。次に、顔向き検出部43は、二値化した顔領域60に現れる白の島にラベリング番号を付与するラベリング処理を行う。図8は、二値化された顔領域60の他の一例を示す図である。 First, the face orientation detection unit 43 detects the face region 60 from the image data acquired by the image acquisition unit 121 and binarizes it in the same manner as the hair detection unit 42. Next, the face orientation detection unit 43 performs a labeling process of assigning a labeling number to the white islands appearing in the binarized face area 60. FIG. 8 is a diagram showing another example of the binarized face region 60.

図8の例では、髪が1つの島81とみなされ、島81に「1」のラベリング番号が付与されている。左目が1つの島82とみなされ、島82に「2」のラベリング番号が付与されている。鼻の左孔が1つの島83とみなされ、島83に「3」のラベリング番号が付与されている。唇が一つの島84とみなされ、島84に「4」のラベリング番号が付与されている。左眉毛が一つの島85とみなされ、島85に「5」のラベリング番号が付与されている。右目の一部が一つの島86とみなされ、島86に「6」のラベリング番号が付与されている。 In the example of FIG. 8, the hair is regarded as one island 81, and the island 81 is given a labeling number of “1”. The left eye is regarded as one island 82, and the island 82 is given a labeling number of "2". The left hole of the nose is regarded as one island 83, and the island 83 is given a labeling number of "3". The lips are regarded as one island 84, and the island 84 is given a labeling number of "4". The left eyebrow is regarded as one island 85, and the island 85 is given a labeling number of "5". A part of the right eye is regarded as one island 86, and the island 86 is given a labeling number of "6".

次に、顔向き検出部43は、ラベリングした島のうち、所定面積以下の面積を有する島であって、目検出部122が検出した一方の目領域50から、当該一方の目領域50に含まれる目の目頭側に最も離れている島を検出する。所定面積は、例えば目検出部122が検出した一方の目領域50の面積程度の面積に定められている。図8の例では、顔向き検出部43は、顔の向きが右向きであると判断している。そのため、顔向き検出部43は、目検出部122が検出した目領域50は、左目領域50Lであり、当該左目領域50Lに含まれる島82が左目を示していると判断する。次に、顔向き検出部43は、所定面積以下の面積を有し、且つ、左目領域50Lから、左目の目頭側である右方に最も離れている島86を検出する。 Next, the face orientation detection unit 43 is an island having an area equal to or less than a predetermined area among the labeled islands, and is included in the one eye area 50 from the one eye area 50 detected by the eye detection unit 122. Detects the island farthest from the inner corner of the eye. The predetermined area is set to, for example, an area of about the area of one eye region 50 detected by the eye detection unit 122. In the example of FIG. 8, the face orientation detection unit 43 determines that the face orientation is rightward. Therefore, the face orientation detection unit 43 determines that the eye region 50 detected by the eye detection unit 122 is the left eye region 50L, and the island 82 included in the left eye region 50L indicates the left eye. Next, the face orientation detection unit 43 detects the island 86 having an area equal to or less than a predetermined area and being farthest from the left eye region 50L to the right, which is the inner corner side of the left eye.

次に、顔向き検出部43は、検出した島に前記輪郭点があるとみなし、その輪郭点を検出する。図8の例では、顔向き検出部43は、検出した島86における、左目の目頭側、つまり、右方の端部P81を、輪郭点61として検出する。 Next, the face orientation detection unit 43 considers that the detected island has the contour point, and detects the contour point. In the example of FIG. 8, the face orientation detection unit 43 detects the inner corner side of the left eye, that is, the right end portion P81 of the detected island 86 as the contour point 61.

次に、顔向き検出部43は、目検出部122が検出した目領域50から、当該目領域50に含まれる目の位置を示す情報として、当該目の重心及び目頭の位置を検出する。図8の例では、顔向き検出部43は、顔の向きが右向きであると判断したため、目検出部122が検出した目領域50は、左目領域50Lであり、当該左目領域50Lに含まれる島82が左目を示していると判断する。そこで、顔向き検出部43は、島82の重心の位置P82を、左目の重心の位置62として検出する。また、顔向き検出部43は、当該島82における、左目の目頭側、つまり、右方の端部P83を、左目の目頭の位置63として検出する。 Next, the face orientation detection unit 43 detects the position of the center of gravity of the eye and the position of the inner corner of the eye from the eye area 50 detected by the eye detection unit 122 as information indicating the position of the eye included in the eye area 50. In the example of FIG. 8, since the face orientation detection unit 43 determines that the face orientation is to the right, the eye region 50 detected by the eye detection unit 122 is the left eye region 50L, and the island included in the left eye region 50L. It is determined that 82 indicates the left eye. Therefore, the face orientation detection unit 43 detects the position P82 of the center of gravity of the island 82 as the position 62 of the center of gravity of the left eye. Further, the face orientation detection unit 43 detects the inner corner side of the left eye, that is, the right end P83 on the island 82, as the position 63 of the inner corner of the left eye.

次に、顔向き検出部43は、耳検出部41によって耳領域30が検出された場合、目検出部122によって検出された一方の目領域50に含まれる目の目頭の位置から輪郭点61までの第一距離を算出し、当該目頭の位置から耳検出部41によって検出された耳領域30に含まれる耳の位置までの第二距離を算出する。そして、顔向き検出部43は、第一距離と第二距離とに基づいて顔向き情報を検出する。 Next, when the ear region 30 is detected by the ear detection unit 41, the face orientation detection unit 43 extends from the position of the inner corner of the eye included in one eye region 50 detected by the eye detection unit 122 to the contour point 61. The first distance is calculated, and the second distance from the position of the inner corner of the eye to the position of the ear included in the ear region 30 detected by the ear detection unit 41 is calculated. Then, the face orientation detection unit 43 detects the face orientation information based on the first distance and the second distance.

図8の例では、顔向き検出部43は、左目領域50Lに含まれる左目の目頭の位置63から輪郭点61までの水平方向の距離L1を第一距離(以降、第一距離L1)として算出する。顔向き検出部43は、耳検出部41によって検出された左耳領域30Lにおける、左目の目頭側、つまり、右方の端部を、当該耳領域30に含まれる耳の位置とする。そして、顔向き検出部43は、左目の目頭の位置63から当該耳の位置までの水平方向の距離L2を第二距離(以降、第二距離L2)として算出する。 In the example of FIG. 8, the face orientation detection unit 43 calculates the horizontal distance L1 from the position 63 of the inner corner of the left eye included in the left eye region 50L to the contour point 61 as the first distance (hereinafter, the first distance L1). To do. The face orientation detection unit 43 sets the inner side of the left eye, that is, the right end of the left ear region 30L detected by the ear detection unit 41 as the position of the ear included in the ear region 30. Then, the face orientation detection unit 43 calculates the horizontal distance L2 from the position 63 of the inner corner of the left eye to the position of the ear as the second distance (hereinafter, the second distance L2).

図9は、上方からみた人物400の顔向き度合の一例を示す模式図である。人物400がカメラ200に向かって左右方向に顔の向きを傾ける度合が大きくなるほど、図9に示すように、カメラ200の光軸91に対する人物400の顔の正面方向92を示す角度(以降、姿勢角度)93は大きくなる。また、顔向き度合が大きくなるほど、カメラ200によって撮像される片目の目頭の位置から輪郭点までの第一距離L1は短くなり、当該目頭の位置から耳の位置までの第二距離L2は長くなる。したがって、顔向き度合を示す姿勢角度93と、第一距離L1に対する第二距離L2の比率(=L2/L1)又は第二距離L2に対する第一距離L1の比率(=L1/L2)と、の関係を示す関数(以降、第一関数)は、実験値等に基づいて予め定めることができる。 FIG. 9 is a schematic view showing an example of the degree of face orientation of the person 400 when viewed from above. As the degree to which the person 400 tilts the face in the left-right direction toward the camera 200 increases, as shown in FIG. 9, an angle indicating the front direction 92 of the face of the person 400 with respect to the optical axis 91 of the camera 200 (hereinafter, the posture). Angle) 93 becomes larger. Further, as the degree of face orientation increases, the first distance L1 from the position of the inner corner of the eye to the contour point imaged by the camera 200 becomes shorter, and the second distance L2 from the position of the inner corner of the eye to the position of the ear becomes longer. .. Therefore, the posture angle 93 indicating the degree of face orientation and the ratio of the second distance L2 to the first distance L1 (= L2 / L1) or the ratio of the first distance L1 to the second distance L2 (= L1 / L2). The function indicating the relationship (hereinafter referred to as the first function) can be predetermined based on experimental values and the like.

そこで、顔向き検出部43は、第一距離L1に対する第二距離L2の比率、又は、第二距離L2に対する第一距離L1の比率を算出する。そして、顔向き検出部43は、当該算出した比率を第一関数に入力することによって、当該入力した比率に対応する姿勢角度93を、顔向き度合として取得する。顔向き検出部43は、このようにして得られた顔向き度合を、顔向き情報として検出する。尚、顔向き度合の取得方法は、これに限らない。例えば、第一距離L1と第二距離L2との差分と、姿勢角度93と、の関係を示す関数を予め定め、当該関数を用いて顔向き度合が取得されてもよい。 Therefore, the face orientation detection unit 43 calculates the ratio of the second distance L2 to the first distance L1 or the ratio of the first distance L1 to the second distance L2. Then, the face orientation detection unit 43 inputs the calculated ratio into the first function, and acquires the posture angle 93 corresponding to the input ratio as the face orientation degree. The face orientation detection unit 43 detects the degree of face orientation thus obtained as face orientation information. The method of obtaining the degree of face orientation is not limited to this. For example, a function indicating the relationship between the difference between the first distance L1 and the second distance L2 and the posture angle 93 may be determined in advance, and the degree of face orientation may be obtained using the function.

耳が髪で覆われている人物400の顔の画像データから、耳領域30を検出することはできない。そこで、この場合、顔向き検出部43は、髪検出部42を用いて人物400の顔の画像データから髪領域を検出する。次に、顔向き検出部43は、第一距離L1を算出し、目検出部122によって検出された一方の目領域50に含まれる目の位置から、当該目の目頭の位置よりも目尻側に位置する前記髪領域内の点までの第三距離を算出する。そして、顔向き検出部43は、第一距離L1と第三距離とに基づいて顔向き情報を検出する。 The ear region 30 cannot be detected from the image data of the face of the person 400 whose ears are covered with hair. Therefore, in this case, the face orientation detection unit 43 uses the hair detection unit 42 to detect the hair region from the image data of the face of the person 400. Next, the face orientation detection unit 43 calculates the first distance L1 and moves from the position of the eye included in one eye region 50 detected by the eye detection unit 122 to the outer corner of the eye with respect to the position of the inner corner of the eye. The third distance to the point in the hair area where it is located is calculated. Then, the face orientation detection unit 43 detects the face orientation information based on the first distance L1 and the third distance.

以下、図7を用いて、髪領域から顔向き情報を検出する処理について説明する。図7の例では、顔向き検出部43は、図8の例と同様、左目領域50Lに含まれる島72が左目を示していると判断する。そして、顔向き検出部43は、所定面積以下の面積を有し、且つ、左目領域50Lから、左目の目頭側である右方に最も離れている島73における左目の目頭側の端部P75を、輪郭点61として検出する。また、顔向き検出部43は、左目を示す島72の重心の位置P72を左目の重心の位置62として検出し、当該島72における左目の目頭側の端部P73を左目の目頭の位置63として検出する。そして、顔向き検出部43は、検出した左目の目頭の位置63から、検出した輪郭点61までの水平方向の距離である第一距離L1を算出する。 Hereinafter, the process of detecting the face orientation information from the hair region will be described with reference to FIG. 7. In the example of FIG. 7, the face orientation detection unit 43 determines that the island 72 included in the left eye region 50L indicates the left eye, as in the example of FIG. Then, the face orientation detection unit 43 has an area equal to or less than a predetermined area, and has an end portion P75 on the inner side of the left eye on the island 73 that is farthest to the right, which is the inner side of the left eye, from the left eye region 50L. , Detected as contour point 61. Further, the face orientation detection unit 43 detects the position P72 of the center of gravity of the island 72 indicating the left eye as the position 62 of the center of gravity of the left eye, and sets the end P73 on the inner side of the left eye on the island 72 as the position 63 of the inner corner of the left eye. To detect. Then, the face orientation detection unit 43 calculates the first distance L1, which is the horizontal distance from the detected position 63 of the inner corner of the left eye to the detected contour point 61.

また、顔向き検出部43は、髪検出部42によって検出された髪領域の重心の位置P71を前記髪領域内の点64として検出する。尚、前記髪領域内の点64は、これに限らず、髪領域を示す島71の輪郭線上において、左目領域50Lに含まれる左目の目頭の位置63から、左目の目尻側である左方に最も離れている点P74であってもよい。顔向き検出部43は、左目の目頭の位置63から前記髪領域内の点64までの水平方向の距離L3を、第三距離(以降、第三距離L3)として算出する。 Further, the face orientation detection unit 43 detects the position P71 of the center of gravity of the hair region detected by the hair detection unit 42 as a point 64 in the hair region. The point 64 in the hair region is not limited to this, and on the contour line of the island 71 indicating the hair region, from the position 63 of the inner corner of the left eye included in the left eye region 50L to the left side of the outer corner of the left eye. It may be the farthest point P74. The face orientation detection unit 43 calculates the horizontal distance L3 from the position 63 of the inner corner of the left eye to the point 64 in the hair region as the third distance (hereinafter, the third distance L3).

そして、顔向き検出部43は、図8の例と同様にして、第一距離L1に対する第三距離L3の比率、又は、第三距離L3に対する第一距離L1の比率を算出する。そして、顔向き検出部43は、当該算出した比率を、第一関数と同様の第二関数に入力することによって、当該入力した比率に対応する姿勢角度93を、顔向き度合として取得する。第二関数は、姿勢角度93(図9)と、第一距離L1に対する第三距離L3の比率、又は、第三距離L3に対する第一距離L1の比率と、の関係を示す関数であり、実験値等に基づいて予め定められている。顔向き検出部43は、このようにして得られた顔向き度合を、顔向き情報として検出する。尚、顔向き度合の取得方法は、これに限らない。例えば、第一距離L1と第三距離L3との差分と、姿勢角度93と、の関係を示す関数を予め定め、当該関数を用いて顔向き度合が取得されてもよい。 Then, the face orientation detection unit 43 calculates the ratio of the third distance L3 to the first distance L1 or the ratio of the first distance L1 to the third distance L3 in the same manner as in the example of FIG. Then, the face orientation detection unit 43 inputs the calculated ratio into the second function similar to the first function, and acquires the posture angle 93 corresponding to the input ratio as the face orientation degree. The second function is a function showing the relationship between the posture angle 93 (FIG. 9) and the ratio of the third distance L3 to the first distance L1 or the ratio of the first distance L1 to the third distance L3, and is an experiment. It is predetermined based on the value and the like. The face orientation detection unit 43 detects the degree of face orientation thus obtained as face orientation information. The method of obtaining the degree of face orientation is not limited to this. For example, a function indicating the relationship between the difference between the first distance L1 and the third distance L3 and the posture angle 93 may be determined in advance, and the degree of face orientation may be obtained using the function.

片側顔視線検出部44は、目検出部122によって検出された一方の目領域50に含まれる目の位置を示す情報と、顔向き検出部43によって検出された顔向き情報と、に基づいて、視線情報を検出する第二の処理を行う。以下、第二の処理の詳細について説明する。 The one-sided facial line-of-sight detection unit 44 is based on the information indicating the position of the eyes included in the one eye region 50 detected by the eye detection unit 122 and the face orientation information detected by the face orientation detection unit 43. The second process of detecting the line-of-sight information is performed. The details of the second process will be described below.

図10は、人物400の視野角94を示す図である。一般的に、人物400の目の視野角94は、人物400の顔の正面方向92に対して、左方及び右方に0度以上60度以下の範囲に収まるといわれている。そこで、本実施の形態では、視野角94が60度に予め定められているものとする。 FIG. 10 is a diagram showing a viewing angle 94 of the person 400. Generally, it is said that the viewing angle 94 of the eyes of the person 400 falls within the range of 0 degrees or more and 60 degrees or less to the left and right with respect to the front direction 92 of the face of the person 400. Therefore, in the present embodiment, it is assumed that the viewing angle 94 is predetermined to be 60 degrees.

片側顔視線検出部44は、第二の処理において、まず、目検出部122が検出した一方の目領域50から、当該一方の目領域50に含まれる目の目尻の位置を検出する。 In the second process, the one-sided facial line-of-sight detection unit 44 first detects the position of the outer corner of the eye included in the one eye region 50 from the one eye region 50 detected by the eye detection unit 122.

図11は、視線方向の検出方法の説明図である。図11には、図8に示した左目領域50Lを拡大した図が示されている。図11の例では、片側顔視線検出部44は、顔向き検出部43によって左目を示していると判断された島82の左方の端部P85を、左目の目尻の位置65として検出する。 FIG. 11 is an explanatory diagram of a detection method in the line-of-sight direction. FIG. 11 shows an enlarged view of the left eye region 50L shown in FIG. In the example of FIG. 11, the one-sided face line-of-sight detection unit 44 detects the left end portion P85 of the island 82 determined to indicate the left eye by the face orientation detection unit 43 as the position 65 of the outer corner of the left eye.

片側顔視線検出部44は、目検出部122によって検出された一方の目領域50に含まれる目の重心の位置62から、当該目の目尻の位置65までの水平方向の距離(以降、重心目尻間距離)を取得する。また、片側顔視線検出部44は、前記検出された一方の目領域50に含まれる目の重心の位置62から、当該目の目頭の位置63までの水平方向の距離(以降、重心目頭間距離)を取得する。そして、片側顔視線検出部44は、取得した重心目尻間距離及び重心目頭間距離と、予め定められた視野角94と、に基づき、顔の正面方向92に対する視線の方向を示す角度(以降、視線方向角度)を算出する。 The one-sided facial line-of-sight detection unit 44 is a horizontal distance from the position 62 of the center of gravity of the eye included in the one eye region 50 detected by the eye detection unit 122 to the position 65 of the outer corner of the eye (hereinafter, the outer corner of the center of gravity). Distance) is obtained. Further, the one-sided facial line-of-sight detection unit 44 is a horizontal distance from the position 62 of the center of gravity of the eye included in the detected one eye region 50 to the position 63 of the inner corner of the eye (hereinafter, the distance between the inner corners of the center of gravity). ) To get. Then, the one-sided facial line-of-sight detection unit 44 indicates an angle indicating the direction of the line of sight with respect to the front direction 92 of the face based on the acquired distance between the outer corners of the center of gravity and the inner corner of the center of gravity and a predetermined viewing angle 94 (hereinafter, Line-of-sight angle) is calculated.

具体的には、目検出部122によって検出された一方の目領域50に含まれる目の重心の位置62が当該目の目頭の位置63に近いほど、人物400の視線は、顔の正面方向92に近い方向を向いていると考えられる。一方、当該目の重心の位置62が当該目の目尻の位置65に近いほど、人物400の視線は、顔の正面方向92から離れた方向、つまり、顔の正面方向92に対して前記視野角94の分だけ左方又は右方に離れた方向に近い方向を向いていると考えられる。 Specifically, the closer the position 62 of the center of gravity of the eyes included in one eye region 50 detected by the eye detection unit 122 is to the position 63 of the inner corner of the eyes, the closer the line of sight of the person 400 is to the front direction 92 of the face. It is thought that it is facing a direction close to. On the other hand, the closer the position 62 of the center of gravity of the eye is to the position 65 of the outer corner of the eye, the more the line of sight of the person 400 is in the direction away from the front direction 92 of the face, that is, the viewing angle with respect to the front direction 92 of the face. It is considered that the direction is closer to the left or right by 94 minutes.

そこで、図11の例では、片側顔視線検出部44は、目検出部122によって検出された左目領域50Lに含まれる左目の重心の位置62から、当該左目の目尻の位置65までの水平方向の距離である重心目尻間距離K1を取得する。また、片側顔視線検出部44は、左目の重心の位置62から左目の目頭の位置63までの水平方向の距離である重心目頭間距離K2を取得する。そして、片側顔視線検出部44は、当該取得した重心目尻間距離K1及び重心目頭間距離K2と、予め定められた視野角94の値α(=60°)と、を用いた以下の式によって、視線方向角度βを算出する。β=α×(K2/K1)。 Therefore, in the example of FIG. 11, the one-sided facial line-of-sight detection unit 44 is located in the horizontal direction from the position 62 of the center of gravity of the left eye included in the left eye region 50L detected by the eye detection unit 122 to the position 65 of the outer corner of the left eye. The distance K1 between the outer corners of the center of gravity, which is the distance, is acquired. Further, the one-sided facial line-of-sight detection unit 44 acquires the distance K2 between the inner corners of the center of gravity, which is the horizontal distance from the position 62 of the center of gravity of the left eye to the position 63 of the inner corner of the left eye. Then, the one-sided facial line-of-sight detection unit 44 uses the acquired distance K1 between the outer corners of the center of gravity and K2 between the inner corners of the center of gravity and the predetermined value α (= 60 °) of the viewing angle 94 according to the following equation. , Calculate the line-of-sight angle β. β = α × (K2 / K1).

片側顔視線検出部44は、当該算出した視線方向角度βを、顔向き検出部43によって検出された顔向き度合に加算した値を、カメラ200の光軸91に対する視線の方向を示す角度として算出する。片側顔視線検出部44は、当該算出したカメラ200の光軸91に対する視線の方向を示す角度を、視線情報として検出する。 The one-sided face line-of-sight detection unit 44 calculates the value obtained by adding the calculated line-of-sight direction angle β to the face orientation degree detected by the face direction detection unit 43 as an angle indicating the direction of the line-of-sight with respect to the optical axis 91 of the camera 200. To do. The one-sided facial line-of-sight detection unit 44 detects the calculated angle indicating the direction of the line of sight with respect to the optical axis 91 of the camera 200 as line-of-sight information.

次に、画像処理装置100の動作について説明する。図12は、実施の形態1に係る画像処理装置100の動作の一例を示すフローチャートである。 Next, the operation of the image processing device 100 will be described. FIG. 12 is a flowchart showing an example of the operation of the image processing device 100 according to the first embodiment.

画像取得部121は、カメラ200から人物400の顔の画像データを取得する(ステップS1)。次に、目検出部122は、目領域50を検出するための分類器にステップS1で取得した画像データを入力することにより、当該画像データから右目領域50R及び左目領域50Lを検出する(ステップS2)。 The image acquisition unit 121 acquires image data of the face of the person 400 from the camera 200 (step S1). Next, the eye detection unit 122 detects the right eye region 50R and the left eye region 50L from the image data by inputting the image data acquired in step S1 into the classifier for detecting the eye region 50 (step S2). ).

ステップS2において、図3の例のように、右目領域50R及び左目領域50Lが検出されたとする(ステップS3でYES)。この場合、両目視線検出部123は、右目領域50Rに含まれる右目の位置を示す情報及び左目領域50Lに含まれる左目の位置を示す情報と、ステップS1で取得した画像データから検出した顔向き情報と、を用いた第一の処理により、視線情報を検出する(ステップS4)。 In step S2, it is assumed that the right eye region 50R and the left eye region 50L are detected as in the example of FIG. 3 (YES in step S3). In this case, both visual line detection units 123 include information indicating the position of the right eye included in the right eye region 50R, information indicating the position of the left eye included in the left eye region 50L, and face orientation information detected from the image data acquired in step S1. The line-of-sight information is detected by the first process using and (step S4).

一方、図5及び図6の例のように、ステップS2において、右目領域50R又は左目領域50Lの一方の目領域50のみが検出されたとする(ステップS3でNO)。この場合、片目視線検出部124は、当該一方の目領域50に含まれる目の位置を示す情報と人物400の顔における目と異なる部位の位置を示す情報とに基づいて、顔向き情報を検出する。そして、片目視線検出部124は、当該一方の目の位置を示す情報と、検出した顔向き情報とを用いた第二の処理により、視線情報を検出する(ステップS5)。ステップS5における片目視線検出部124の動作の詳細については、後述する。 On the other hand, as in the examples of FIGS. 5 and 6, it is assumed that only one eye region 50 of the right eye region 50R or the left eye region 50L is detected in step S2 (NO in step S3). In this case, the one-sided visual line detection unit 124 detects the face orientation information based on the information indicating the position of the eyes included in the one eye region 50 and the information indicating the position of a portion different from the eyes on the face of the person 400. To do. Then, the one-sided visual line detection unit 124 detects the line-of-sight information by a second process using the information indicating the position of the one eye and the detected face orientation information (step S5). Details of the operation of the one-sided visual line detection unit 124 in step S5 will be described later.

ステップS4又はステップS5の後、出力部130は、ステップS4又はステップS5で検出された視線情報を表示装置300に出力する(ステップS6)。 After step S4 or step S5, the output unit 130 outputs the line-of-sight information detected in step S4 or step S5 to the display device 300 (step S6).

次に、ステップS5における片目視線検出部124の動作について説明する。図13は、実施の形態1に係る片目視線検出部124の動作の一例を示すフローチャートである。 Next, the operation of the one-sided visual line detection unit 124 in step S5 will be described. FIG. 13 is a flowchart showing an example of the operation of the one-sided visual line detection unit 124 according to the first embodiment.

ステップS5が開始されると、耳検出部41は、ステップS1で取得された画像データを右耳領域及び左耳領域を検出するための分類器に入力することにより、当該画像データから耳領域30を検出する(ステップS51)。例えば、ステップS51において、耳検出部41は、図5に示すように、ステップS1で取得された画像データから、左耳領域30Lを検出する。 When step S5 is started, the ear detection unit 41 inputs the image data acquired in step S1 into the classifier for detecting the right ear region and the left ear region, so that the ear region 30 is obtained from the image data. Is detected (step S51). For example, in step S51, the ear detection unit 41 detects the left ear region 30L from the image data acquired in step S1 as shown in FIG.

ステップS51で耳領域30が検出された場合(ステップS52でYES)、顔向き検出部43は、ステップS2で検出された一方の目領域50に含まれる目の位置を示す情報と、ステップS51で検出された耳領域30に含まれる耳の位置を示す情報と、に基づいて、顔向き情報を検出する(ステップS53)。 When the ear region 30 is detected in step S51 (YES in step S52), the face orientation detection unit 43 includes information indicating the position of the eyes included in one of the eye regions 50 detected in step S2, and in step S51. Face orientation information is detected based on the information indicating the position of the ear included in the detected ear region 30 (step S53).

例えば、ステップS51において、図5に示すように、左耳領域30Lが検出されたとする。この場合、ステップS53において、顔向き検出部43は、ステップS51で左耳領域30Lが検出されたので、顔の向きが右向きであると判断する。 For example, in step S51, it is assumed that the left ear region 30L is detected as shown in FIG. In this case, in step S53, the face orientation detection unit 43 determines that the face orientation is right because the left ear region 30L was detected in step S51.

この場合、顔向き検出部43は、図8に示すように、ステップS1で取得された画像データと、ステップS2で検出された左目領域50Lに含まれる左目の目頭の位置63と、に基づいて、左目の目頭の位置63から輪郭点61までの水平方向の距離である第一距離L1を算出する。顔向き検出部43は、更に、ステップS51で検出された左耳領域30Lにおける左目の目頭側の端部を当該耳領域30に含まれる耳の位置とし、左目の目頭の位置63から当該耳の位置までの水平方向の距離である第二距離L2を算出する。 In this case, as shown in FIG. 8, the face orientation detection unit 43 is based on the image data acquired in step S1 and the position 63 of the inner corner of the left eye included in the left eye region 50L detected in step S2. , The first distance L1, which is the horizontal distance from the position 63 of the inner corner of the left eye to the contour point 61, is calculated. Further, the face orientation detection unit 43 sets the end portion of the left ear region 30L detected in step S51 on the inner corner side of the left eye as the position of the ear included in the ear region 30, and the position 63 of the inner corner of the left eye of the ear. The second distance L2, which is the horizontal distance to the position, is calculated.

そして、顔向き検出部43は、第一距離L1に対する第二距離L2の比率又は第二距離L2に対する第一距離L1の比率を算出し、当該算出した比率を第一関数に入力する。これにより、顔向き検出部43は、入力した比率に対応する姿勢角度93(図9)を、顔向き度合として取得する。顔向き検出部43は、このようにして得られた顔向き度合を、顔向き情報として検出する。 Then, the face orientation detection unit 43 calculates the ratio of the second distance L2 to the first distance L1 or the ratio of the first distance L1 to the second distance L2, and inputs the calculated ratio into the first function. As a result, the face orientation detection unit 43 acquires the posture angle 93 (FIG. 9) corresponding to the input ratio as the face orientation degree. The face orientation detection unit 43 detects the degree of face orientation thus obtained as face orientation information.

一方、ステップS51で耳領域30が検出されなかった場合(ステップS52でNO)、顔向き検出部43は、髪検出部42を用いて、ステップS1で取得された画像データから髪領域を検出する(ステップS54)。例えば、図7に示すように、ステップS54では、髪検出部42によって、ステップS1で取得された画像データから顔領域60が検出され、当該顔領域60を二値化した領域において最も大きな面積を有する島71が髪領域として検出される。 On the other hand, when the ear region 30 is not detected in step S51 (NO in step S52), the face orientation detection unit 43 uses the hair detection unit 42 to detect the hair region from the image data acquired in step S1. (Step S54). For example, as shown in FIG. 7, in step S54, the hair detection unit 42 detects the face area 60 from the image data acquired in step S1, and determines the largest area in the binarized area of the face area 60. The island 71 to have is detected as a hair area.

そして、顔向き検出部43は、ステップS2で検出された一方の目領域50に含まれる目の位置を示す情報と、ステップS54で検出された髪領域に含まれる髪の位置を示す情報と、に基づいて、顔向き情報を検出する(ステップS55)。 Then, the face orientation detection unit 43 includes information indicating the position of the eyes included in one eye region 50 detected in step S2, information indicating the position of the hair included in the hair region detected in step S54, and information indicating the position of the hair. The face orientation information is detected based on (step S55).

例えば、ステップS54において、図7に示すように、島71が髪領域として検出されたとする。この場合、ステップS55において、顔向き検出部43は、上述のように、髪領域として検出された島71の重心の位置P71が、顔領域60における左半分の領域に存在するので、顔の向きが右向きであると判断する。 For example, in step S54, as shown in FIG. 7, it is assumed that the island 71 is detected as a hair region. In this case, in step S55, as described above, the face orientation detection unit 43 has the position P71 of the center of gravity of the island 71 detected as the hair region in the left half region of the face region 60, so that the face orientation Is determined to be facing right.

この場合、顔向き検出部43は、図7に示すように、ステップS1で取得された画像データと、ステップS2で検出された左目領域50Lに含まれる左目の目頭の位置63と、に基づいて、左目の目頭の位置63から輪郭点61までの水平方向の距離である第一距離L1を算出する。また、顔向き検出部43は、更に、ステップS54で検出された髪領域の重心の位置P71を前記髪領域内の点64とし、左目の目頭の位置63から当該髪領域内の点64までの水平方向の距離である第三距離L3を算出する。 In this case, as shown in FIG. 7, the face orientation detection unit 43 is based on the image data acquired in step S1 and the position 63 of the inner corner of the left eye included in the left eye region 50L detected in step S2. , The first distance L1, which is the horizontal distance from the position 63 of the inner corner of the left eye to the contour point 61, is calculated. Further, the face orientation detection unit 43 further sets the position P71 of the center of gravity of the hair region detected in step S54 as a point 64 in the hair region, and extends from the position 63 of the inner corner of the left eye to the point 64 in the hair region. The third distance L3, which is the distance in the horizontal direction, is calculated.

そして、顔向き検出部43は、第一距離L1に対する第三距離L3の比率又は第三距離L3に対する第一距離L1の比率を算出し、当該算出した比率を第二関数に入力する。これにより、顔向き検出部43は、入力した比率に対応する姿勢角度93(図9)を、顔向き度合として取得する。顔向き検出部43は、このようにして得られた顔向き度合を、顔向き情報として検出する。 Then, the face orientation detection unit 43 calculates the ratio of the third distance L3 to the first distance L1 or the ratio of the first distance L1 to the third distance L3, and inputs the calculated ratio into the second function. As a result, the face orientation detection unit 43 acquires the posture angle 93 (FIG. 9) corresponding to the input ratio as the face orientation degree. The face orientation detection unit 43 detects the degree of face orientation thus obtained as face orientation information.

ステップS53又はステップS55の後、片側顔視線検出部44は、ステップS2で検出された一方の目領域50に含まれる目の位置を示す情報と、ステップS53又はステップS55で検出された顔向き情報と、を用いた第二の処理によって、視線情報を検出する(ステップS56)。 After step S53 or step S55, the one-sided facial line-of-sight detection unit 44 includes information indicating the position of the eyes included in one eye region 50 detected in step S2, and facial orientation information detected in step S53 or step S55. The line-of-sight information is detected by the second process using and (step S56).

例えば、ステップS56において、片側顔視線検出部44は、図11に示すように、ステップS2で検出された左目領域50Lに含まれる左目の重心の位置62から、当該左目の目尻の位置65までの水平方向の距離である重心目尻間距離K1を取得する。また、片側顔視線検出部44は、左目の重心の位置62から左目の目頭の位置63までの水平方向の距離である重心目頭間距離K2を取得する。そして、片側顔視線検出部44は、当該取得した重心目尻間距離K1及び重心目頭間距離K2と、予め定められた視野角94の値α(=60°)と、を用いた上記式(β=α×(K2/K1))によって、視線方向角度βを算出する。片側顔視線検出部44は、当該算出した視線方向角度βを、ステップS53又はステップS55で顔向き情報として検出された顔向き度合に加算した値を、視線情報として検出する。 For example, in step S56, as shown in FIG. 11, the one-sided facial line-of-sight detection unit 44 extends from the position 62 of the center of gravity of the left eye included in the left eye region 50L detected in step S2 to the position 65 of the outer corner of the left eye. The distance K1 between the outer corners of the center of gravity, which is the distance in the horizontal direction, is acquired. Further, the one-sided facial line-of-sight detection unit 44 acquires the distance K2 between the inner corners of the center of gravity, which is the horizontal distance from the position 62 of the center of gravity of the left eye to the position 63 of the inner corner of the left eye. Then, the one-sided facial line-of-sight detection unit 44 uses the acquired distance K1 between the outer corners of the center of gravity and K2 between the inner corners of the center of gravity, and a predetermined viewing angle 94 value α (= 60 °), as described above (β). = Α × (K2 / K1)) to calculate the line-of-sight angle β. The one-sided facial line-of-sight detection unit 44 detects as line-of-sight information a value obtained by adding the calculated line-of-sight direction angle β to the degree of face direction detected as face-direction information in step S53 or step S55.

以上説明したように、本実施の形態によれば、顔の画像データから、右目領域50R又は左目領域50Lの一方の目領域50のみを検出した場合、顔の画像データから耳領域30及び髪領域の少なくとも一方が検出される。そして、当該一方の目領域50に含まれる目の位置を示す情報と、当該検出された耳領域30及び髪領域の少なくとも一方に含まれる耳又は髪の位置を示す情報とに基づいて、顔向き情報が検出される。そして、当該検出された顔向き情報と前記目の位置を示す情報とに基づいて、視線情報が検出される。 As described above, according to the present embodiment, when only one eye region 50 of the right eye region 50R or the left eye region 50L is detected from the face image data, the ear region 30 and the hair region are detected from the face image data. At least one of them is detected. Then, based on the information indicating the position of the eyes included in the one eye region 50 and the information indicating the position of the ear or the hair included in at least one of the detected ear region 30 and the hair region, the face orientation Information is detected. Then, the line-of-sight information is detected based on the detected face orientation information and the information indicating the position of the eyes.

これにより、本構成は、右目又は左目だけを含む顔の画像データしか取得できない場合でも、両目の位置関係に代えて、耳又は髪と検出された片目との位置関係に基づいて、顔向き情報を精度よく検出することができる。その結果、本構成は、顔画像から片方の目しか検出できない場合であっても、顔の向きを精度よく特定でき、ひいては視線の検出精度を向上させることができる。 As a result, even if only the image data of the face including only the right eye or the left eye can be acquired, the present configuration provides face orientation information based on the positional relationship between the ear or hair and the detected one eye instead of the positional relationship between both eyes. Can be detected accurately. As a result, this configuration can accurately identify the orientation of the face even when only one eye can be detected from the face image, and can improve the detection accuracy of the line of sight.

尚、ステップS54において、髪領域が検出できない場合も考えられる。この場合、出力部130が、視線情報の検出ができない旨のエラーメッセージを表示装置300に出力するようにしてもよい。または、顔画像から検出可能な片目と、顔画像から検出できない片目とが共に略同じ方向を向いていると仮定して、ステップS4(図12)以降の処理が行われるようにしてもよい。 It is also possible that the hair region cannot be detected in step S54. In this case, the output unit 130 may output an error message indicating that the line-of-sight information cannot be detected to the display device 300. Alternatively, it is assumed that one eye that can be detected from the face image and one eye that cannot be detected from the face image both face substantially the same direction, and the processes after step S4 (FIG. 12) may be performed.

(実施の形態2)
実施の形態2は、人物400の関心度を推定するものである。図14は、実施の形態2に係る画像処理システム1Aの詳細な構成の一例を示すブロック図である。尚、本実施の形態において実施の形態1と同一の構成要素には同一の符号を付し、説明を省略する。また、図14において、図2と名称が同一であるが機能が異なるブロックには末尾にAの符号が付されている。
(Embodiment 2)
The second embodiment estimates the degree of interest of the person 400. FIG. 14 is a block diagram showing an example of a detailed configuration of the image processing system 1A according to the second embodiment. In the present embodiment, the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted. Further, in FIG. 14, a block having the same name as that in FIG. 2 but having a different function is given a reference numeral A at the end.

視線検出装置120Aは、更に、特徴点検出部140及び関心度推定部150を含む。 The line-of-sight detection device 120A further includes a feature point detection unit 140 and an interest level estimation unit 150.

特徴点検出部140は、髪検出部42(図3)と同様、画像取得部121が取得した画像データから、顔領域を検出するために予め作成された分類器を用いて、人物400の顔の少なくとも一部を含む顔領域60を検出する。そして、特徴点検出部140は、当該検出した顔領域60から顔の特徴点を検出する。顔の特徴点とは、例えば目尻、目頭、顔の輪郭、鼻筋、口角、及び眉毛などの顔を構成する複数の部品のそれぞれにおいて、特徴的な位置にある1又は複数の点である。特徴点はランドマークとも呼ばれる。特徴点検出部140は、例えば機械学習のフレームワークのモデルファイルを利用したランドマーク検出処理を実行することで顔の特徴点を検出すればよい。 Similar to the hair detection unit 42 (FIG. 3), the feature point detection unit 140 uses a classifier created in advance to detect a face region from the image data acquired by the image acquisition unit 121 to detect the face of the person 400. The face area 60 including at least a part of the above is detected. Then, the feature point detection unit 140 detects the feature points of the face from the detected face area 60. The facial feature points are one or more points at characteristic positions in each of the plurality of parts constituting the face such as the outer corners of the eyes, the inner corners of the eyes, the contours of the face, the nose muscles, the corners of the mouth, and the eyebrows. Characteristic points are also called landmarks. The feature point detection unit 140 may detect the feature points of the face by, for example, executing a landmark detection process using a model file of a machine learning framework.

関心度推定部150は、以下の処理により人物400の関心度を推定する。まず、関心度推定部150は、特徴点検出部140により検出された顔の特徴点を用いて、顔領域60からまゆげ及び口角を検出する。ここで、関心度推定部150は、特徴点検出部140により検出された顔の特徴点において、まゆげ及び口角のそれぞれに対応するランドマーク点番号が付された特徴点を特定することで、まゆげ及び口角を検出すればよい。 The interest level estimation unit 150 estimates the interest level of the person 400 by the following processing. First, the interest level estimation unit 150 detects eyebrows and corners of the mouth from the face region 60 using the facial feature points detected by the feature point detection unit 140. Here, the degree of interest estimation unit 150 identifies the feature points of the face detected by the feature point detection unit 140 with landmark point numbers corresponding to the eyebrows and the corners of the mouth, thereby eyebrows. And the corner of the mouth may be detected.

次に、関心度推定部150は、両目視線検出部123又は片目視線検出部124により検出された視線情報と、検出したまゆげの位置及び口角の位置とに基づいて人物400の関心度を推定し、表示装置300に出力する。具体的には、関心度推定部150は、例えば、人が喜び、驚き、怒り、悲しみ、及び無表情等の各種表情をしている際のまゆげ及び口角の標準的な位置が予め記述されたパターンデータを例えばメモリ(図略)から取得する。そして、関心度推定部150は、検出した人物400のまゆげ及び口角の位置と、パターンデータとを照合し、人物400の表情を推定する。そして、関心度推定部150は、推定した人物400の表情と視線情報が示す視線とを用いて、人物400の視線がどの方向にある、又は人物400の注視点がどの位置にあるときに人物400がどのような表情を行ったかを特定する。すなわち、関心度推定部150は、視線情報と人物400の表情とを対応付けたデータを人物400の関心度として特定する。尚、ここでは、関心度推定部150は、まゆげ及び口角に基づいて関心度を推定するとして説明したが、これは一例であり、まゆげ及び口角の一方に基づいて関心度を推定してもよい。 Next, the interest level estimation unit 150 estimates the interest level of the person 400 based on the line-of-sight information detected by both visual line detection units 123 or the single visual line detection unit 124, and the positions of the detected eyebrows and the corners of the mouth. , Output to the display device 300. Specifically, the interest level estimation unit 150 describes in advance the standard positions of eyebrows and corners of the mouth when, for example, a person has various facial expressions such as joy, surprise, anger, sadness, and expressionlessness. Pattern data is acquired from, for example, a memory (not shown). Then, the interest level estimation unit 150 collates the detected positions of the eyebrows and the corners of the mouth of the person 400 with the pattern data, and estimates the facial expression of the person 400. Then, the interest level estimation unit 150 uses the estimated facial expression of the person 400 and the line of sight indicated by the line-of-sight information, and when the line of sight of the person 400 is in which direction or the gazing point of the person 400 is in which position, the person Identify what the 400 looks like. That is, the interest level estimation unit 150 specifies the data in which the line-of-sight information and the facial expression of the person 400 are associated with each other as the interest level of the person 400. Here, the degree of interest estimation unit 150 has been described as estimating the degree of interest based on the eyebrows and the angle of the mouth, but this is an example, and the degree of interest may be estimated based on one of the eyebrows and the angle of the mouth. ..

以上説明したように、本実施の形態によれば、視線情報に加えてまゆげ及び口角を更に用いて人物400の関心度が推定されているため、視線情報のみに基づく関心度推定に比べてより高精度に関心度を推定できる。 As described above, according to the present embodiment, the degree of interest of the person 400 is estimated by further using the eyebrows and the corners of the mouth in addition to the line-of-sight information. The degree of interest can be estimated with high accuracy.

(変形例)
(1)カメラ200として赤外光カメラが採用された場合、赤外光カメラは、太陽光のスペクトル強度が所定の第一波長よりも減衰した所定の第二波長の帯域の赤外光を用いる赤外光カメラで構成すればよい。所定の第一波長は、例えば850nmである。所定の第二波長は、例えば940nmである。第二波長の帯域は、例えば850nmを含まず、且つ940nmを基準(例えば中心)とする所定幅の帯域である。近赤外光を撮影する赤外光カメラとして、850nmの赤外光を用いるものが知られている。しかし、850nmでは太陽光のスペクトル強度が十分に減衰していないため、太陽光のスペクトル強度が強い屋外において高精度な視線情報の検出ができない可能性がある。そこで、本開示は、赤外光カメラとして例えば940nmの帯域の赤外光を用いるカメラを採用する。これにより、太陽光のスペクトル強度が強い屋外においても高精度な視線情報の検出を行うことができる。ここでは、所定の第二波長は940nmとしたが、これは一例であり、940nmから多少ずれた波長であってもよい。尚、第二波長の赤外光を用いる赤外光カメラは、例えば第二波長の赤外光を照射する投光器を備えるカメラである。
(Modification example)
(1) When an infrared light camera is adopted as the camera 200, the infrared light camera uses infrared light in a predetermined second wavelength band in which the spectral intensity of sunlight is attenuated from the predetermined first wavelength. It may be configured with an infrared light camera. The predetermined first wavelength is, for example, 850 nm. The predetermined second wavelength is, for example, 940 nm. The band of the second wavelength does not include, for example, 850 nm, and is a band having a predetermined width with 940 nm as a reference (for example, the center). As an infrared light camera that captures near-infrared light, one that uses infrared light of 850 nm is known. However, since the spectral intensity of sunlight is not sufficiently attenuated at 850 nm, it may not be possible to detect line-of-sight information with high accuracy outdoors where the spectral intensity of sunlight is strong. Therefore, the present disclosure employs, for example, a camera that uses infrared light in the band of 940 nm as an infrared light camera. As a result, it is possible to detect line-of-sight information with high accuracy even outdoors where the spectral intensity of sunlight is strong. Here, the predetermined second wavelength is set to 940 nm, but this is an example and may be a wavelength slightly deviated from 940 nm. An infrared light camera using infrared light having a second wavelength is, for example, a camera including a floodlight that irradiates infrared light having a second wavelength.

(2)上記実施の形態では、視線情報は注視点を示す座標データを含むとして説明したが、本開示はこれに限定されない。例えば、視線情報は、注視点を基準(例えば中心)とする所定サイズの所定形状(例えば円、四角形等)の領域である注視面を示す座標データを含んでいてもよい。これにより、人物400及び注視対象物間の距離又は注視対象物の大きさに依存することなく注視対象物を適切に判定できる。 (2) In the above embodiment, the line-of-sight information has been described as including coordinate data indicating the gazing point, but the present disclosure is not limited to this. For example, the line-of-sight information may include coordinate data indicating a gaze surface that is a region of a predetermined size (for example, a circle, a quadrangle, etc.) with a gaze point as a reference (for example, the center). Thereby, the gaze object can be appropriately determined without depending on the distance between the person 400 and the gaze object or the size of the gaze object.

本開示は、視線情報を高精度に検出できるため、視線情報を用いた人物の興味対象の推定、人物の状態推定、及び視線を用いたユーザインターフェース等において有用である。 Since the present disclosure can detect line-of-sight information with high accuracy, it is useful in estimation of a person's interest target using line-of-sight information, estimation of a person's state, user interface using line-of-sight, and the like.

30 :耳領域
30L :左耳領域(耳領域)
30R :右耳領域(耳領域)
41 :耳検出部(部位検出部)
42 :髪検出部(部位検出部)
43 :顔向き検出部
44 :片側顔視線検出部(視線検出部)
50 :目領域
50L :左目領域
50R :右目領域
61 :輪郭点
120、120A :視線検出装置
121 :画像取得部
122 :目検出部
123 :両目視線検出部
124 :片目視線検出部
400 :人物(人)
L1 :第一距離
L2 :第二距離
L3 :第三距離
30: Ear area 30L: Left ear area (ear area)
30R: Right ear area (ear area)
41: Ear detection unit (site detection unit)
42: Hair detection unit (site detection unit)
43: Face orientation detection unit 44: One-sided face line-of-sight detection unit (line-of-sight detection unit)
50: Eye area 50L: Left eye area 50R: Right eye area 61: Contour points 120, 120A: Line-of-sight detection device 121: Image acquisition unit 122: Eye detection unit 123: Both visual line detection units 124: One-line visual line detection unit 400: Person (person) )
L1: First distance L2: Second distance L3: Third distance

Claims (6)

視線検出装置における視線検出方法であって、
人の顔の画像データを取得し、
前記顔の画像データから前記人の左目を含む左目領域及び前記人の右目を含む右目領域を検出し、
前記右目領域及び前記左目領域を検出した場合、前記顔の画像データから前記顔の向きを示す情報を検出し、前記右目領域に含まれる右目の位置を示す情報及び前記左目領域に含まれる左目の位置を示す情報と前記顔の向きを示す情報とを用いた第一の処理により前記人の視線を示す情報を検出し、
前記右目領域又は前記左目領域の一方の目領域のみを検出した場合、前記一方の目領域に含まれる一方の目の位置を示す情報と、前記一方の目の目頭の位置よりも前記一方の目の目尻側に存在する前記顔の所定部位の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出し、前記一方の目の位置を示す情報と前記顔の向きを示す情報とを用いた第二の処理により前記人の視線を示す情報を検出し、
前記第二の処理は、(1)前記顔の画像データから前記所定部位を検出し、(2)前記顔の画像データと前記一方の目の位置を示す情報とに基づいて、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する前記顔の輪郭線上の点を示す輪郭点を検出し、(3)前記一方の目の位置から前記輪郭点までの第一距離と、前記一方の目の位置から前記所定部位の位置までの第二距離と、に基づいて、前記顔の向きを示す情報を検出し、(4)前記一方の目の位置を示す情報と前記顔の向きを示す情報とに基づいて、前記人の視線を示す情報を検出する処理である、
視線検出方法。
It is a line-of-sight detection method in a line-of-sight detection device.
Get image data of human face,
The left eye region including the left eye of the person and the right eye region including the right eye of the person are detected from the image data of the face.
When the right eye region and the left eye region are detected, information indicating the orientation of the face is detected from the image data of the face, information indicating the position of the right eye included in the right eye region, and information indicating the position of the right eye included in the left eye region and the left eye included in the left eye region. The information indicating the line of sight of the person is detected by the first process using the information indicating the position and the information indicating the direction of the face.
When only one eye region of the right eye region or the left eye region is detected, information indicating the position of one eye included in the one eye region and the one eye rather than the position of the inner corner of the one eye. Based on the information indicating the position of the predetermined portion of the face existing on the outer corner of the eye, the information indicating the orientation of the face is detected, and the information indicating the position of one of the eyes and the information indicating the orientation of the face are The information indicating the person's line of sight is detected by the second process using
In the second process, (1) the predetermined portion is detected from the image data of the face, and (2) the one eye is based on the image data of the face and the information indicating the position of the one eye. A contour point indicating a point on the contour line of the face existing on the inner corner side of the eye with respect to the position of the outer corner of the eye is detected, and (3) the first distance from the position of the one eye to the contour point. , Information indicating the orientation of the face is detected based on the second distance from the position of the one eye to the position of the predetermined portion, and (4) the information indicating the position of the one eye and the face. This is a process of detecting information indicating the line of sight of the person based on the information indicating the direction of the person.
Line-of-sight detection method.
前記所定部位は、耳又は髪である、
請求項1に記載の視線検出方法。
The predetermined part is an ear or hair.
The line-of-sight detection method according to claim 1.
前記第二の処理では、
前記顔の画像データから前記人の耳を含む耳領域を検出し、
前記耳領域を検出できた場合、前記一方の目の位置から前記耳領域に含まれる耳の位置までの距離を前記第二距離として、前記顔の向きを示す情報を検出する、
請求項2に記載の視線検出方法。
In the second process,
The ear region including the human ear is detected from the image data of the face, and the ear region is detected.
When the ear region can be detected, the information indicating the orientation of the face is detected with the distance from the position of the one eye to the position of the ear included in the ear region as the second distance.
The line-of-sight detection method according to claim 2.
前記第二の処理では、
前記耳領域を検出できなかった場合、前記顔の画像データから前記人の髪を含む髪領域を検出し、
前記一方の目の位置から前記髪領域内に含まれる髪の位置までの距離を前記第二距離として、前記顔の向きを示す情報を検出する
請求項3に記載の視線検出方法。
In the second process,
When the ear region could not be detected, the hair region including the person's hair was detected from the image data of the face, and the hair region was detected.
The line-of-sight detection method according to claim 3, wherein the distance from the position of one eye to the position of the hair included in the hair region is defined as the second distance, and information indicating the orientation of the face is detected.
人の顔の画像データを取得する画像取得部と、
前記顔の画像データから前記人の左目を含む左目領域及び前記人の右目を含む右目領域を検出する目検出部と、
前記右目領域及び前記左目領域を検出した場合、前記顔の画像データから前記顔の向きを示す情報を検出し、前記右目領域に含まれる右目の位置を示す情報及び前記左目領域に含まれる左目の位置を示す情報と前記顔の向きを示す情報とを用いた第一の処理により前記人の視線を示す情報を検出する両目視線検出部と、
前記右目領域又は前記左目領域の一方の目領域のみを検出した場合、前記一方の目領域に含まれる一方の目の位置を示す情報と、前記一方の目の目頭の位置よりも前記一方の目の目尻側に存在する前記顔の所定部位の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出し、前記一方の目の位置を示す情報と前記顔の向きを示す情報とを用いた第二の処理により前記人の視線を示す情報を検出する片目視線検出部と、を備え、
前記第二の処理は、(1)前記顔の画像データから前記所定部位を検出し、(2)前記顔の画像データと前記一方の目の位置を示す情報とに基づいて、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する前記顔の輪郭線上の点を示す輪郭点を検出し、(3)前記一方の目の位置から前記輪郭点までの第一距離と、前記一方の目の位置から前記所定部位の位置までの第二距離と、に基づいて、前記顔の向きを示す情報を検出し、(4)前記一方の目の位置を示す情報と前記顔の向きを示す情報とに基づいて、前記人の視線を示す情報を検出する処理である、
視線検出装置。
An image acquisition unit that acquires image data of a human face,
An eye detection unit that detects a left eye region including the left eye of the person and a right eye region including the right eye of the person from the image data of the face.
When the right eye region and the left eye region are detected, information indicating the orientation of the face is detected from the image data of the face, information indicating the position of the right eye included in the right eye region, and information indicating the position of the right eye included in the left eye region and the left eye included in the left eye region. Both visual line detection units that detect information indicating the line of sight of the person by the first process using the information indicating the position and the information indicating the direction of the face, and
When only one eye region of the right eye region or the left eye region is detected, information indicating the position of one eye included in the one eye region and the one eye rather than the position of the inner corner of the one eye. Based on the information indicating the position of the predetermined portion of the face existing on the outer corner of the eye, the information indicating the orientation of the face is detected, and the information indicating the position of one of the eyes and the information indicating the orientation of the face are It is provided with a one-sided visual line detection unit that detects information indicating the person's line of sight by a second process using the above.
In the second process, (1) the predetermined portion is detected from the image data of the face, and (2) the one eye is based on the image data of the face and the information indicating the position of the one eye. A contour point indicating a point on the contour line of the face existing on the inner corner side of the eye with respect to the position of the outer corner of the eye is detected, and (3) the first distance from the position of the one eye to the contour point. , Information indicating the orientation of the face is detected based on the second distance from the position of the one eye to the position of the predetermined portion, and (4) the information indicating the position of the one eye and the face. This is a process of detecting information indicating the line of sight of the person based on the information indicating the direction of the person.
Line-of-sight detector.
視線検出装置の制御プログラムであって、
前記視線検出装置が備えるコンピュータを、
人の顔の画像データを取得する画像取得部と、
前記顔の画像データから前記人の左目を含む左目領域及び前記人の右目を含む右目領域を検出する目検出部と、
前記右目領域及び前記左目領域を検出した場合、前記顔の画像データから前記顔の向きを示す情報を検出し、前記右目領域に含まれる右目の位置を示す情報及び前記左目領域に含まれる左目の位置を示す情報と前記顔の向きを示す情報とを用いた第一の処理により前記人の視線を示す情報を検出する両目視線検出部と、
前記右目領域又は前記左目領域の一方の目領域のみを検出した場合、前記一方の目領域に含まれる一方の目の位置を示す情報と、前記一方の目の目頭の位置よりも前記一方の目の目尻側に存在する前記顔の所定部位の位置を示す情報とに基づいて、前記顔の向きを示す情報を検出し、前記一方の目の位置を示す情報と前記顔の向きを示す情報とを用いた第二の処理により前記人の視線を示す情報を検出する片目視線検出部として機能させ、
前記第二の処理は、(1)前記顔の画像データから前記所定部位を検出し、(2)前記顔の画像データと前記一方の目の位置を示す情報とに基づいて、前記一方の目の目尻の位置よりも前記一方の目の目頭側に存在する前記顔の輪郭線上の点を示す輪郭点を検出し、(3)前記一方の目の位置から前記輪郭点までの第一距離と、前記一方の目の位置から前記所定部位の位置までの第二距離と、に基づいて、前記顔の向きを示す情報を検出し、(4)前記一方の目の位置を示す情報と前記顔の向きを示す情報とに基づいて、前記人の視線を示す情報を検出する処理である、
制御プログラム。
It is a control program of the line-of-sight detection device.
The computer included in the line-of-sight detection device
An image acquisition unit that acquires image data of a human face,
An eye detection unit that detects a left eye region including the left eye of the person and a right eye region including the right eye of the person from the image data of the face.
When the right eye region and the left eye region are detected, information indicating the orientation of the face is detected from the image data of the face, information indicating the position of the right eye included in the right eye region, and information indicating the position of the right eye included in the left eye region and the left eye included in the left eye region. Both visual line detection units that detect information indicating the line of sight of the person by the first process using the information indicating the position and the information indicating the direction of the face, and
When only one eye region of the right eye region or the left eye region is detected, information indicating the position of one eye included in the one eye region and the one eye rather than the position of the inner corner of the one eye. Based on the information indicating the position of the predetermined portion of the face existing on the outer corner of the eye, the information indicating the orientation of the face is detected, and the information indicating the position of one of the eyes and the information indicating the orientation of the face are By the second process using the above, it is made to function as a one-sided visual line detection unit that detects information indicating the person's line of sight.
In the second process, (1) the predetermined portion is detected from the image data of the face, and (2) the one eye is based on the image data of the face and the information indicating the position of the one eye. A contour point indicating a point on the contour line of the face existing on the inner corner side of the eye with respect to the position of the outer corner of the eye is detected, and (3) the first distance from the position of the one eye to the contour point. , Information indicating the orientation of the face is detected based on the second distance from the position of the one eye to the position of the predetermined portion, and (4) the information indicating the position of the one eye and the face. This is a process of detecting information indicating the line of sight of the person based on the information indicating the direction of the person.
Control program.
JP2020103649A 2020-06-16 2020-06-16 Eye gaze detection method, eye gaze detection device, and control program Active JP6745518B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020103649A JP6745518B1 (en) 2020-06-16 2020-06-16 Eye gaze detection method, eye gaze detection device, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020103649A JP6745518B1 (en) 2020-06-16 2020-06-16 Eye gaze detection method, eye gaze detection device, and control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019205364A Division JP6725121B1 (en) 2019-11-13 2019-11-13 Eye gaze detection method, eye gaze detection device, and control program

Publications (2)

Publication Number Publication Date
JP6745518B1 JP6745518B1 (en) 2020-08-26
JP2021077333A true JP2021077333A (en) 2021-05-20

Family

ID=72146292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020103649A Active JP6745518B1 (en) 2020-06-16 2020-06-16 Eye gaze detection method, eye gaze detection device, and control program

Country Status (1)

Country Link
JP (1) JP6745518B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117063113A (en) * 2021-03-30 2023-11-14 索尼集团公司 Information processing device, information processing method, and program
KR102587813B1 (en) * 2021-04-08 2023-10-12 주식회사 이모코그 Apparatus and method for gaze tracking based on machine learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104524A (en) * 2007-10-25 2009-05-14 Hitachi Ltd Gaze direction measuring method and gaze direction measuring device
JP2010081260A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program therefor
JP2019205364A (en) * 2018-05-28 2019-12-05 株式会社Ihiアグリテック Coupling tool for agricultural implement

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104524A (en) * 2007-10-25 2009-05-14 Hitachi Ltd Gaze direction measuring method and gaze direction measuring device
JP2010081260A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program therefor
JP2019205364A (en) * 2018-05-28 2019-12-05 株式会社Ihiアグリテック Coupling tool for agricultural implement

Also Published As

Publication number Publication date
JP6745518B1 (en) 2020-08-26

Similar Documents

Publication Publication Date Title
WO2021095277A1 (en) Line-of-sight detection method, line-of-sight detection device, and control program
CN108427503B (en) Human eye tracking method and human eye tracking device
JP5602155B2 (en) User interface device and input method
US9454220B2 (en) Method and system of augmented-reality simulations
TWI704501B (en) Electronic apparatus operated by head movement and operation method thereof
CN116324677A (en) Non-contact photo capture in response to detected gestures
JP5578603B2 (en) Gaze control device, gaze control method, and program thereof
WO2014128751A1 (en) Head mount display apparatus, head mount display program, and head mount display method
JP6745518B1 (en) Eye gaze detection method, eye gaze detection device, and control program
Chen et al. Real-time eye localization, blink detection, and gaze estimation system without infrared illumination
JP6221292B2 (en) Concentration determination program, concentration determination device, and concentration determination method
US20220075983A1 (en) Image processing method, image processing device, and non-transitory computer readable storage medium
US11615549B2 (en) Image processing system and image processing method
US20190369807A1 (en) Information processing device, information processing method, and program
JPWO2018220963A1 (en) Information processing apparatus, information processing method, and program
JP6755529B1 (en) Information processing method, information processing device, and control program
JP6721169B1 (en) Image processing method, image processing apparatus, and image processing program
JP6757949B1 (en) Image processing method, image processing device, and image processing program
JP6802549B1 (en) Information processing method, information processing device, and control program
CN110858095A (en) Electronic device capable of being controlled by head and operation method thereof
WO2022185596A1 (en) Estimation system, estimation method, and program
WO2024021251A1 (en) Identity verification method and apparatus, and electronic device and storage medium
WO2021245823A1 (en) Information acquisition device, information acquisition method, and recording medium
JP2020149216A (en) Information processing device, information processing method, and program
CN113519154A (en) Detecting eye tracking calibration errors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200616

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6745518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250