JP7808325B2 - 瞳孔検出装置および瞳孔検出方法 - Google Patents
瞳孔検出装置および瞳孔検出方法Info
- Publication number
- JP7808325B2 JP7808325B2 JP2022029876A JP2022029876A JP7808325B2 JP 7808325 B2 JP7808325 B2 JP 7808325B2 JP 2022029876 A JP2022029876 A JP 2022029876A JP 2022029876 A JP2022029876 A JP 2022029876A JP 7808325 B2 JP7808325 B2 JP 7808325B2
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- image
- subject
- face image
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
まず、図1~4を用いて、実施形態に係る瞳孔検出装置である視線検出装置1の構成を説明する。視線検出装置1は、対象者の顔を撮像することで対象者の瞳孔及び角膜反射を検出し、その検出結果を利用して対象者の視線方向を検出するコンピュータシステムであり、この装置により、本実施形態に係る瞳孔検出方法が実施される。対象者とは、視線方向を検出する対象となる人であり、被験者ともいうことができる。視線検出装置1および瞳孔検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者のサイドミラーやルームミラーの安全確認動作の確認、運転者の眠気の検出、商品の興味の度合いの調査、アミューズメント装置等に利用されるコンピュータへのデータ入力、乳幼児の自閉症診断等の診断用装置、遠隔地間で利用されるコミュニケーションシステム、遠隔で事象を観察する観察装置などに視線検出装置1を利用することができる。
Claims (11)
- 対象者の顔を撮像することにより顔画像を連続したタイミングで取得するカメラと、
前記対象者の顔に向けて光を照射する光源と、
前記光の照射タイミングで前記カメラによって取得された顔画像を処理する演算装置とを備え、
前記演算装置は、
前記顔画像上で対象者の瞳孔の位置を検出する瞳孔位置検出部と、
前記顔画像上で閉眼状態における前記顔の特徴部の位置を探索することにより、対象者の閉眼中の瞳孔の位置を予測する瞳孔位置予測部と、を有し、
前記瞳孔位置検出部は、前記瞳孔位置予測部によって予測された前記瞳孔の位置を利用して前記瞳孔を追尾することにより、前記瞳孔の位置を検出し、
前記瞳孔位置予測部は、ニューラルネットワークを用いた機械学習モデルにより前記瞳孔の位置を予測し、前記顔画像を切り出した部分画像を入力データとして前記機械学習モデルに入力し、前記機械学習モデルを用いて、前記顔の特徴部が含まれる部分画像の位置を探索することにより、前記瞳孔の位置を予測し、
前記演算装置は、前記対象者の閉眼時に取得された前記顔画像を、前記対象者の閉眼直前に前記瞳孔位置検出部によって検出された前記瞳孔の位置を基準に切り出し、切り出した前記顔画像をトレーニングデータとして用いて、前記機械学習モデルを学習させるモデル学習部をさらに有する、
瞳孔検出装置。 - 前記顔の特徴部は、前記対象者の目の特徴部である、
請求項1記載の瞳孔検出装置。 - 前記瞳孔位置予測部は、部分画像を前記顔の特徴部の全体を含むサイズで切り出す、
請求項1又は2に記載の瞳孔検出装置。 - 前記演算装置は、前記カメラから前記瞳孔までの距離を検出する瞳孔距離検出部をさらに有し、
前記瞳孔位置予測部は、前記入力データとしての前記部分画像の切り出しのサイズを、前記瞳孔の距離に応じて可変に設定する、
請求項1~3のいずれか1項に記載の瞳孔検出装置。 - 前記演算装置は、前記カメラから前記瞳孔までの距離を検出する瞳孔距離検出部をさらに有し、
前記モデル学習部は、トレーニングデータとしての前記顔画像の切り出しのサイズを、前記瞳孔の距離に応じて可変に設定する、
請求項1~3のいずれか1項に記載の瞳孔検出装置。 - 前記モデル学習部は、切り出した前記顔画像の中から前記顔の特徴部の存在する領域を特定し、特定した前記領域を基にトレーニングデータとしての前記顔画像の切り出しのサイズを設定する、
請求項1~3のいずれか1項に記載の瞳孔検出装置。 - 前記モデル学習部は、切り出した前記顔画像の中から前記顔の特徴部の存在する領域を特定し、特定した前記領域が画像の中央に位置するようにトレーニングデータとしての前記顔画像の切り出しの位置を設定する、
請求項1又は6に記載の瞳孔検出装置。 - 前記機械学習モデルは、前記対象者の閉眼直前に前記瞳孔位置検出部によって検出された前記瞳孔の位置を基準に切り出した前記顔画像に対する、前記顔の特徴部が含まれる部分画像の位置のずれ量を予測するモデルであり、
前記モデル学習部は、前記切り出した前記顔画像をずらしながらシフト画像を生成し、前記シフト画像と当該シフト画像のずれ量とをトレーニングデータとして用いて、前記機械学習モデルを学習させる、
請求項1又は5に記載の瞳孔検出装置。 - 対象者の顔を撮像することにより顔画像を連続したタイミングで取得するカメラと、
前記対象者の顔に向けて光を照射する光源と、
前記光の照射タイミングで前記カメラによって取得された顔画像を処理する演算装置とを備え、
前記演算装置は、
前記顔画像上で対象者の瞳孔の位置を検出する瞳孔位置検出部と、
前記顔画像上で閉眼状態における前記顔の特徴部の位置を探索することにより、対象者の閉眼中の瞳孔の位置を予測する瞳孔位置予測部と、を有し、
前記瞳孔位置検出部は、前記瞳孔位置予測部によって予測された前記瞳孔の位置を利用して前記瞳孔を追尾することにより、前記瞳孔の位置を検出し、
連続したフレームの前記顔画像上で検出された前記瞳孔の位置を用いて前記瞳孔の位置を追尾することにより、前記瞳孔の位置を検出し、直前のフレームの前記顔画像上で前記瞳孔の位置の検出が失敗した場合、前記瞳孔位置予測部によって予測された前記瞳孔の位置を利用して前記瞳孔の位置を追尾し、
前記対象者が閉眼した後に再度開眼した際に、前記対象者の閉眼したタイミングで前記瞳孔位置予測部によって予測された前記瞳孔の位置を基に前記顔画像上のウィンドウを設定することにより、前記瞳孔の位置を検出する、
瞳孔検出装置。 - 対象者の顔を撮像することにより顔画像を連続したタイミングで取得するカメラと、前記対象者の顔に向けて光を照射する光源と、前記光の照射タイミングで前記カメラによって取得された顔画像を処理する演算装置とを用いた瞳孔検出方法であって、
前記演算装置が、前記顔画像上で対象者の瞳孔の位置を検出する瞳孔位置検出ステップと、
前記演算装置が、前記顔画像上で閉眼状態における前記顔の特徴部の位置を探索することにより、対象者の閉眼中の瞳孔の位置を予測する瞳孔位置予測ステップと、を有し、
前記瞳孔位置検出ステップでは、前記瞳孔位置予測ステップによって予測された前記瞳孔の位置を利用して前記瞳孔を追尾することにより、前記瞳孔の位置を検出し、
前記瞳孔位置予測ステップでは、ニューラルネットワークを用いた機械学習モデルにより前記瞳孔の位置を予測し、前記顔画像を切り出した部分画像を入力データとして前記機械学習モデルに入力し、前記機械学習モデルを用いて、前記顔の特徴部が含まれる部分画像の位置を探索することにより、前記瞳孔の位置を予測し、
前記演算装置が、前記対象者の閉眼時に取得された前記顔画像を、前記対象者の閉眼直前に前記瞳孔位置検出ステップによって検出された前記瞳孔の位置を基準に切り出し、切り出した前記顔画像をトレーニングデータとして用いて、前記機械学習モデルを学習させるモデル学習ステップをさらに有する、
瞳孔検出方法。 - 対象者の顔を撮像することにより顔画像を連続したタイミングで取得するカメラと、前記対象者の顔に向けて光を照射する光源と、前記光の照射タイミングで前記カメラによって取得された顔画像を処理する演算装置とを用いた瞳孔検出方法であって、
前記演算装置が、前記顔画像上で対象者の瞳孔の位置を検出する瞳孔位置検出ステップと、
前記演算装置が、前記顔画像上で閉眼状態における前記顔の特徴部の位置を探索することにより、対象者の閉眼中の瞳孔の位置を予測する瞳孔位置予測ステップと、を有し、
前記瞳孔位置検出ステップでは、前記瞳孔位置予測ステップによって予測された前記瞳孔の位置を利用して前記瞳孔を追尾することにより、前記瞳孔の位置を検出し、
連続したフレームの前記顔画像上で検出された前記瞳孔の位置を用いて前記瞳孔の位置を追尾することにより、前記瞳孔の位置を検出し、直前のフレームの前記顔画像上で前記瞳孔の位置の検出が失敗した場合、前記瞳孔位置予測ステップによって予測された前記瞳孔の位置を利用して前記瞳孔の位置を追尾し、
前記対象者が閉眼した後に再度開眼した際に、前記対象者の閉眼したタイミングで前記瞳孔位置予測ステップによって予測された前記瞳孔の位置を基に前記顔画像上のウィンドウを設定することにより、前記瞳孔の位置を検出する、
瞳孔検出方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022029876A JP7808325B2 (ja) | 2022-02-28 | 2022-02-28 | 瞳孔検出装置および瞳孔検出方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022029876A JP7808325B2 (ja) | 2022-02-28 | 2022-02-28 | 瞳孔検出装置および瞳孔検出方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023125652A JP2023125652A (ja) | 2023-09-07 |
| JP7808325B2 true JP7808325B2 (ja) | 2026-01-29 |
Family
ID=87887158
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022029876A Active JP7808325B2 (ja) | 2022-02-28 | 2022-02-28 | 瞳孔検出装置および瞳孔検出方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7808325B2 (ja) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016110444A (ja) | 2014-12-08 | 2016-06-20 | 国立大学法人静岡大学 | 眼球識別装置及び眼球識別方法 |
| US20170188823A1 (en) | 2015-09-04 | 2017-07-06 | University Of Massachusetts | Eye tracker system and methods for detecting eye parameters |
| JP2019028843A (ja) | 2017-08-01 | 2019-02-21 | オムロン株式会社 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
| JP2021166031A (ja) | 2020-04-02 | 2021-10-14 | 京セラ株式会社 | 検出装置および画像表示モジュール |
| WO2022003013A1 (en) | 2020-07-03 | 2022-01-06 | Inivation Ag | Eye tracking device, eye tracking method, and computer-readable medium |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0944680A (ja) * | 1995-07-26 | 1997-02-14 | Mitsubishi Electric Corp | 動画像の目領域抽出装置 |
-
2022
- 2022-02-28 JP JP2022029876A patent/JP7808325B2/ja active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016110444A (ja) | 2014-12-08 | 2016-06-20 | 国立大学法人静岡大学 | 眼球識別装置及び眼球識別方法 |
| US20170188823A1 (en) | 2015-09-04 | 2017-07-06 | University Of Massachusetts | Eye tracker system and methods for detecting eye parameters |
| JP2019028843A (ja) | 2017-08-01 | 2019-02-21 | オムロン株式会社 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
| JP2021166031A (ja) | 2020-04-02 | 2021-10-14 | 京セラ株式会社 | 検出装置および画像表示モジュール |
| WO2022003013A1 (en) | 2020-07-03 | 2022-01-06 | Inivation Ag | Eye tracking device, eye tracking method, and computer-readable medium |
Non-Patent Citations (3)
| Title |
|---|
| Kan Naoyuki et al.,"Effectiveness of Data Augmentation for CNN-Based Pupil Center Point Detection",2018 57th Annual Conference of the Society of Instrument and Control Engineers of Japan (SICE)[online],IEEE,2018年,pp.41-46,[検索日 2025.10.24], インターネット:<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8492593>,DOI: 10.23919/SICE.2018.8492593 |
| Kumar Nishant et al.,"A novel approach to video-based pupil tracking",2009 IEEE International Conference on Systems, Man and Cybernetics[online],IEEE,2009年,pp.1255-1262,[検索日 2025.10.24], インターネット:<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5345909>,DOI: 10.1109/ICSMC.2009.5345909 |
| 北角一哲 外2名,深層学習を用いた可視光画像からの瞳孔検出と注視点推定への応用,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2018-CVIM-210 [online],日本,情報処理学会,2018年01月11日,pp.1~7 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023125652A (ja) | 2023-09-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7043056B2 (en) | Facial image processing system | |
| US10521683B2 (en) | Glare reduction | |
| JP7591551B2 (ja) | 1つ以上の眼追跡カメラを用いた眼回転中心の決定 | |
| US10878237B2 (en) | Systems and methods for performing eye gaze tracking | |
| Noureddin et al. | A non-contact device for tracking gaze in a human computer interface | |
| US20220301218A1 (en) | Head pose estimation from local eye region | |
| US11435820B1 (en) | Gaze detection pipeline in an artificial reality system | |
| JP2023181496A (ja) | 眼姿勢を推定するためのシステムおよび技法 | |
| EP3542308B1 (en) | Method and device for eye metric acquisition | |
| JP7030317B2 (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
| JP5001930B2 (ja) | 動作認識装置及び方法 | |
| CN113963416A (zh) | 一种基于激光视觉反馈的眼动交互方法及系统 | |
| JP2008136789A (ja) | 眼球パラメータ推定装置及び方法 | |
| JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
| US20250182300A1 (en) | Methods and systems for gaze tracking using one corneal reflection | |
| JP7808325B2 (ja) | 瞳孔検出装置および瞳孔検出方法 | |
| Malakhova et al. | Temporal data processing from webcam eye tracking using artificial neural networks | |
| US12080103B2 (en) | Eyeball detection device, eye-gaze tracking device, eyeball detection method, and medium | |
| JP7269617B2 (ja) | 顔画像処理装置、画像観察システム、及び瞳孔検出システム | |
| KR100338805B1 (ko) | 졸음 레벨 검출 방법 | |
| Von Seelen et al. | A neural architecture for visual information processing | |
| JP2016045707A (ja) | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム | |
| TWI907226B (zh) | 取得眼睛注視點的方法與測試系統 | |
| Schneider et al. | Vision system for wearable and robotic uses | |
| CN119440244A (zh) | 基于3D姿态与6DoF定位的视线跟踪方法与系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250212 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20251024 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20251104 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20260106 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20260109 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7808325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |