JP6932742B2 - 深層学習モデルを利用して、眼球状態を検出する眼球状態検出システム及びその眼球状態検出システムを動作させる方法 - Google Patents
深層学習モデルを利用して、眼球状態を検出する眼球状態検出システム及びその眼球状態検出システムを動作させる方法 Download PDFInfo
- Publication number
- JP6932742B2 JP6932742B2 JP2019111061A JP2019111061A JP6932742B2 JP 6932742 B2 JP6932742 B2 JP 6932742B2 JP 2019111061 A JP2019111061 A JP 2019111061A JP 2019111061 A JP2019111061 A JP 2019111061A JP 6932742 B2 JP6932742 B2 JP 6932742B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- matrix
- eye
- detected
- eyeball
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000005252 bulbus oculi Anatomy 0.000 title claims description 102
- 238000001514 detection method Methods 0.000 title claims description 30
- 238000013136 deep learning model Methods 0.000 title claims description 20
- 238000000034 method Methods 0.000 title claims description 20
- 210000001508 eye Anatomy 0.000 claims description 83
- 239000011159 matrix material Substances 0.000 claims description 73
- 230000009466 transformation Effects 0.000 claims description 46
- 230000001815 facial effect Effects 0.000 claims description 25
- 238000013135 deep learning Methods 0.000 claims description 24
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims 3
- 238000004590 computer program Methods 0.000 claims 2
- 238000009377 nuclear transmutation Methods 0.000 claims 1
- 101150071665 img2 gene Proteins 0.000 description 16
- 101150013335 img1 gene Proteins 0.000 description 13
- 230000004399 eye closure Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
- A61B3/145—Arrangements specially adapted for eye photography by video means
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0037—Performing a preliminary scan, e.g. a prescan for identifying a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1103—Detecting eye twinkling
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Fuzzy Systems (AREA)
- Optics & Photonics (AREA)
Description
画像プロセッサが、検出されるべき画像を受信するステップと、
前記画像プロセッサが、複数の顔面特徴点にしたがって、検出されるべき前記画像から眼球領域を識別するステップと、
前記画像プロセッサが、前記眼球領域に対して画像登録(画像位置合わせ)(image registration)を実行して、検出されるべき正規化された眼球画像を生成するステップと、
深層学習プロセッサが、深層学習モデルにしたがって、検出されるべき前記正規化された眼球画像から、複数の眼球特徴を抽出するステップと、
前記深層学習プロセッサが、前記複数の眼球特徴及び前記深層学習モデルの中の複数のトレーニングサンプルにしたがって、前記眼球領域の中の眼球状態を出力するステップと、を含む。
Claims (9)
- 眼球状態検出システムを動作させる方法であって、前記眼球状態検出システムは、画像プロセッサ及び深層学習プロセッサを含み、当該方法は、
前記画像プロセッサが、検出されるべき画像を受信するステップと、
前記画像プロセッサが、複数の顔面特徴点にしたがって、検出されるべき前記画像から眼球領域を識別するステップと、
前記画像プロセッサが、検出されるべき前記受信した画像の中の前記識別した眼球領域に対してアフィン変換演算を実行して、前記識別した眼球領域が、検出されるべき変換された画像の中で特定のサイズ及び特定の方向を有することを可能にすることによって、前記眼球領域に対して画像登録を実行して、検出されるべき正規化された眼球画像を生成するステップと、
前記深層学習プロセッサが、深層学習モデルにしたがって、検出されるべき前記正規化された眼球画像から、複数の眼球特徴を抽出するステップと、
前記深層学習プロセッサが、前記複数の眼球特徴及び前記深層学習モデルの中の複数のトレーニングサンプルにしたがって、前記眼球領域の中の眼球状態を出力するステップと、を含み、
前記画像プロセッサが、検出されるべき前記受信した画像の中の前記識別した眼球領域に対してアフィン変換演算を実行する前記ステップは、
前記画像プロセッサが、前記眼球領域の眼球端部の座標行列を定義するステップと、
前記画像プロセッサが、前記眼球端部の座標行列にしたがって、ターゲット変換行列を定義するステップであって、前記ターゲット変換行列は、検出されるべき前記正規化された眼球画像の変換された眼球端部の座標を含む、ステップと、
前記画像プロセッサが、前記ターゲット変換行列の転置行列と前記ターゲット変換行列とを乗算して、第1の行列を生成するステップと、
前記画像プロセッサが、前記第1の行列の逆行列に前記ターゲット変換行列の前記転置行列及び前記眼球端部の座標行列を乗算して、アフィン変換パラメータ行列を生成するステップと、
前記画像プロセッサが、前記アフィン変換パラメータ行列を使用することによって、前記眼球領域を処理して、検出されるべき前記正規化された眼球画像を生成するステップと、を含む、
方法。 - 前記画像プロセッサが、前記複数の顔面特徴点にしたがって、検出されるべき前記画像から前記眼球領域を識別する前記ステップは、
前記複数の顔面特徴点にしたがって、検出されるべき前記画像から、顔面領域を識別するステップと、
複数の眼球重要点にしたがって、前記顔面領域から前記眼球領域を識別するステップと、を含む、請求項1に記載の方法。 - 前記深層学習モデルは、畳み込みニューラルネットワークである、請求項1に記載の方法。
- 前記ターゲット変換行列及び前記アフィン変換パラメータ行列の積が、前記眼球端部の座標行列である、請求項1に記載の方法。
- 眼球状態検出システムであって、
検出されるべき画像を受信し、複数の顔面特徴点にしたがって、検出されるべき前記画像から眼球領域を識別し、そして、検出されるべき前記受信した画像の中の前記識別した眼球領域に対してアフィン変換演算を実行して、前記識別した眼球領域が、検出されるべき変換された画像の中で特定のサイズ及び特定の方向を有することを可能にすることによって、前記眼球領域に対して画像登録を実行して、検出されるべき正規化された眼球画像を生成する、ように構成される画像プロセッサと、
深層学習モデルにしたがって、検出されるべき前記正規化された眼球画像から、複数の眼球特徴を抽出し、そして、前記複数の眼球特徴及び前記深層学習モデルの中の複数のトレーニングサンプルにしたがって、前記眼球領域の中の眼球状態を出力する、ように構成される深層学習プロセッサと、を含み、
前記画像プロセッサは、前記眼球領域の眼球端部の座標行列を定義し、前記眼球端部の座標行列にしたがって、ターゲット変換行列を定義し、前記ターゲット変換行列の転置行列と前記ターゲット変換行列とを乗算して、第1の行列を生成し、前記第1の行列の逆行列に前記ターゲット変換行列の前記転置行列及び前記眼球端部の座標行列を乗算して、アフィン変換パラメータ行列を生成し、そして、前記アフィン変換パラメータ行列を使用することによって、前記眼球領域を処理して、検出されるべき前記正規化された眼球画像を生成する、ように構成され、前記ターゲット変換行列は、検出されるべき前記正規化された眼球画像の変換された眼球端部の座標を含む、
眼球状態検出システム。 - 前記画像プロセッサは、前記複数の顔面特徴点にしたがって、検出されるべき前記画像から、顔面領域を識別し、そして、複数の眼球重要点にしたがって、前記顔面領域から前記眼球領域を識別する、ように構成される、請求項5に記載の眼球状態検出システム。
- 前記深層学習モデルは、畳み込みニューラルネットワークである、請求項5に記載の眼球状態検出システム。
- 前記ターゲット変換行列及び前記アフィン変換パラメータ行列の積が、前記眼球端部の座標行列である、請求項5に記載の眼球状態検出システム。
- コンピュータ実行可能な命令を含むコンピュータプログラムであって、前記コンピュータ実行可能な命令が眼球状態検出システムの画像プロセッサ及び深層学習プロセッサで実行されると、前記コンピュータ実行可能な命令は、
前記画像プロセッサが、検出されるべき画像を受信するステップと、
前記画像プロセッサが、複数の顔面特徴点にしたがって、検出されるべき前記画像から眼球領域を識別するステップと、
前記画像プロセッサが、検出されるべき前記受信した画像の中の前記識別した眼球領域に対してアフィン変換演算を実行して、前記識別した眼球領域が、検出されるべき変換された画像の中で特定のサイズ及び特定の方向を有することを可能にすることによって、前記眼球領域に対して画像登録を実行して、検出されるべき正規化された眼球画像を生成するステップと、
前記深層学習プロセッサが、深層学習モデルにしたがって、検出されるべき前記正規化された眼球画像から、複数の眼球特徴を抽出するステップと、
前記深層学習プロセッサが、前記複数の眼球特徴及び前記深層学習モデルの中の複数のトレーニングサンプルにしたがって、前記眼球領域の中の眼球状態を出力するステップと、を含み、
前記画像プロセッサが、検出されるべき前記受信した画像の中の前記識別した眼球領域に対してアフィン変換演算を実行する前記ステップは、
前記画像プロセッサが、前記眼球領域の眼球端部の座標行列を定義するステップと、
前記画像プロセッサが、前記眼球端部の座標行列にしたがって、ターゲット変換行列を定義するステップであって、前記ターゲット変換行列は、検出されるべき前記正規化された眼球画像の変換された眼球端部の座標を含む、ステップと、
前記画像プロセッサが、前記ターゲット変換行列の転置行列と前記ターゲット変換行列とを乗算して、第1の行列を生成するステップと、
前記画像プロセッサが、前記第1の行列の逆行列に前記ターゲット変換行列の前記転置行列及び前記眼球端部の座標行列を乗算して、アフィン変換パラメータ行列を生成するステップと、
前記画像プロセッサが、前記アフィン変換パラメータ行列を使用することによって、前記眼球領域を処理して、検出されるべき前記正規化された眼球画像を生成するステップと、を含む、方法を前記眼球状態検出システムに実行させる、
コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811071988.5A CN110909561A (zh) | 2018-09-14 | 2018-09-14 | 眼睛状态检测系统及眼睛状态检测系统的操作方法 |
CN201811071988.5 | 2018-09-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047253A JP2020047253A (ja) | 2020-03-26 |
JP6932742B2 true JP6932742B2 (ja) | 2021-09-08 |
Family
ID=68316760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019111061A Active JP6932742B2 (ja) | 2018-09-14 | 2019-06-14 | 深層学習モデルを利用して、眼球状態を検出する眼球状態検出システム及びその眼球状態検出システムを動作させる方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200085296A1 (ja) |
JP (1) | JP6932742B2 (ja) |
KR (1) | KR102223478B1 (ja) |
CN (1) | CN110909561A (ja) |
TW (1) | TWI669664B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111243236A (zh) * | 2020-01-17 | 2020-06-05 | 南京邮电大学 | 一种基于深度学习的疲劳驾驶预警方法及系统 |
US11775494B2 (en) * | 2020-05-12 | 2023-10-03 | Hubspot, Inc. | Multi-service business platform system having entity resolution systems and methods |
KR102477694B1 (ko) | 2022-06-29 | 2022-12-14 | 주식회사 타이로스코프 | 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템 |
WO2023277622A1 (ko) | 2021-06-30 | 2023-01-05 | 주식회사 타이로스코프 | 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템 |
WO2023277548A1 (ko) | 2021-06-30 | 2023-01-05 | 주식회사 타이로스코프 | 안구의 돌출도 분석을 위한 측면 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체 |
WO2023277589A1 (ko) | 2021-06-30 | 2023-01-05 | 주식회사 타이로스코프 | 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템 |
CN114820513A (zh) * | 2022-04-25 | 2022-07-29 | 深圳市迪佳医疗智能科技有限公司 | 视力检测方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4435809B2 (ja) * | 2002-07-08 | 2010-03-24 | 株式会社東芝 | 仮想化粧装置及びその方法 |
JP2007265367A (ja) * | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
JP2008167028A (ja) * | 2006-12-27 | 2008-07-17 | Nikon Corp | 撮像装置 |
JP4974788B2 (ja) * | 2007-06-29 | 2012-07-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、及び記憶媒体 |
JP5121506B2 (ja) * | 2008-02-29 | 2013-01-16 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP5138431B2 (ja) * | 2008-03-17 | 2013-02-06 | 富士フイルム株式会社 | 画像解析装置および方法並びにプログラム |
TWM364858U (en) * | 2008-11-28 | 2009-09-11 | Shen-Jwu Su | A drowsy driver with IR illumination detection device |
JP6762794B2 (ja) * | 2016-07-29 | 2020-09-30 | アルパイン株式会社 | 瞼開閉検出装置および瞼開閉検出方法 |
CN109416727B (zh) * | 2016-10-18 | 2022-04-05 | 华为技术有限公司 | 一种人脸图像中眼镜去除方法及装置 |
CN106650688A (zh) * | 2016-12-30 | 2017-05-10 | 公安海警学院 | 基于卷积神经网络的眼部特征检测方法,装置及识别系统 |
CN108294759A (zh) * | 2017-01-13 | 2018-07-20 | 天津工业大学 | 一种基于cnn眼部状态识别的驾驶员疲劳检测方法 |
KR101862639B1 (ko) * | 2017-05-30 | 2018-07-04 | 동국대학교 산학협력단 | 나선 신경망 기법을 이용한 홍채 인식 장치 및 방법 |
CN107944415A (zh) * | 2017-12-06 | 2018-04-20 | 董伟 | 一种基于深度学习算法的人眼注意力检测方法 |
-
2018
- 2018-09-14 CN CN201811071988.5A patent/CN110909561A/zh active Pending
- 2018-12-11 TW TW107144516A patent/TWI669664B/zh active
- 2018-12-12 US US16/217,051 patent/US20200085296A1/en not_active Abandoned
-
2019
- 2019-03-28 KR KR1020190035786A patent/KR102223478B1/ko active IP Right Grant
- 2019-06-14 JP JP2019111061A patent/JP6932742B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20200085296A1 (en) | 2020-03-19 |
TWI669664B (zh) | 2019-08-21 |
KR102223478B1 (ko) | 2021-03-04 |
KR20200031503A (ko) | 2020-03-24 |
CN110909561A (zh) | 2020-03-24 |
TW202011284A (zh) | 2020-03-16 |
JP2020047253A (ja) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6932742B2 (ja) | 深層学習モデルを利用して、眼球状態を検出する眼球状態検出システム及びその眼球状態検出システムを動作させる方法 | |
WO2019128508A1 (zh) | 图像处理方法、装置、存储介质及电子设备 | |
KR102299847B1 (ko) | 얼굴 인증 방법 및 장치 | |
WO2020125623A1 (zh) | 活体检测方法、装置、存储介质及电子设备 | |
CN109952594B (zh) | 图像处理方法、装置、终端及存储介质 | |
KR101141643B1 (ko) | 캐리커쳐 생성 기능을 갖는 이동통신 단말기 및 이를 이용한 생성 방법 | |
JP5757063B2 (ja) | 情報処理装置および方法、並びにプログラム | |
KR101612605B1 (ko) | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 | |
US20210319585A1 (en) | Method and system for gaze estimation | |
WO2016089529A1 (en) | Technologies for learning body part geometry for use in biometric authentication | |
CN111563480A (zh) | 冲突行为检测方法、装置、计算机设备和存储介质 | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
CN112183200B (zh) | 一种基于视频图像的眼动追踪方法和系统 | |
CN111183455A (zh) | 图像数据处理系统与方法 | |
JP2014194617A (ja) | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム | |
CN112001285B (zh) | 一种美颜图像的处理方法、装置、终端和介质 | |
JP2007052609A (ja) | 手領域検出装置及び手領域検出方法、並びにプログラム | |
CN111639582B (zh) | 活体检测方法及设备 | |
CN112541394A (zh) | 黑眼圈及鼻炎识别方法、系统及计算机介质 | |
CN113409329B (zh) | 图像处理方法、图像处理装置、终端及可读存储介质 | |
US11048926B2 (en) | Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms | |
WO2018051836A1 (ja) | 虹彩検出装置、虹彩検出方法、虹彩検出プログラム、及び虹彩検出プログラムを記録した記録媒体 | |
US20230284968A1 (en) | System and method for automatic personalized assessment of human body surface conditions | |
CN110110742B (zh) | 多特征融合方法、装置、电子设备及存储介质 | |
JP4011426B2 (ja) | 顔検出装置、顔検出方法および顔検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201026 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210531 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210531 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210608 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6932742 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |