JP2021531601A - ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器 - Google Patents

ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器 Download PDF

Info

Publication number
JP2021531601A
JP2021531601A JP2021524087A JP2021524087A JP2021531601A JP 2021531601 A JP2021531601 A JP 2021531601A JP 2021524087 A JP2021524087 A JP 2021524087A JP 2021524087 A JP2021524087 A JP 2021524087A JP 2021531601 A JP2021531601 A JP 2021531601A
Authority
JP
Japan
Prior art keywords
image
coordinate system
line
camera coordinate
sight direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021524087A
Other languages
English (en)
Inventor
王▲飛▼
黄▲詩▼▲堯▼
▲錢▼晨
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2021531601A publication Critical patent/JP2021531601A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本願はニューラルネットワーク訓練方法、視線検出方法及び装置並びに電子機器を開示する。該ニューラルネットワーク訓練方法は、第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定することであって、前記第1画像は少なくとも眼部画像を含む、ことと、前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定することと、ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得ることと、前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練することと、を含む。

Description

(関連出願の相互参照)
本願は、2018年09月29日に提出された出願番号201811155648.0の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、コンピュータ技術分野に関し、特にニューラルネットワーク訓練方法及び装置、視線検出方法及び装置、電子機器並びにコンピュータ可読記憶媒体に関する。
視線検出は、運転者モニタリング及びセキュリティモニタリングなどの用途において重要な役割を果たしている。視線検出は、三次元空間における目の注視方向を検出する技術である。ヒューマンインタラクションにおいて、空間における目の三次元位置に対して位置決めを行い、三次元視線方向を参照することで、三次元空間における人の注視点の位置を得て機器に出力し、更にインタラクション処理を行う。
本願は、ニューラルネットワーク訓練の技術的解決手段及び視線検出の技術的解決手段を提供する。
第1態様によれば、本願の実施例は、ニューラルネットワーク訓練方法を提供する。該方法は、第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定することであって、前記第1画像は少なくとも眼部画像を含む、ことと、前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定することと、ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得ることと、前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練することと、を含む。
第2態様によれば、本願の実施例は、視線検出方法を提供する。該方法は、ビデオストリームデータに含まれる第2画像に対して顔検出を行うことと、検出された前記第2画像における顔領域に対してキーポイント位置決めを行い、前記顔領域における眼部領域を決定することと、前記第2画像における前記眼部領域画像を切り取ることと、前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力することと、を含む。
第3態様によれば、本願の実施例は、ニューラルネットワーク訓練装置を提供する。該装置は、第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定するように構成される第1決定ユニットであって、前記第1画像は少なくとも眼部画像を含む、第1決定ユニットと、前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定するように構成される第2決定ユニットと、ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得るように構成される検出ユニットと、前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練するように構成される訓練ユニットと、を備える。
第4態様によれば、本願の実施例は、視線検出装置を提供する。該装置は、ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成される顔検出ユニットと、検出された前記第2画像における顔領域に対してキーポイント位置決めを行い、前記顔領域における眼部領域を決定するように構成される第1決定ユニットと、前記第2画像における前記眼部領域画像を切り取るように構成される切取ユニットと、前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力するように構成される入力出力ユニットと、を備える。
第5態様によれば、本願の実施例は、電子機器を更に提供する。該電子機器は、プロセッサとメモリと備え、前記メモリは、前記プロセッサに結合するように構成され、前記メモリは更に、プログラム命令を記憶するように構成され、前記プロセッサは、前記電子機器による上記第1態様の方法における機能の実行をサポートするように構成される。
第6態様によれば、本願の実施例は、電子機器を更に提供する。該電子機器は、プロセッサとメモリと備え、前記メモリは、前記プロセッサに結合するように構成され、前記メモリは更に、プログラム命令を記憶するように構成され、前記プロセッサは、前記電子機器による上記第1態様の方法における機能の実行をサポートするように構成される。
第7態様によれば、本願の実施例は、視線検出システムを更に提供する。前記視線検出システムは、ニューラルネットワーク訓練装置と視線検出装置とを備え、前記ニューラルネットワーク訓練装置は前記視線検出装置と通信して接続され、前記ニューラルネットワーク訓練装置は、ニューラルネットワークを訓練するように構成され、前記視線検出装置は、前記ニューラルネットワーク訓練装置により訓練されたニューラルネットワークを適用するように構成される。
第8態様によれば、本願の実施例は、コンピュータ可読記憶媒体を更に提供する。前記コンピュータ可読記憶媒体に命令が記憶されており、該命令がコンピュータで実行される場合、コンピュータに上記各態様に記載の方法を実行させる。
第9態様によれば、本願の実施例は、命令を含むコンピュータプログラム製品を提供する。該製品がコンピュータで実行される場合、コンピュータに上記各態様に記載の方法を実行させる。
本願の実施例による視線検出方法を示すフローチャートである。 本願の実施例による顔キーポイントのシーンを示す概略図である。 本願の実施例による眼部領域画像のシーンを示す概略図である。 本願の実施例によるニューラルネットワーク訓練方法を示すフローチャートである。 本願の実施例による第1座標決定方法を示すフローチャートである。 本願の実施例による第2座標決定方法を示すフローチャートである。 本願の実施例による第1画像を示す概略図である。 本願の実施例による瞳孔基準点の決定を示す概略図である。 本願の実施例による角膜基準点の決定を示す概略図である。 本願の実施例によるニューラルネットワーク訓練方法のシーンを示す概略図である。 本願の実施例によるニューラルネットワーク訓練装置の構造を示す概略図である。 本願の実施例によるもう1つのニューラルネットワーク訓練装置の構造を示す概略図である。 本願の実施例による第1決定ユニットの構造を示す概略図である。 本願の実施例によるもう1つの第1決定ユニットの構造を示す概略図である。 本願の実施例による電子機器の構造を示す概略図である。 本願の実施例による視線検出装置の構造を示す概略図である。 本願の実施例によるもう1つの視線検出装置の構造を示す概略図である。 本願の実施例による電子機器の構造を示す概略図である。
本願の実施例又は背景技術における技術的解決手段をより明確に説明するために、以下、本願の実施例又は背景技術に必要な図面を説明する。
本願の目的、技術的解決手段及び利点をより明確にするために、以下、図面を参照しながら、本願を更に詳しく説明する。
本願の明細書、特許請求の範囲及び上記図面における用語「第1」、「第2」などは、異なる対象物を区別するためのものであり、特定の順番を記述するためのものではない。なお、用語「含む」、「有する」、およびこれらの任意の他の変形は、非排他的包含を対象とすべきことを意図されている。例えば、一連の工程又はユニットを含むプロセス、方法、システム、製品又は機器は、列挙した工程又はユニットに限定されず、幾つかの実施例において、列挙されていない工程又はユニットを更に含むか又は幾つかの実施例において、これらの工程、方法又は機器固有の他の工程又はユニットを更に含む。
本願の実施例による視線検出方法を示すフローチャートである図1を参照すると、該視線検出方法は、視線検出装置に適用可能である。該視線検出装置は、サーバと端末装置とを備えてもよい。該端末装置は、携帯電話、タブレット、デスクトップパソコン、パーソナルデジタルアシスタント、車載装置、運転者状態監視システム、テレビ、ゲーム機、娯楽装置、広告プッシュ装置などを含んでもよく、本願の実施例は、該視線検出装置の具体的な形態を一意的に限定するものではない。
図1に示すように、該視線検出方法は以下を含む。
101において、ビデオストリームデータに含まれる第2画像に対して顔検出を行う。
本願の実施例において、第2画像は、ビデオストリームデータにおける任意フレームの画像であってもよい。顔検出は、第1画像における顔が所在する位置を検出することができる。幾つかの実施例において、該視線検出装置は、顔検出を行う時、検出枠で囲まれて検出された顔画像を検出することができる。検出枠の形状は、例えば正方形、非正方形などであってもよく、本願は、これを限定するものではない。
幾つかの実施例において、該ビデオストリームデータは、視線検出装置により撮られたデータであってもよく、他の装置により撮られて該視線検出装置に送信されたデータであってもよい。本願の実施例は、該ビデオストリームデータを如何に得るかについて限定しない。
幾つかの実施例において、上記ビデオストリームデータは、車載カメラによる車両(例えば、自動車、トラック、ワゴン、トラクターなどの様々なタイプの車)の運転領域のビデオストリームであってもよい。つまり、ステップ104で出力された視線方向である上記眼部領域画像の視線方向は、上記車両の運転領域における運転者の視線方向である。該ビデオストリームデータは、車載カメラにより撮られたデータであり、該車載カメラは、視線検出装置に直接的に接続されてもよく、該視線検出装置に間接的に接続されてもよく、本願の実施例は、該車載カメラがどのような形態で存在するかについて限定しないことが理解されるべきである。
車両の運転領域のビデオストリームデータに含まれる第2画像に対して顔検出を行う時、視線検出装置は、顔検出をリアルタイムで行うことができる。また、所定の周波数又は所定の周期で顔検出を行うことおもできる。本願の実施例はこれを限定するものではない。しかしながら、視線検出装置の消費電力損失を更に避け、顔検出の効率を向上させるために、ビデオストリームデータに含まれる第2画像に対して顔検出を行うことは、トリガ命令を受信した場合、上記ビデオストリームデータに含まれる第2画像に対して顔検出を行うこと、又は、車両運転中に、上記ビデオストリームデータに含まれる第2画像に対して顔検出を行うこと、又は、車両の運転速度が基準速度に達した場合、上記ビデオストリームデータに含まれる第2画像に対して顔検出を行うことを含む。
本願の実施例において、該トリガ命令は、視線検出装置が受信した、ユーザから入力されたトリガ命令であってもよく、視線検出装置に接続される端末からのトリガ命令などであってもよく、本願の実施例は、該トリガ命令のソースを限定するものではない。
本願の実施例において、車両運転は、車両点火と理解されてもよい。つまり、視線検出装置は、車両が運転し始まったことを検出した時、取得したビデオストリームデータにおける任意のフレームの画像(第2画像を含む)について顔検出を行うことができる。
本願の実施例において、基準速度は、視線検出装置がビデオストリームデータに含まれる第2画像に対して顔検出を行うようになるために車両の運転速度がどのくらいに達する必要があるかを評価するためのものである。従って、該基準速度を具体的に限定しない。該基準速度は、ユーザにより設定されてもよく、視線検出装置に接続される車両運転速度測定用デバイスにより設定されてもよく、視線検出装置により設定されてもよい。本願の実施例はこれを限定するものではない。
102において、検出された上記第2画像における顔領域に対してキーポイント位置決めを行い、上記顔領域における眼部領域を決定する。
本願の実施例において、キーポイント位置決めを行う過程において、エッジ検出ロバート(robert)アルゴリズム、ソーベル(sobel)アルゴリズムなどのようなアルゴリズムによりキーポイント位置決めを行うことができる。また、動的輪郭ヘビ(snake)モデルなどのような関連モデルによりキーポイント位置決めを行うことができる。顔キーポイント検出のためのニューラルネットワークによりキーポイント検出出力を行うこともできる。更に、サードパーティアプリケーションにより顔キーポイント位置決めを行うこともできる。例えば、サードパーティツールキットdlibにより顔キーポイント位置決めを行うことができる。
例を挙げると、dlibは、顔キーポイント位置決め効果が高いオープンソースツールキットであって、機械学習アルゴリズムを含むC++オープンソースツールキットである。現在、ツールキットdlibは、ロボット、組み込み装置、携帯電話及び大型高性能コンピューティング環境分野に広く適用されている。従って、該ツールキットを効果的に利用して顔キーポイント位置決めを行い、顔キーポイントを得る。幾つかの実施例において、該顔キーポイントは、68個の顔キーポイントなどであってもよい。顔キーポイント位置決めにより位置決めを行う場合、各キーポイントがいずれも、画素点座標である座標を有するため、キーポイントの座標に基づいて眼部領域を決定することができる。又は、ニューラルネットワークにより顔キーポイント検出を行い、21、106又は240個のキーポイントを検出する。
例えば、本願の実施例による顔キーポイントを示す概略図である図2aから分かるように、顔キーポイントは、キーポイント0、キーポイント1……キーポイント67という68個キーポイントを含んでもよい。該68個のキーポイントのうち、36から47が眼部領域であることを決定することができる。従って、図2bに示すように、キーポイント36、キーポイント39、キーポイント37(又は38)及びキーポイント40(又は41)に基づいて左眼領域を決定することができる。また、キーポイント42と45、キーポイント43(又は44)及びキーポイント46(又は47)に基づいて右眼領域を決定することができる。幾つかの実施例において、キーポイント36と45、及びキーポイント37(又は38/43/44)と41(又は40/46/47)に基づいて眼部領域を直接的に決定することもできる。
以上は、本願の実施例で提供される眼部領域決定の例である。具体的な実現において、他のキーポイントに基づいて眼部領域を決定することもできる。本願は、これを限定するものではない。
103において、上記第2画像における上記眼部領域画像を切り取る。
本願の実施例において、顔領域の眼部領域を決定した後、眼部領域画像を切り取ることができる。図2bを例として、図面に示した2つの矩形枠により眼部領域画像を切り取ることができる。
本願の実施例は、視線検出装置による眼部領域画像の切取方法を限定するものではなく、例えば、スクリーンショットソフトウェアにより切り取ることができるが、ペイントソフトウェアにより切り取ることもできる。
104において、上記眼部領域画像を予め訓練されたニューラルネットワークに入力し、上記眼部領域画像の視線方向を出力する。
本願の実施例において、ニューラルネットワーク訓練装置は、第1視線方向を自動的に取得することができるだけでなく、大量の該第1視線方向を正確に取得することもできる。これにより、ニューラルネットワークのために、大量のデータを正確かつ確実に提供することができ、訓練効率を向上させる。従って、視線方向予測の正確性を向上させることができる。
ここで、ニューラルネットワークは、深層ニューラルネットワーク(deep neural network:DNN)又は畳み込みニューラルネットワーク(convolutional neural network:CNN)等を含み、本願の実施例は、該ニューラルネットワークの具体的な形態を限定するものではない。
本願の実施例において、該予め訓練されたニューラルネットワークは、視線検出装置により訓練されたニューラルネットワークであってもよく、ニューラルネットワーク訓練装置のような他の装置により訓練されてから、視線検出装置により該ニューラルネットワーク訓練装置から取得されたニューラルネットワークであってもよい。本願の実施例を実施し、予め訓練されたニューラルネットワークにより、ビデオストリームデータにおける任意のフレームの画像に対して視線検出を行い、視線検出の正確性を向上させることができる。また、ビデオストリームデータにおける任意のフレームの画像に対して視線検出を行うことで、視線検出装置が該視線を効果的に利用して他の操作を実行できるようになる。
幾つかの実施例において、該視線検出装置がゲーム機を含む場合、該視線検出装置は、該視線検出に基づいてゲームインタラクションを行うことで、ユーザの満足度を向上させることができる。また、該視線検出装置がテレビなどのような家電機器を含む場合、該視線検出装置は、視線検出に基づいてウェイクアップ、休眠又は他の制御などを行う。例えば、視線方向に基づいて、ユーザがテレビなどのような家電機器をオン又はオフにする必要があるかを判定することができる。本願の実施例は、これを限定するものではない。また、該視線検出装置が広告プッシュ装置を含む場合、該視線検出装置は、視線検出に基づいて広告プッシュを行うことができる。例えば、出力された視線方向に基づいて、ユーザにとって関心のある広告コンテンツを決定し、ユーザにとって関心のある広告を更にプッシュする。
以上は、本願の実施例で提供される視線検出装置が出力された視線方向に基づいて他の操作を実行する幾つかの例に過ぎず、具体的な実現において、他の例が存在することがあるため、上記例が本願の実施例を限定するものであると理解されるべきではない。
ビデオストリームデータに含まれる第2画像に対して視線検出を行う時、ニューラルネットワークから出力方向にジッタが依然として存在することがあるため、上記眼部領域画像を予め訓練されたニューラルネットワークに入力し、上記眼部領域画像の視線方向を出力した後、上記方法は、
上記眼部領域画像の視線方向及び上記第2画像の少なくとも1つの隣接フレーム画像の視線方向に基づいて、上記第2画像の視線方向を決定することを更に含む。
本願の実施例において、少なくとも1つの隣接フレーム画像は、第2画像に隣接する少なくとも1フレームの画像と理解されてもよい。例えば、第2画像の前のMフレームの画像であってもよく、第2画像の後のNフレームの画像であってもよい。該M及びNはそれぞれ1以上の整数である。例えば、第2画像は、ビデオストリームデータにおける5フレーム目の画像である場合、該視線検出装置は、4フレーム目の視線方向及び4フレーム目の視線方向に基づいて、5フレーム目の視線方向を決定することができる。
幾つかの実施例において、眼部領域画像の視線方向と第2画像の少なくとも1つの隣接フレーム画像の視線方向の平均和を第2画像の視線方向である眼部領域画像の視線方向とすることができる。このような形態によれば、得られた視線方向が、ニューラルネットワークにジッタが発生した後に予測された視線方向であることを効果的に避け、視線方向予測の正確性を効果的に向上させる。
例えば、第2画像の視線方向が(gx,gy,gz)であり、且つ該第2画像がビデオストリームデータにおけるNフレーム目の画像であり、前のN−1フレームの画像に対応する視線方向がそれぞれ(gx,gy,gz)n−1,(gx,gy,gz)n−2,…(gx,gy,gz)である場合、Nフレーム目の画像である第2画像の視線方向の演算方式は、式(1)に示すとおりである。
Figure 2021531601
ただし、gazeは、第2画像の視線方向であり、即ち、第2画像の三次元(3 dimensions:3D)視線方向である。
幾つかの実施例において、上記Nフレーム目の画像に対応する視線方向と上記N−1フレーム目の画像に対応する視線方向の加重和に基づいて、上記Nフレーム目の画像に対応する視線方向を算出することもできる。
また、例えば、上記したパラメータを例とすると、Nフレーム目の画像に対応する視線方向の計算式は、式(2)に示すとおりである。
Figure 2021531601
上記2つの式は例に過ぎず、本願の実施例を限定するものと理解されるべきではない。
本願の実施例を実行すると、ニューラルネットワークから出力された視線方向にジッタが存在するという状況を効果的に防止することができ、視線方向予測の正確性を効果的に向上させることができる。
従って、図1によれば、本願の実施例は、以下のように、ニューラルネットワークから出力視線方向の利用方法を更に提供する。
上記眼部領域画像の視線方向を出力した後、上記方法は、
上記眼部領域画像の視線方向に基づいて上記運転者の関心領域を決定することと、
上記運転者の関心領域に基づいて、上記運転者の運転行為を決定し、 上記運転行為には上記運転者が注意力散漫運転を行っているかどうかが含まれることと、を更に含む。
本願の実施例において、視線検出装置は、出力視線方向に基づいて、運転者の注視方向を解析することができる。つまり、該運転者の関心があるおおまかな領域を得ることができる。これにより、該関心領域に基づいて、該運転者が注意深く運転しているかを判定することができる。例えば、一般的には、運転者が注意深く運転している時、前方を注視し、偶には左右を確認する。しかしながら、運転者の関心領域が前方ではないこと多いと、該運転者が注意力散漫運転を行っていると判定することができる。
幾つかの実施例において、視線検出装置が、運転者が注意力散漫運転を行っていると判定した場合、該視線検出装置は、早期警告リマインド情報を出力することができる。出力される早期警告リマインド情報の正確性を向上させ、運転者に過度の負担を与えるのを避けるために、上記早期警告リマインド情報を出力することは、
運転者の注意力散漫運転の回数が基準回数に達した場合、上記早期警告リマインド情報を出力すること、
又は、上記運転者の注意力散漫運転時間が基準時間に達した場合、上記早期警告リマインド情報を出力すること、
又は、上記運転者の注意力散漫運転時間が上記基準時間に達して且つ回数が上記基準回数に達した場合、上記早期警告リマインド情報を出力すること、
又は、上記運転者が注意力散漫運転を行っている場合、上記車両に接続される端末にリマインド情報を送信することを含んでもよい。
上記基準回数、基準時間は、視線検出装置がいつ早期警告リマインド情報を出力するかを判定するためのものであるため、本願の実施例は、上記基準回数及び基準時間を具体的に限定するものではない。
該視線検出装置が無線又は有線の形態で端末に接続されることで、該視線検出装置が端末にリマインド情報を送信し、運転者又は車両内の他の者の注意を喚起するようにする。ここで、該端末は具体的には運転者の端末であってもよく、車両内の他の者の端末であってもよく、本願の実施例は一意的に限定しない。
本願の実施例を実施すると、視線検出装置がビデオストリームデータにおける任意のフレームの画像の視線方向を複数回分析するか又は長時間分析することができ、運転者が注意力散漫運転を行っているかを判定する場合の正確性を更に向上させることができる。
幾つかの実施例において、上記運転者が注意力散漫運転を行っている場合、視線検出装置は、上記眼部領域画像及び上記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を記憶することができる。又は、上記運転者が注意力散漫運転を行っている場合、上記眼部領域画像及び上記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を上記車両に接続される端末に送信することができる。
本願の実施例において、該視線検出装置は、眼部領域画像を記憶することができ、眼部領域画像の前後の所定数のフレームの画像を記憶することもでき、また、眼部領域画像及び該眼部領域画像の前後の所定数のフレームの画像を同時に記憶することもできる。これにより、後続のユーザによる視線方向の照会に寄与する。なお、上記画像を端末に送信することで、ユーザは、視線方向照会を何時でも行うことができる。ユーザは、眼部領域画像及び眼部領域画像の前後の所定数のフレームの画像のうちの少なくとも1つを直ちに得ることができる。
本願の実施例におけるニューラルネットワークは、畳み込み層、非線形層、プーリング層などのネットワーク層を所定の形態で積層してなるものであってもよい。本願の実施例は、具体的なネットワーク構造を限定するものではない。ニューラルネットワーク構造を設定した後、マーキング情報を持つ正、負のサンプル画像に基づいて、設計されたニューラルネットワークについて教師あり方式で逆勾配伝搬を行う等の方法で、何千何万回の反復訓練を行うことができる。本願の実施例は、具体的な訓練方式を限定するものではない。以下、本願の幾つかの実施例におけるニューラルネットワークの訓練方法を説明する。
まず、本願の実施例における技術的用語を説明する。ワールド座標系は、即ち測定座標系であり、絶対的な座標系である。カメラ座標系にいていえば、カメラ座標系の原点は、カメラの光学中心であり、z軸は、カメラ光軸である。ワールド座標系とカメラ座標系との関係の取得方法は、以下に示すとおりである。座標系原点及びx、y、z軸を含むワールド座標系を決定し、測定の方法により、ワールド座標系における任意の物体の座標系を得ることができる。例えば、測定により、座標系における一組の点の座標点を得てから、それぞれカメラにより該一組の点を撮影することで、該一組の点の該カメラにおける座標系を得る。カメラ座標系に対するワールド座標系の3*3回転行列R,3*1に対する並進ベクトルをTとすれば、ワールド座標系とカメラ座標系との回転及び並進を得ることができる。上記は、ワールド座標系とカメラ座標系との関係の取得例に過ぎず、具体的な実現において、他の方式も存在する。従って、本願の実施例で提供される方法は制限と見なされるべきではない。
カメラ座標系についていえば、カメラ座標系の原点は、カメラの光学中心であり、z軸は、カメラ光軸である。該カメラはウェブカメラと呼ばれてもよく、又は該カメラは具体的には、赤緑青(red green blue:RGB)カメラ、赤外カメラ又は近赤外カメラなどであってもよいことが理解される。本願の実施例はこれを限定するものではない。本願の実施例において、該カメラ座標系は、ウェブカメラ座標系等と呼ばれてもよい。本願の実施例はその名称を限定するものではない。本願の実施例において、該カメラ座標系はそれぞれ、第1カメラ座標系及び第2カメラ座標系を含む。以下、第1カメラ座標系と第2カメラ座標系との関係を具体的に説明する。
第1カメラ座標系についていえば、本願の実施例において、該第1カメラ座標は、カメラアレイから決定された任意のカメラの座標系である。該カメラアレイは、ウェブカメラアレイ等と呼ばれてもよい。本願の実施例は、該カメラアレイの名称を限定するものではない。具体的には、該第1カメラ座標系は、第1カメラに対応する座標系であり、つまり、第1ウェブカメラに対応する座標系である。第2カメラ座標系についていえば、本願の実施例において、第2カメラ座標系は、第2カメラに対応する座標系であり、即ち、第2カメラの座標系である。第1カメラ座標系と第2カメラ座標系との関係の決定方法は以下に示すとおりである。カメラアレイから第1カメラを決定し、第1カメラ座標系を決定する。カメラアレイにおける各カメラの焦点距離及び主点位置を取得する。上記第1カメラ座標系、上記カメラアレイにおける各カメラの焦点距離及び主点位置に基づいて、上記第1カメラ座標系と上記第1カメラ座標系との関係を決定する。例えば、第1カメラ座標系を確立した後、従来の碁盤目キャリブレーション方法で、カメラアレイにおける各カメラの焦点距離及び主点位置を取得することで、該第1カメラ座標系に対する他のカメラ座標系(例えば、第2カメラ座標系)の回転及び並進を決定することができる。本願の実施例において、該カメラアレイには少なくとも第1カメラ及び第2カメラが含まれ、また、本願の実施例は、各カメラの位置及び向きを限定するものではない。例えば、該カメラアレイにおけるカメラが人の目視線範囲をカバーできるものであることを基準として、各カメラ同士の関係を設定する。
例えば、カメラアレイがc1、c2、c3、c4、c5、c6、c7、c8、c9、c10であることを例として、c5(中央に配置されたカメラ)を第1カメラとし、第1カメラ座標系を確立し、従来の碁盤目キャリブレーション方法で、全てのカメラの焦点距離f、主点位置(u,v)及び第1カメラに対する回転及び並進を決定する。各カメラの所在する座標系を1つのカメラ座標系と定義し、双眼カメラキャリブレーションにより、該第1カメラ座標系での、該第1カメラに対する他のカメラの位置及び向きを算出する。これにより、第1カメラ座標系と第2カメラ座標系との関係を決定することができる。第1カメラを決定した後、第2カメラは、該第1カメラ以外の他のカメラであってもよく、該カメラは、少なくとも2つを含んでもよいことが理解される。
以上は、例に過ぎず、具体的な実現において、張正友キャリブレーション法などのような他の方法により、基準カメラ座標系と他のカメラ座標系との関係を決定することもでき、本願は、これを限定するものではないことが理解される。本願の実施例におけるカメラは、赤外カメラ、又は他のタイプのカメラ等であってもよく、本願の実施例はこれを限定するものではないことが理解される。
本願の実施例によるニューラルネットワーク訓練方法を示すフローチャートである図3に示すように、該ニューラルネットワーク訓練方法は、視線検出装置に適用可能である。該視線検出装置は、サーバと端末装置とを備えてもよい。該端末装置は、携帯電話、タブレット、デスクトップパソコン、パーソナルデジタルアシスタントなどを含んでもよい。本願の実施例は、該視線検出装置の具体的な形態を一意的に限定するものではない。該ニューラルネットワークの訓練方法は、ニューラルネットワーク訓練装置にも適用可能であり、該ニューラルネットワーク訓練装置は、サーバと端末装置とを備えてもよいことが理解される。ここで、該ニューラルネットワーク訓練装置は、タイプが視線検出装置と同一である装置であってもよく、該ニューラルネットワーク訓練装置は、タイプが視線検出装置と異なる装置であってもよい。本願の実施例はこれを限定するものではない。
図3に示すように、該ニューラルネットワーク訓練方法は、以下を含む。
301において、少なくとも眼部画像を含んでいる第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、上記第1カメラ座標系での、上記第1画像における角膜基準点の第2座標を決定する。
本願の実施例において、第1画像は、カメラにより撮られた眼を含む2D画像であり、且つ該第1画像は、ニューラルネットワークに入力されて該ニューラルネットワークを訓練するための画像である。具体的には、該第1画像の数は、少なくとも2つであり、該第1画像の具体的な数は、訓練程度によるものである。従って、本願の実施例は、該第1画像の数を限定するものではない。
本願の実施例において、第1画像を撮るカメラが第2カメラ(少なくとも2つのカメラを含む)である場合、第2カメラ座標系での瞳孔基準点の座標を決定した後、該第1カメラ座標系と第2カメラ座標系との関係に基づいて、該第1座標を決定することができる。具体的な実現形態は、図4に示すとおりである。
同様に、光源の角膜基準点における結像位置である反射点の第2カメラ座標系での座標を決定した後、該第1カメラ座標系と第2カメラ座標系との関係に基づいて、該第2座標を決定することもできる。具体的な実現形態は、図5に示すとおりである。
本願の実施例において、該角膜基準点は、角膜における任意の点であってもよい。幾つかの実施例において、該角膜基準点は、角膜中心又は縁点であってもよく、角膜上における他のキーポイントなどであってもよい。本願の実施例は、該角膜基準点の位置を一意的に限定するものではない。瞳孔基準点は、瞳孔における任意の点であってもよい。幾つかの実施例において、該瞳孔基準点は、瞳孔中心又は瞳孔縁点であってもよく、瞳孔における他のキーポイントなどであってもよい。本願の実施例は、該瞳孔基準点の位置を一意的に限定するものではない。
302において、上記第1座標及び上記第2座標に基づいて、上記第1画像の第1視線方向を決定する。本願の実施例において、第1座標及び第2座標を得てから、該2つの座標の連結線に基づいて第1視線方向を得ることができる。つまり、瞳孔基準点と角膜基準点との連結に基づいて、第1視線方向を決定し、該第1視線方向の正確性を向上させることもできる。
303において、ニューラルネットワークにより、上記第1画像に対して、視線方向検出を行い、第1検出視線方向を得る。該第1画像は、単に眼に関わる画像であってもよい。これにより、他の体部位を含むことによりニューラルネットワークによる視線方向検出に負担を与えてしまうことを避ける。図6aは、本願の実施例による第1画像を示す概略図である。図面において、光源が角膜上に形成した反射点を更に示す。本願の実施例における第1画像は、片方の眼に対応する画像であってもよく、両眼に対応する画像であってもよい。本願の実施例はこれを限定するものではない。
幾つかの実施例において、本願の実施例は、第1画像の取得方法を更に提供する。ここで、該第1画像の取得方法は以下のとおりである。顔検出方法により、画像における顔の位置を取得する。ここで、該画像における眼の割合が所定の割合以上である。顔キーポイント位置決めにより、該画像における眼の位置を決定する。該画像をトリミングし、画像におけう眼の画像を得る。該画像における眼の画像は、第1画像である。
幾つかの実施例において、顔に一定の回転角度があるため、顔キーポイント位置決めにより、該画像における眼の位置を決定した後、双眼の目頭水平軸座標を等しくなるまで回転することもできる。これにより、双眼の目頭水平軸座標を等しくなるまで回転した後、回転された画像における眼を切り出し、第1画像を更に得る。
所定の割合は、画像における眼の占める割合を判定するために設けられたものである。該所定の割合の設定目的は、取得された画像をトリミングする必要があるかどうかを判定するためのものである。したがって、所定の割合は具体的にはユーザにより設定されてもよく、ニューラルネットワーク訓練装置により自動的に設定されてもよい。本願の実施例はこれを限定するものではない。例えば、上記画像がちょうど眼の画像である場合、該画像をニューラルネットワークに直接的に入力することができる。また、例えば、上記画像における眼の割合が十分の一である場合、第1画像を得るために画像に対してトリミングなどの操作を行う必要があることを表す。
視線方向の平滑性を更に向上させるために、ニューラルネットワークにより上記第1画像に対して視線方向検出を行い、第1検出視線方向を得ることは、上記第1画像がビデオ画像に属する場合、上記ニューラルネットワークにより、隣接するN個フレームの画像の視線方向をそれぞれ検出し、Nが1以上の整数であることと、上記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が上記第1検出視線方向であると判定することと、を含む。
本願の実施例は、Nの具体的な値を限定するものではなく、該隣接Nフレームの画像は、Nフレーム目の画像の前のNフレームの画像(Nフレーム目を含む)であってもよく、後のNフレームの画像であってもよく、前後のNフレームの画像であってもよい。本願の実施例はこれを限定するものではない。
幾つかの実施例において、隣接するNフレームの視線方向の平均和に基づいて、Nフレーム目の画像の視線方向を決定することで、該視線方向を平滑化処理し、得られた第1検出視線方向を更に安定させることができる。
304において、上記第1視線方向及び上記第1検出視線方向に基づいて上記ニューラルネットワークを訓練する。
なお、ニューラルネットワークを訓練した後、該ニューラルネットワークを利用して第2画像の視線方向を検出することができる。具体的な検出形態は、図1に示した実現形態を参照されたい。ここで、詳細な説明を省略する。
なお、上記方法でニューラルネットワークを訓練し、ニューラルネットワークを得てから、該ニューラルネットワーク訓練装置は、直接的に該ニューラルネットワークを利用して視線方向を検出することができる。又は、該ニューラルネットワーク訓練装置は、該訓練されたニューラルネットワークを他の装置に送信してもよい。該他の装置は、該訓練されたニューラルネットワークを利用して視線方向を検出する。該ニューラルネットワーク訓練装置が具体的にどのような装置に送信するかについて、本願の実施例は限定しない。
幾つかの実施例において、第1視線方向及び上記第1検出視線方向に基づいて上記ニューラルネットワークを訓練することは、
上記第1視線方向及び上記第1検出視線方向の損失に基づいて、上記ニューラルネットワークのネットワークパラメータを調整することを含む。
幾つかの実施例において、上記第1視線方向及び上記第1検出視線方向に基づいて上記ニューラルネットワークを訓練する前に、上記方法は、
上記第1視線方向及び上記第1検出視線方向をそれぞれ正規化処理することを更に含み、
上記第1視線方向及び上記第1検出視線方向に基づいて上記ニューラルネットワークを訓練することは、
正規化処理された上記第1視線方向及び正規化処理された上記第1検出視線方向に基づいて上記ニューラルネットワークを訓練することを含む。
ここで、正規化処理された第1視線方向及び正規化処理された第1検出視線方向の損失に基づいて、ニューラルネットワークのネットワークパラメータを調整することもできる。具体的には、該ネットワークパラメータは、畳み込みカーネルサイズパラメータ、重みパラメータなどを含んでもよい。本願の実施例は、該ニューラルネットワークに具体的に含まれるネットワークパラメータを限定するものではない。
具体的には、第1視線方向が(x1,y1,z1)であり、第1検出視線方向が(x2,y2,z2)であるとすれば、正規化処理の形態は以下に示すとおりである。
Figure 2021531601
Figure 2021531601
ただし、
Figure 2021531601
は、正規化処理された第1視線方向であり、
Figure 2021531601
は、正規化処理された第1検出視線方向である。
損失関数の演算形態は以下に示すとおりである。
Figure 2021531601
ただし、lossは、正規化処理された第1視線方向及び正規化処理された第1検出視線方向の損失である。上記各アルファベット及びパラメータを表す形態は、例に過ぎず、本願の実施例を限定するものと理解されるべきではない。
本願の実施例において、第1視線方向及び第1検出視線方向を正規化処理することで、第1視線方向及び第1検出視線方向における長さによる影響を無くし、視線方向のみに注目することができる。
幾つかの実施例において、正規化処理された第1視線方向及び正規化処理された第1検出視線方向との余弦値に基づいて、第1視線方向及び該第1検出視線方向の損失を評価することもできる。具体的には、上記正規化処理された第1視線方向と正規化処理された第1検出視線方向との挟角の余弦値が小さいほど、上記第1視線方向及び上記第1検出視線方向の損失値が小さくなる。つまり、正規化処理された第1視線方向と正規化処理された第1検出視線方向との挟角が大きいほど、該2つのベクトルの間のユークリッド距離が大きくなり、損失値が大きくなる。該2つのベクトルが完全に重なり合う場合、損失値は、0である。
本願の実施例を実施することで、ニューラルネットワーク訓練装置は、第1視線方向を自動的に得ることができるだけでなく、大量の該第1視線方向を正確に得ることもできる。これにより、ニューラルネットワークの訓練のために、正確かつ確実な大量のデータを提供し、訓練効率を向上させ、視線方向検出の正確性を向上させることができる。
本願の実施例は、第1座標の決定方法を更に提供する。本願の実施例による第1座標の決定方法を示すフローチャートである図4を参照すると、該方法は、ニューラルネットワーク訓練装置に適用可能である。図4に示すように、該方法は以下を含む。
401において、カメラアレイから第2カメラを決定し、第2カメラ座標系での瞳孔基準点の座標を決定し、上記第2カメラ座標系が上記第2カメラに対応する座標系である。
本願の実施例において、第2カメラ座標系及び第2カメラに関する具体的な説明は、前記実施例を参照されたい。ここで、詳細な説明を省略する。
幾つかの実施例において、上記第2カメラ座標系での瞳孔基準点の座標を決定することは、
上記第1画像における上記瞳孔基準点の座標を決定することと、
上記第1画像における上記瞳孔基準点の座標、及び上記第2カメラの焦点距離及び主点位置に基づいて、上記第2カメラ座標系での上記瞳孔基準点の座標を決定することと、を含む。
例えば、瞳孔縁点の検出方法により、第1画像における瞳孔基準点の座標を検出することができる。例えば、撮られた眼の2D画像である第1画像に対して、眼の瞳孔縁点を検出するネットワークモデルにより、瞳孔縁を取り囲む点を直接的に抽出した後、該瞳孔縁を取り囲む点に基づいて、(m,n)のような瞳孔基準点位置の座標を算出することができる。ここで、算出された瞳孔基準点位置の座標(m,n)は、第1画像における瞳孔基準点の座標と理解されてもよい。該瞳孔基準点の画素座標系における座標と理解されてもよい。
該第1画像を撮るカメラである第2カメラの焦点距離がfであり、主点位置が(u,v)であるとすれば、瞳孔基準点が該第2カメラの結像平面へ投影した点の、該第2カメラ座標系での座標は、(m−u,n−v,f)であり、つまり、第2カメラ座標系での3D座標である。
第2カメラが少なくとも2つを含む場合、様々なカメラ(即ち、様々な第2カメラ)により撮られた第1画像に基づいて、該瞳孔基準点が各カメラの結像平面へ投影した点の、それぞれのカメラ座標系での座標を算出することが理解される。
402において、第1カメラ座標系と上記第2カメラ座標系との関係、及び上記第1カメラ座標系での上記瞳孔基準点の座標に基づいて、上記第1カメラ座標系での上記瞳孔基準点の第1座標を決定する。
本願の実施例において、第2カメラは、ウェブカメラアレイにおける任意のカメラであってもよく、幾つかの実施例において、該第2カメラが少なくとも2つのカメラを含むことが理解される。つまり、少なくとも2つのカメラにより撮影することで、2つの第1画像を得て、また瞳孔の少なくとも2つカメラのうちのいずれか1つの第2カメラ座標系での座標をそれぞれ得る(具体的には上記説明を参照されたい)。更に、それぞれの座標系における座標を第1カメラ座標系に統合する。こにより、瞳孔の第1カメラ座標系での座標及び第2カメラ座標系での座標をそれぞれ決定した後、カメラ、瞳孔基準点の投影点及び瞳孔基準点という3点が同じ直線にあるという特性を利用して、同一の座標系における座標を得る。瞳孔基準点(即ち、図6bにおける瞳孔基準点)の該第1カメラ座標系での座標は、図6bに示すように、これらの直線の共通の交点である。
幾つかの実現形態において、第1カメラ座標系は、基準カメラ座標又は参照カメラ座標と呼ばれてもよいため、本願の実施例は該名称を一意的に限定するものではないことが理解される。
本願の実施例を実施することで、第1カメラ座標系での瞳孔基準点の座標を正確に得て、第1視線方向決定のために確実な基礎を提供し、ニューラルネットワーク訓練の正確性を向上させることができる。
幾つかの実施例において、本願の実施例は、第2座標の決定方法を更に提供する。本願の実施例による第2座標の決定方法を示すフローチャートである図5を参照すると、該方法は、ニューラルネットワーク訓練装置に適用可能である。
図5に示すように、該方法は、以下を含む。
501において、第2カメラ座標系での光源の座標を決定する。
本願の実施例において、該光源は、赤外光源又は近赤外光源を含む。又は非赤外光源などを含む。本願の実施例は、光源の具体的な形態を限定するものではない。
本願の実施例において、上記光源は、少なくとも2つである。しかしながら、実際の適用において、実験により、2つの光源のみを用いると確実な結果を得ることができないことが発見された。その原因は、方程式により角膜基準点を求める場合、数が少なすぎて騒音による干渉を除去できないことである。もう1つの原因は、ある角度で、光源の角膜における反射光が撮られない可能性があることである。従って、本願の実施例において、上記赤外光源は少なくとも3つである。
幾つかの実施例において、第2カメラ座標系での光源の座標を決定することは、
ワールド座標系における上記光源の座標を決定することと、
上記ワールド座標系と上記第2カメラ座標系との関係に基づいて、上記第2カメラ座標系での上記光源の座標を決定することと、を含む。
ここで、ワールド座標系と第2カメラ座標系との関係の決定方法は、ワールド座標系とカメラ座標系との関係の決定方法を参照されたい。ここで、詳細な説明を省略する。
例えば、赤外光源が8つであり、それぞれL1からL8であり、ワールド座標系における座標が{ai,i=1から8}であり、第2カメラ座標系での座標が{bi,i=1から8}であるとすれば、下記式が得られる。
ai = R × bi + T (6)
ただし、R及びTの取得方法は、前記実施例を参照されたい。
502において、上記第2カメラ座標系での、上記第1画像における角膜上の反射点の座標を決定し、上記反射点は、上記光源が角膜上に結像される位置である。
本願の実施例において、上記反射点は、上記光源が上記角膜上に形成した反射点である。例えば図6aに示すように、図6aに示す眼における輝点は、反射点である。ここで、反射点の数は、光源の数と同じであってもよい。
ここで、第2カメラ座標系での、第1画像における角膜上の反射点の座標を決定することは、
上記第1画像における上記反射点の座標を決定することと、
上記第1画像における上記反射点の座標、及び第2カメラの焦点距離及び主点位置に基づいて、第2カメラ座標系での上記反射点の座標を決定することと、を含む。
第2カメラ座標系での、角膜上の反射点の座標を決定するための具体的な実現形態は、第2カメラ座標系での瞳孔基準点の座標の実現形態を参照されたいことが理解される。
503において、上記第2カメラ座標系での上記光源の座標、上記第1カメラ座標系と上記第2カメラ座標系との関係、及び上記第2カメラ座標系での上記角膜上の反射点の座標に基づいて、上記第1カメラ座標系での上記角膜基準点の第2座標を決定する。
本願の実施例において、光源、反射点及び反射光線の結像平面における交点に基づいて、第2座標を決定することができる。つまり、入射光線、反射光線及び法線という3本の線が同一の平面にあることに基づいて決定する。具体的な形態は以下に示すとおりである。
上記第2カメラ座標系での上記光源の座標、上記第1カメラ座標系と上記第2カメラ座標系との関係、及び上記第2カメラ座標系での上記角膜上の反射点の座標に基づいて、上記第1カメラ座標系での上記角膜基準点の第2座標を決定することは、
上記第2カメラ座標系での上記赤外光源の座標、及び上記第2カメラ座標系での上記角膜上の反射点の座標に基づいて、上記第2カメラ座標系での、上記光源に対応するプルキンエスポットの座標を決定することと、
上記第2カメラ座標系での上記光源の座標、上記第2カメラ座標系での上記角膜上の反射点の座標、上記第2カメラ座標系での上記プルキンエスポットの座標、及び上記第2カメラ座標系と上記第1カメラ座標系との関係に基づいて、上記第2座標を決定することと、を含む。
該方法を明確に理解するために、本願の実施例による角膜基準点の決定を示す概略図である図6cを参照されたい。ここで、L1、L2……L8はそれぞれ8個の赤外光源を表す。
ここで、赤外光源L2が角膜により反射されてからカメラC2について結像することを例として、L2からの光線は、角膜外表面G22で反射される(即ち、反射点)。反射光線は、C2により、プルキンエ(Purkinje)スポットG’22で結像平面P2と交差する。反射の法則から分かるように、入射光線G22L2、反射光線G’22C2及び法線G22Aという3本の線が同一の平面にある。該平面をπ22 = (L2 − C2) × (G′22 −C2)とすれば、角膜が所在する球体の中心Aは、π22*(A − C2) = 0を満たす。ただし、π22における1番目の2は、赤外光源の番号を表し、2番目の2は、カメラの番号を表す。以下、同様である。
同様に、球体中心Aを含む別の3つのπ11,π12,π21を列挙することができる。下記一連の方程式を解くことで、Aのカメラ座標系での座標を得ることができる。
π11*(A − C1) = 0 (7)
π12*(A − C2) = 0 (8)
π21*(A − C1) = 0 (9)
π22*(A − C2) = 0 (10)
上記から分かるように、原理の観点から言えば、上記4つの式のうちの3つを利用すると、角膜基準点Aの基準カメラ座標系での座標を解くことができるが、実際のデータ収集において、2つの光源のみを利用すると、確実な結果を得ることができない。1つの原因は、方程式の数が少なすぎて騒音による干渉を除去することができないことである。もう1つの原因は、光源の角膜における反射が撮られないことである。該課題を解決するために、収集システムにおいて、計8個の光源が入れられる。大部分の頭部姿勢及び視角において、各膜基準点の座標を演算するための十分な反射輝点が角膜にあることを確保する。
本願の実施例を実施し、角膜基準点を決定する時、複数のスポットにより、過決定連立方程式を構築することで、演算プロセスのロバスト性及び正確性を向上させることができる。これにより、角膜基準点の基准カメラ座標系での座標を正確に得て、更に、DNN訓練のために精度の高いデータを提供し、訓練効率を向上させる。
図1から図5に示した方法には、それぞれ偏りがあり、一実施例に詳しく説明されていない部分に対して、ほかの実施例に関する説明を参照することができることが理解される。
幾つかの実施例において、本願の実施例による視線検出方法のシーンを示す概略図である図7を参照すると。該方法は、以下を含む。
701において、複数の赤外カメラをキャリブレーションし、各カメラの焦点距離、主点位置、及びカメラ同士の相対的回転及び並進を得る。
702において、カメラ座標系での赤外光源の3D座標を算出する。
703において、カメラ座標系での眼(即ち、第1画像における眼)の瞳孔基準点の3D座標(即ち、第1座標)を算出する。
704において、カメラ座標系での、眼の角膜上に形成された赤外光源の反射点の3D座標を算出する。
705において、角膜モデルを利用して、カメラ座標系での角膜基準点の3D座標(即ち、第2座標)を算出する。
706において、角膜基準点と瞳孔基準点との連結線を利用して、眼視線の3Dベクトルの真値を得る。
707において、収集されたデータを利用して眼3D視線検出用ニューラルネットワークを訓練する。
本願の実施例を実施することで、大量の眼視線データ(即ち、第1検出視線方向)及び対応する視線方向の真値(即ち、第1視線方向)をより迅速、正確かつ確実に得ることができる。また、エンドツーエンドの方式で、眼3D視線検出用深層畳み込みニューラルネットワークを訓練し、眼3D視線検出というタスクの訓練を容易にし、訓練されたネットワークをより容易に直接適用することもできる。
本願の実施例によるニューラルネットワーク訓練装置の構造を示す概略図である図8aに示すように、該ニューラルネットワーク訓練装置は、
少なくとも眼部画像を含んでいる第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定するように構成される第1決定ユニット801と、
前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定するように構成される第2決定ユニット802と、
ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得るように構成される検出ユニット803と、
前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練するように構成される訓練ユニット804と、を備えてもよい。
本願の実施例を実施することで、ニューラルネットワーク訓練装置は、第1視線方向を自動的に得ることができるだけでなく、大量の該第1視線方向を正確に得ることもできる。これにより、ニューラルネットワークの訓練のために、正確かつ確実な大量のデータを提供し、訓練効率を向上させ、視線方向検出の正確性を向上させることができる。
幾つかの実施例において、上記訓練ユニット804は具体的には、上記第1視線方向及び上記第1検出視線方向の損失に基づいて、上記ニューラルネットワークのネットワークパラメータを調整するように構成される。
幾つかの実施例において、図8bに示すように、上記装置は、
上記第1視線方向及び上記第1検出視線方向をそれぞれ正規化処理するように正規化処理ユニットを更に備え、
上記訓練ユニットは具体的には、正規化処理された上記第1視線方向及び正規化処理された上記第1検出視線方向に基づいて、上記ニューラルネットワークを訓練するように構成される。
幾つかの実施例において、上記検出ユニット803は具体的には、上記第1画像がビデオ画像に属する場合、上記ニューラルネットワークにより、隣接するN個フレームの画像の視線方向をそれぞれ検出し、Nが1より大きい整数であり、上記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が上記第1検出視線方向であると判定するように構成される。
幾つかの実施例において、上記検出ユニット803は具体的には、上記隣接するN個フレームの画像の視線方向の平均和に基づいて、上記Nフレーム目の画像の視線方向が上記第1検出視線方向であると判定するように構成される。
具体的には、図9aに示すように、上記第1決定ユニット801は、
上記第2カメラ座標系での瞳孔基準点の座標を決定するように構成される第1決定サブユニット8011と、
上記第1カメラ座標系と上記第2カメラ座標系との関係、及び上記第1カメラ座標系での上記瞳孔基準点の座標に基づいて、上記第1カメラ座標系での上記瞳孔基準点の第1座標を決定するように構成される第2決定サブユニット8012と、を備える。
幾つかの実施例において、上記第1決定サブユニット8011は具体的には、上記第1画像における上記瞳孔基準点の座標を決定し、上記第1画像における上記瞳孔基準点の座標、及び上記第2カメラの焦点距離及び主点位置に基づいて、上記第2カメラ座標系での上記瞳孔基準点の座標を決定するように構成される。
幾つかの実施例において、図9bに示すように、上記第1決定ユニット801は、
上記第1画像における角膜における上記第2カメラ座標系での反射点の座標を決定し、上記反射点が、光源の上記角膜基準点における結像位置であるように構成される第3決定サブユニット8013と、
上記第1カメラ座標系と上記第2カメラ座標系との関係、及び上記第2カメラ座標系での上記角膜上の反射点の座標に基づいて、上記第1カメラ座標系での上記角膜基準点の第2座標を決定するように構成される第4決定サブユニット8014とを更に備える。
幾つかの実施例において、上記第4決定サブユニット8014は具体的には、上記第2カメラ座標系での上記光源の座標を決定し、上記第2カメラ座標系での上記光源の座標、上記第1カメラ座標系と上記第2カメラ座標系との関係、及び上記第2カメラ座標系での上記角膜上の反射点の座標に基づいて、上記第1カメラ座標系での上記角膜基準点の第2座標を決定するように構成される。
幾つかの実施例において、上記第4決定サブユニット8014は具体的には、上記第2カメラ座標系での、上記光源に対応するプルキンエスポットの座標を決定し、上記第2カメラ座標系での上記プルキンエスポットの座標、上記光源の上記第2カメラ座標系にける座標、上記第1カメラ座標系と上記第2カメラ座標系との関係、及び上記第2カメラ座標系での上記角膜上の反射点の座標に基づいて、上記第1カメラ座標系での上記角膜基準点の第2座標を決定するように構成される。
幾つかの実施例において、上記第3決定サブユニット8013は具体的には、上記第1画像における上記反射点の座標を決定し、上記第1画像における上記反射点の座標、上記第2カメラの焦点距離及び主点位置に基づいて、上記第2カメラ座標系での反射点の座標を決定するように構成される。
幾つかの実施例において、上記第4決定サブユニット8014は具体的には、ワールド座標系における上記光源の座標を決定し、上記ワールド座標系と上記第2カメラ座標系との関係に基づいて、上記第2カメラ座標系での上記光源の座標を決定するように構成される。
幾つかの実施例において、上記光源は赤外光源又は近赤外光源を含み、上記光源の数は少なくとも2つであり、上記反射点の数は、上記光源の数に対応する。
各ユニットの実現及び装置実施例の技術的効果について、上述又は図3から図5及び図7に示した方法実施例における説明を参照することができる。
本願の実施例による電子機器の構造を示す概略図である図10を参照すると、該電子機器は、プロセッサ1001、メモリ1002及び入力出力インタフェース1003を備え、前記プロセッサ1001、メモリ1002及び入力出力インタフェース1003は、バスを介して相互接続される。
入力出力インタフェース1003は、データ及び/又は信号を入力し、データ及び/又は信号を出力するように構成される。例えば、該入力出力インタフェース1003は、電子機器によりニューラルネットワークを訓練した後、該訓練されたニューラルネットワークを他の電子機器に送信するように構成される。
メモリ1002は、ランダムアクセスメモリ(random access memory:RAM)、読み出し専用メモリ(read−only memory:ROM)、消去可能なプログラマブル読み出し専用メモリ(erasable programmable read only memory:EPROM)、又はポータブル読み出し専用メモリ(compact disc read−only memory:CD−ROM)を含むが、これらに限定されない。該メモリ1002は、関連データ及びデータの記憶に用いられる。
プロセッサ1001は、1つ又は複数の中央演算処理装置(central processing unit: CPU)であってもよい。プロセッサ1001が1つのCPUである場合、該CPUはシングルコアCPUであってもよく、マルチコアCPUであってもよい。
幾つかの実施例において、各操作の実現について、図3から図5及び図7に示した方法実施例における説明を参照することもできる。各操作の実現について、図8a、図8b、図9a及び図9bに示した装置実施例における説明を参照することもできる。
例えば、一実施例において、プロセッサ1001は、ステップ301、ステップ302、ステップ303及びステップ304に示す方法を実行するように構成される。また例えば、プロセッサ1001は更に第1決定ユニット801、第2決定ユニット802、検出ユニット803及び訓練ユニット804により実行される方法を実行するように構成される。
各操作の実現は、他の実施例を参照することもできる。ここで、詳細な説明を省略する。
本願の実施例による視線検出装置の構造を示す概略図である図11を参照すると、該視線検出装置は、図1から図7に示す方法を実行するように構成される。図11に示すように、該視線検出装置は、
ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成される顔検出ユニット1101と
検出された上記第2画像における顔領域に対してキーポイント位置決めを行い、上記顔領域における眼部領域を決定するように構成される第1決定ユニット1102と、
上記第2画像における上記眼部領域画像を切り取るように構成される切取ユニット1103と、
上記眼部領域画像を予め訓練されたニューラルネットワークに入力し、上記眼部領域画像の視線方向を出力するように構成される入力出力ユニット1104と、を備える。
幾つかの実施例において、図12に示すように、該視線検出装置は、
上記眼部領域画像の視線方向及び上記第2画像の少なくとも1つの隣接するフレームの画像の視線方向に基づいて、上記第2画像の視線方向を決定するように構成される第2決定ユニット1105を更に備える。
幾つかの実施例において、上記顔検出ユニット1101は具体的には、トリガ命令を受信した場合、上記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成され、
又は、上記顔検出ユニット1101は具体的には、車両運転中に、上記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成され、
又は、上記顔検出ユニット1101は具体的には、車両の運転速度が基準速度に達した場合、上記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成される。
幾つかの実施例において、ビデオストリームデータは、車載カメラによる車両の運転領域のビデオストリームであり、
上記眼部領域画像の視線方向は、上記車両の運転領域における運転者の視線方向である。
幾つかの実施例において、図12に示すように、上記装置は、
上記眼部領域画像の視線方向に基づいて、上記運転者の関心領域を決定し、上記運転者の関心領域に基づいて上記運転者の運転行為を決定するように構成される第3決定ユニット1106を更に備え、上記運転行為には上記運転者が注意力散漫運転を行っているかどうかが含まれる。
幾つかの実施例において、図12に示すように、上記装置は、
上記運転者が注意力散漫運転を行っている場合、早期警告リマインド情報を出力するように構成される出力ユニット1107を更に備える。
幾つかの実施例において、上記出力ユニット1107は具体的には、運転者の注意力散漫運転の回数が基準回数に達した場合、上記早期警告リマインド情報を出力するように構成され、
又は、上記出力ユニット1107は具体的には、上記運転者の注意力散漫運転時間が基準時間に間に達した場合、上記早期警告リマインド情報を出力するように構成され、
又は、上記出力ユニット1107は具体的には、上記運転者の注意力散漫運転時間が上記基準時間に達して且つ回数が上記基準回数に達した場合、上記早期警告リマインド情報を出力するように構成され、
又は、上記出力ユニット1107は具体的には、上記運転者が注意力散漫運転を行っている場合、上記車両に接続される端末にリマインド情報を送信するように構成される。
図12に示すように、上記装置は、
上記運転者が注意力散漫運転を行っている場合、上記眼部領域画像及び上記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を記憶するように構成される記憶ユニット1108、
又は、上記運転者が注意力散漫運転を行っている場合、上記眼部領域画像及び上記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を上記車両に接続される端末に送信するように構成される送信ユニット1109を更に備える。
幾つかの実施例において、図12に示すように、上記装置は、
第1カメラ及び第1画像における瞳孔に基づいて第1視線方向を決定するように構成される第4決定ユニット1110であって、上記第1カメラが上記第1画像を撮るカメラであり、上記第1画像には少なくとも眼部画像が含まれる、第4決定ユニット1110と、
ニューラルネットワークにより、上記第1画像の視線方向を検出し、第1検出視線方向を得るように構成される検出ユニット1111と、
上記第1視線方向及び上記第1検出視線方向に基づいて、上記ニューラルネットワークを訓練するように構成される訓練ユニット1112と、を更に備える。
幾つかの実施例において、各ユニットの実現及び装置実施例の技術的効果は、上述又は図1から図7に示す方法実施例の説明を参照することもできることに留意されたい。
第4決定ユニット、検出ユニット及び訓練ユニットの具体的な実現形態について、図8a及び図8bに示す実現形態を参照することもできる。ここで、詳細な説明を省略する。
本願の実施例による電子機器の構造を示す概略図である図13を参照されたい。図13に示すように、該電子機器は、該電子機器は、プロセッサ1301、メモリ1302及び入力出力インタフェース1303を備え、前記プロセッサ1301、メモリ1302及び入力出力インタフェース1303は、バスを介して相互接続される。
入力出力インタフェース1303は、データ及び/又は信号を入力し、データ及び/又は信号を出力するように構成される。
メモリ1302は、ランダムアクセスメモリ(random access memory:RAM)、読み出し専用メモリ(read−only memory:ROM)、消去可能なプログラマブル読み出し専用メモリ(erasable programmable read only memory:EPROM)、又はポータブル読み出し専用メモリ(compact disc read−only memory:CD−ROM)を含むが、これらに限定されない。該メモリ1302は、関連データ及びデータの記憶に用いられる。
プロセッサ1301は、1つ又は複数の中央演算処理装置(central processing unit: CPU)であってもよい。プロセッサ1301が1つのCPUである場合、該CPUはシングルコアCPUであってもよく、マルチコアCPUであってもよい。
幾つかの実施例において、各操作の実現について、図1から図7に示した方法実施例における説明を参照することもできる。又は、各操作の実現について、図11及び図12に示した実施例における説明を参照することもできる。
例えば、一実施例において、プロセッサ1301は、ステップ101からステップ104に示す方法を実行するように構成される。また例えば、プロセッサ1301は更に顔検出ユニット1101、第1決定ユニット1102、切取ユニット1103及び入力出力ユニット1104により実行される方法を実行するように構成される。各操作の実現は、他の実施例を参照することもできる。ここで、詳細な説明を省略する。
本発明で提供する幾つかの実施例で開示したシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよく、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよく、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した該ユニットは、物理的に別個のものであってもよく、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよく、そうでなくてもよい。即ち、同一の位置に位置してもよく、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
上記実施例方法における全て又は一部のプロセスを実現させる時、コンピュータプログラム命令に基づいて関連ハードウェアを利用することで実行することができ、該プログラムはコンピュータ可読記憶媒体に記憶され、該プログラムが実行される時、上記各方法実施例のようなプロセスを含んでもよいことは、当業者であれば理解されるべきである。前記記憶媒体は、ROM、ランダムアクセスメモリRAM、磁気ディスク又は光ディスクなどのような様々な、プログラムコードを記憶できる媒体を含む。
第9態様によれば、本願の実施例は、命令を含むコンピュータプログラム製品を提供する。該製品がコンピュータで実行される場合、コンピュータに上記各態様に記載の方法を実行させる。
例えば、本願は以下の項目を提供する。
(項目1)
ニューラルネットワーク訓練方法であって、
第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定することであって、前記第1画像は少なくとも眼部画像を含む、ことと、
前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定することと、
ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得ることと、
前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練することと、を含む、前記方法。
(項目2)
前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練することは、
前記第1視線方向及び前記第1検出視線方向の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整することを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練する前に、前記方法は、
前記第1視線方向及び前記第1検出視線方向をそれぞれ正規化処理することと、
正規化処理された前記第1視線方向及び正規化処理された前記第1検出視線方向に基づいて、前記ニューラルネットワークを訓練することを更に含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得ることは、
前記第1画像がビデオ画像に属する場合、前記ニューラルネットワークにより、隣接するN個フレームの画像の視線方向をそれぞれ検出することであって、Nが1より大きい整数であることと、
前記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定することと、を含むことを特徴とする
項目1から3のうちいずれか一項に記載の方法。
(項目5)
前記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定することは、
前記隣接するN個フレームの画像の視線方向の平均和に基づいて、前記Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定することを含むことを特徴とする
項目4に記載の方法。
(項目6)
第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定することは、
第2カメラ座標系での前記瞳孔基準点の座標を決定することと、
前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第1カメラ座標系での前記瞳孔基準点の座標に基づいて、前記第1カメラ座標系での前記瞳孔基準点の第1座標を決定することと、を含むことを特徴とする
項目1から5のうちいずれか一項に記載の方法。
(項目7)
第2カメラ座標系での前記瞳孔基準点の座標を決定することは、
前記瞳孔基準点の前記第1画像における座標を決定することと、
前記瞳孔基準点の前記第1画像における座標、及び前記第2カメラの焦点距離及び主点位置に基づいて、前記第2カメラ座標系での前記瞳孔基準点の座標を決定することと、を含むことを特徴とする
項目6に記載の方法。
(項目8)
前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定することは、
前記第2カメラ座標系での、前記第1画像における角膜上の反射点の座標を決定することであって、前記反射点は、光源が前記角膜上に結像される位置である、ことと、
前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することと、を含むことを特徴とする
項目1から7のうちいずれか一項に記載の方法。
(項目9)
前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することは、
前記第2カメラ座標系での前記光源の座標を決定することと、
前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することと、を含むことを特徴とする
項目8に記載の方法。
(項目10)
前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することは、
前記第2カメラ座標系での、前記光源に対応するプルキンエスポットの座標を決定することと、
前記第2カメラ座標系での前記プルキンエスポットの座標、前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することと、を含むことを特徴とする
項目9に記載の方法。
(項目11)
前記第2カメラ座標系での、前記第1画像における角膜上の反射点の座標を決定することは、
前記第1画像における前記反射点の座標を決定することと、
前記第1画像における前記反射点の座標、前記第2カメラの焦点距離及び主点位置に基づいて、前記第二カメラ座標系での前記反射点の座標を決定することと、を含むことを特徴とする
項目8から10のうちいずれか一項に記載の方法。
(項目12)
前記第2カメラ座標系での前記光源の座標を決定することは、
ワールド座標系での前記光源の座標を決定することと、
前記ワールド座標系と前記第2カメラ座標系との関係に基づいて、前記第2カメラ座標系での前記光源の座標を決定することと、を含むことを特徴とする
項目9から11のうちいずれか一項に記載の方法。
(項目13)
前記光源は赤外光源又は近赤外光源を含み、前記光源の数は少なくとも2つであり、前記反射点の数は、前記光源の数に対応することを特徴とする
項目8から12のうちいずれか一項に記載の方法。
(項目14)
視線検出方法であって、
ビデオストリームデータに含まれる第2画像に対して顔検出を行うことと、
検出された前記第2画像における顔領域に対してキーポイント位置決めを行い、前記顔領域における眼部領域を決定することと、
前記第2画像における前記眼部領域画像を切り取ることと、
前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力することと、を含む、前記方法。
(項目15)
前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力した後、前記方法は、
前記眼部領域画像の視線方向及び前記第2画像の少なくとも1つの隣接するフレームの画像の視線方向に基づいて、前記第2画像の視線方向を決定することを更に含むことを特徴とする
項目14に記載の方法。
(項目16)
ビデオストリームデータに含まれる第2画像に対して顔検出を行うことは、
トリガ命令を受信した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うこと、
又は、車両運転中に、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うこと、
又は、車両の運転速度が基準速度に達した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うことを含むことを特徴とする
項目14又は15に記載の方法。
(項目17)
前記ビデオストリームデータは、車載カメラによる車両の運転領域のビデオストリームであり、
前記眼部領域画像の視線方向は、前記車両の運転領域における運転者の視線方向であることを特徴とする
項目16に記載の方法。
(項目18)
前記眼部領域画像の視線方向を出力した後、前記方法は、
前記眼部領域画像の視線方向に基づいて、前記運転者の関心領域を決定することと、
前記運転者の関心領域に基づいて前記運転者の運転行為を決定することであって、前記運転行為には前記運転者が注意力散漫運転を行っているかどうかが含まれる、ことと、を更に含むことを特徴とする
項目17に記載の方法。
(項目19)
前記方法は、
前記運転者が注意力散漫運転を行っている場合、早期警告リマインド情報を出力することを更に含むことを特徴とする
項目18に記載の方法。
(項目20)
前記早期警告リマインド情報を出力することは、
前記運転者の注意力散漫運転の回数が基準回数に達した場合、前記早期警告リマインド情報を出力すること、
又は、前記運転者の注意力散漫運転時間が前記基準時間に達した場合、前記早期警告リマインド情報を出力すること、
又は、前記運転者の注意力散漫運転時間が前記基準時間に達して且つ回数が前記基準回数に達した場合、前記早期警告リマインド情報を出力すること、
又は、前記運転者が注意力散漫運転を行っている場合、前記車両に接続される端末にリマインド情報を送信することを含むことを特徴とする
項目19に記載の方法。
(項目21)
前記方法は、
前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を記憶すること、
又は、前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を前記車両に接続される端末に送信することを更に含むことを特徴とする
項目19又は20に記載の方法。
(項目22)
前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力する前に、前記方法は、項目1から13のうちいずれか一項に記載の方法で前記ニューラルネットワークを訓練することを更に含むことを特徴とする
項目14から21のうちいずれか一項に記載の方法。
(項目23)
ニューラルネットワーク訓練装置であって、
第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定するように構成される第1決定ユニットであって、前記第1画像は少なくとも眼部画像を含む、第1決定ユニットと、
前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定するように構成される第2決定ユニットと、
ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得るように構成される検出ユニットと、
前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練するように構成される訓練ユニットと、を備える、前記装置。
(項目24)
前記訓練ユニットは具体的には、前記第1視線方向及び前記第1検出視線方向の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するように構成されることを特徴とする
項目23に記載の装置。
(項目25)
前記装置は、
前記第1視線方向及び前記第1検出視線方向をそれぞれ正規化処理するように正規化処理ユニットを更に備え、
前記訓練ユニットは具体的には、正規化処理された前記第1視線方向及び正規化処理された前記第1検出視線方向に基づいて、前記ニューラルネットワークを訓練するように構成されることを特徴とする
項目23又は24に記載の装置。
(項目26)
前記検出ユニットは具体的には、前記第1画像がビデオ画像に属する場合、前記ニューラルネットワークにより、隣接するN個フレームの画像の視線方向をそれぞれ検出し、Nが1より大きい整数であり、
前記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定するように構成されることを特徴とする
項目23から25のうちいずれか一項に記載の装置。
(項目27)
前記検出ユニットは具体的には、前記隣接するN個フレームの画像の視線方向の平均和に基づいて、前記Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定するように構成されることを特徴とする
項目26に記載の装置。
(項目28)
前記第1決定ユニットは、
第2カメラ座標系での前記瞳孔基準点の座標を決定するように構成される第1決定サブユニットと、
前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第1カメラ座標系での前記瞳孔基準点の座標に基づいて、前記第1カメラ座標系での前記瞳孔基準点の第1座標を決定するように構成される第2決定サブユニットと、を備えることを特徴とする
項目25から27のうちいずれか一項に記載の装置。
(項目29)
前記第1決定サブユニットは具体的には、前記瞳孔基準点の前記第1画像における座標を決定し、前記瞳孔基準点の前記第1画像における座標、及び前記第2カメラの焦点距離及び主点位置に基づいて、前記第2カメラ座標系での前記瞳孔基準点の座標を決定するように構成されることを特徴とする
項目28に記載の装置。
(項目30)
前記第1決定ユニットは、
前記第2カメラ座標系での、前記第1画像における角膜上の反射点の座標を決定するように構成される第3決定サブユニットであって、前記反射点は、光源が前記角膜上に結像される位置である、第3決定サブユニットと、
前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定するように構成される第4決定サブユニットと、を備えることを特徴とする
項目25から29のうちいずれか一項に記載の装置。
(項目31)
前記第4決定サブユニットは具体的には、前記第2カメラ座標系での前記光源の座標を決定し、前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定するように構成されることを特徴とする
項目30に記載の装置。
(項目32)
前記第4決定サブユニットは具体的には、前記第2カメラ座標系での、前記光源に対応するプルキンエスポットの座標を決定し、前記第2カメラ座標系での前記プルキンエスポットの座標、前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定するように構成されることを特徴とする
項目31に記載の装置。
(項目33)
前記第3決定サブユニットは具体的には、前記第1画像における前記反射点の座標を決定し、
前記第1画像における前記反射点の座標、前記第2カメラの焦点距離及び主点位置に基づいて、反射点の前記第二カメラ座標系での座標を決定するように構成されることを特徴とする
項目30から32のうちいずれか一項に記載の装置。
(項目34)
前記第4決定サブユニットは具体的には、ワールド座標系での前記光源の座標を決定し、前記ワールド座標系と前記第2カメラ座標系との関係に基づいて、前記第2カメラ座標系での前記光源の座標を決定するように構成されることを特徴とする
項目31から33のうちいずれか一項に記載の装置。
(項目35)
前記光源は赤外光源又は近赤外光源を含み、前記光源の数は少なくとも2つであり、前記反射点の数は、前記光源の数に対応することを特徴とする
項目30から34のうちいずれか一項に記載の装置。
(項目36)
視線検出装置であって、
ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成される顔検出ユニットと
検出された前記第2画像における顔領域に対してキーポイント位置決めを行い、前記顔領域における眼部領域を決定するように構成される第1決定ユニットと、
前記第2画像における前記眼部領域画像を切り取るように構成される切取ユニットと、
前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力するように構成される入力出力ユニットと、を備える、前記装置。
(項目37)
前記装置は、
前記眼部領域画像の視線方向及び前記第2画像の少なくとも1つの隣接するフレームの画像の視線方向に基づいて、前記第2画像の視線方向を決定するように構成される第2決定ユニットを更に備えることを特徴とする
項目36に記載の装置。
(項目38)
前記顔検出ユニットは具体的には、トリガ命令を受信した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成され、
又は、前記顔検出ユニットは具体的には、車両運転中に、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成され、
又は、前記顔検出ユニットは具体的には、車両の運転速度が基準速度に達した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成されることを特徴とする
項目36又は37に記載の装置。
(項目39)
前記ビデオストリームデータは、車載カメラによる車両の運転領域のビデオストリームであり、
前記眼部領域画像の視線方向は、前記車両の運転領域における運転者の視線方向であることを特徴とする
項目38に記載の装置。
(項目40)
前記装置は、
前記眼部領域画像の視線方向に基づいて、前記運転者の関心領域を決定し、前記運転者の関心領域に基づいて前記運転者の運転行為を決定するように構成される第3決定ユニットを更に備え、前記運転行為には前記運転者が注意力散漫運転を行っているかどうかが含まれることを特徴とする
項目39に記載の装置。
(項目41)
前記装置は、
前記運転者が注意力散漫運転を行っている場合、早期警告リマインド情報を出力するように構成される出力ユニットを更に備えることを特徴とする
項目40に記載の装置。
(項目42)
前記出力ユニットは具体的には、運転者の注意力散漫運転の回数が基準回数に達した場合、前記早期警告リマインド情報を出力するように構成され、
又は、前記出力ユニットは具体的には、前記運転者の注意力散漫運転時間が基準時間に達した場合、前記早期警告リマインド情報を出力するように構成され、
又は、前記出力ユニットは具体的には、前記運転者の注意力散漫運転時間が前記基準時間に達して且つ回数が前記基準回数に達した場合、前記早期警告リマインド情報を出力するように構成され、
又は、前記出力ユニットは具体的には、前記運転者が注意力散漫運転を行っている場合、前記車両に接続される端末にリマインド情報を送信するように構成されることを特徴とする
項目41に記載の装置。
(項目43)
前記装置は、
前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を記憶するように構成される記憶ユニット、
又は、前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を前記車両に接続される端末に送信するように構成される送信ユニットを更に備えることを特徴とする
項目41又は42に記載の装置。
(項目44)
前記装置は、
少なくとも眼部画像を含んでいる第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定するように構成され、また、前記第1座標及び前記第2座標に基づいて前記第1画像の第1視線方向を決定するように構成される第4決定ユニットと、
ニューラルネットワークにより前記第1画像に対して視線方向を検出し、第1検出視線方向を得るように構成される検出ユニットと、
前記第1視線方向及び前記第1検出視線方向に基づいて、前記ニューラルネットワークを訓練するように構成される訓練ユニットと、を更に備えることを特徴とする
項目36から43のうちいずれか一項に記載の装置。
(項目45)
電子機器であって、プロセッサとメモリとを備え、前記プロセッサと前記メモリは、回路により相互接続され、前記メモリは、プログラム命令を記憶するように構成され、前記プログラム命令が前記プロセッサにより実行される時、前記プロセッサに項目1から13のうちいずれか一項に記載の方法を実行させる、前記電子機器。
(項目46)
電子機器であって、プロセッサとメモリとを備え、前記プロセッサと前記メモリは、回路により相互接続され、前記メモリは、プログラム命令を記憶するように構成され、前記プログラム命令が前記プロセッサにより実行される時、前記プロセッサに項目14から22のうちいずれか一項に記載の方法を実行させる、前記電子機器。
(項目47)
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムは、プログラム命令を含み、前記プログラム命令がプロセッサにより実行される時、前記プロセッサに項目1から13のうちいずれか一項に記載の方法を実行させ、及び/又は、前記プロセッサに項目14から22のうちいずれか一項に記載の方法を実行させる、前記コンピュータ可読記憶媒体。

Claims (47)

  1. ニューラルネットワーク訓練方法であって、
    第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定することであって、前記第1画像は少なくとも眼部画像を含む、ことと、
    前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定することと、
    ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得ることと、
    前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練することと、を含む、前記方法。
  2. 前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練することは、
    前記第1視線方向及び前記第1検出視線方向の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整することを含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練する前に、前記方法は、
    前記第1視線方向及び前記第1検出視線方向をそれぞれ正規化処理することと、
    正規化処理された前記第1視線方向及び正規化処理された前記第1検出視線方向に基づいて、前記ニューラルネットワークを訓練することを更に含むことを特徴とする
    請求項1又は2に記載の方法。
  4. ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得ることは、
    前記第1画像がビデオ画像に属する場合、前記ニューラルネットワークにより、隣接するN個フレームの画像の視線方向をそれぞれ検出することであって、Nが1より大きい整数であることと、
    前記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定することと、を含むことを特徴とする
    請求項1から3のうちいずれか一項に記載の方法。
  5. 前記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定することは、
    前記隣接するN個フレームの画像の視線方向の平均和に基づいて、前記Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定することを含むことを特徴とする
    請求項4に記載の方法。
  6. 第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定することは、
    第2カメラ座標系での前記瞳孔基準点の座標を決定することと、
    前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第1カメラ座標系での前記瞳孔基準点の座標に基づいて、前記第1カメラ座標系での前記瞳孔基準点の第1座標を決定することと、を含むことを特徴とする
    請求項1から5のうちいずれか一項に記載の方法。
  7. 第2カメラ座標系での前記瞳孔基準点の座標を決定することは、
    前記瞳孔基準点の前記第1画像における座標を決定することと、
    前記瞳孔基準点の前記第1画像における座標、及び前記第2カメラの焦点距離及び主点位置に基づいて、前記第2カメラ座標系での前記瞳孔基準点の座標を決定することと、を含むことを特徴とする
    請求項6に記載の方法。
  8. 前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定することは、
    前記第2カメラ座標系での、前記第1画像における角膜上の反射点の座標を決定することであって、前記反射点は、光源が前記角膜上に結像される位置である、ことと、
    前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することと、を含むことを特徴とする
    請求項1から7のうちいずれか一項に記載の方法。
  9. 前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することは、
    前記第2カメラ座標系での前記光源の座標を決定することと、
    前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することと、を含むことを特徴とする
    請求項8に記載の方法。
  10. 前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することは、
    前記第2カメラ座標系での、前記光源に対応するプルキンエスポットの座標を決定することと、
    前記第2カメラ座標系での前記プルキンエスポットの座標、前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定することと、を含むことを特徴とする
    請求項9に記載の方法。
  11. 前記第2カメラ座標系での、前記第1画像における角膜上の反射点の座標を決定することは、
    前記第1画像における前記反射点の座標を決定することと、
    前記第1画像における前記反射点の座標、前記第2カメラの焦点距離及び主点位置に基づいて、前記第二カメラ座標系での前記反射点の座標を決定することと、を含むことを特徴とする
    請求項8から10のうちいずれか一項に記載の方法。
  12. 前記第2カメラ座標系での前記光源の座標を決定することは、
    ワールド座標系での前記光源の座標を決定することと、
    前記ワールド座標系と前記第2カメラ座標系との関係に基づいて、前記第2カメラ座標系での前記光源の座標を決定することと、を含むことを特徴とする
    請求項9から11のうちいずれか一項に記載の方法。
  13. 前記光源は赤外光源又は近赤外光源を含み、前記光源の数は少なくとも2つであり、前記反射点の数は、前記光源の数に対応することを特徴とする
    請求項8から12のうちいずれか一項に記載の方法。
  14. 視線検出方法であって、
    ビデオストリームデータに含まれる第2画像に対して顔検出を行うことと、
    検出された前記第2画像における顔領域に対してキーポイント位置決めを行い、前記顔領域における眼部領域を決定することと、
    前記第2画像における前記眼部領域画像を切り取ることと、
    前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力することと、を含む、前記方法。
  15. 前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力した後、前記方法は、
    前記眼部領域画像の視線方向及び前記第2画像の少なくとも1つの隣接するフレームの画像の視線方向に基づいて、前記第2画像の視線方向を決定することを更に含むことを特徴とする
    請求項14に記載の方法。
  16. ビデオストリームデータに含まれる第2画像に対して顔検出を行うことは、
    トリガ命令を受信した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うこと、
    又は、車両運転中に、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うこと、
    又は、車両の運転速度が基準速度に達した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うことを含むことを特徴とする
    請求項14又は15に記載の方法。
  17. 前記ビデオストリームデータは、車載カメラによる車両の運転領域のビデオストリームであり、
    前記眼部領域画像の視線方向は、前記車両の運転領域における運転者の視線方向であることを特徴とする
    請求項16に記載の方法。
  18. 前記眼部領域画像の視線方向を出力した後、前記方法は、
    前記眼部領域画像の視線方向に基づいて、前記運転者の関心領域を決定することと、
    前記運転者の関心領域に基づいて前記運転者の運転行為を決定することであって、前記運転行為には前記運転者が注意力散漫運転を行っているかどうかが含まれる、ことと、を更に含むことを特徴とする
    請求項17に記載の方法。
  19. 前記方法は、
    前記運転者が注意力散漫運転を行っている場合、早期警告リマインド情報を出力することを更に含むことを特徴とする
    請求項18に記載の方法。
  20. 前記早期警告リマインド情報を出力することは、
    前記運転者の注意力散漫運転の回数が基準回数に達した場合、前記早期警告リマインド情報を出力すること、
    又は、前記運転者の注意力散漫運転時間が前記基準時間に達した場合、前記早期警告リマインド情報を出力すること、
    又は、前記運転者の注意力散漫運転時間が前記基準時間に達して且つ回数が前記基準回数に達した場合、前記早期警告リマインド情報を出力すること、
    又は、前記運転者が注意力散漫運転を行っている場合、前記車両に接続される端末にリマインド情報を送信することを含むことを特徴とする
    請求項19に記載の方法。
  21. 前記方法は、
    前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を記憶すること、
    又は、前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を前記車両に接続される端末に送信することを更に含むことを特徴とする
    請求項19又は20に記載の方法。
  22. 前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力する前に、前記方法は、請求項1から13のうちいずれか一項に記載の方法で前記ニューラルネットワークを訓練することを更に含むことを特徴とする
    請求項14から21のうちいずれか一項に記載の方法。
  23. ニューラルネットワーク訓練装置であって、
    第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定するように構成される第1決定ユニットであって、前記第1画像は少なくとも眼部画像を含む、第1決定ユニットと、
    前記第1座標及び前記第2座標に基づいて、前記第1画像の第1視線方向を決定するように構成される第2決定ユニットと、
    ニューラルネットワークにより、前記第1画像に対して視線方向検出を行い、第1検出視線方向を得るように構成される検出ユニットと、
    前記第1視線方向及び前記第1検出視線方向に基づいて前記ニューラルネットワークを訓練するように構成される訓練ユニットと、を備える、前記装置。
  24. 前記訓練ユニットは具体的には、前記第1視線方向及び前記第1検出視線方向の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するように構成されることを特徴とする
    請求項23に記載の装置。
  25. 前記装置は、
    前記第1視線方向及び前記第1検出視線方向をそれぞれ正規化処理するように正規化処理ユニットを更に備え、
    前記訓練ユニットは具体的には、正規化処理された前記第1視線方向及び正規化処理された前記第1検出視線方向に基づいて、前記ニューラルネットワークを訓練するように構成されることを特徴とする
    請求項23又は24に記載の装置。
  26. 前記検出ユニットは具体的には、前記第1画像がビデオ画像に属する場合、前記ニューラルネットワークにより、隣接するN個フレームの画像の視線方向をそれぞれ検出し、Nが1より大きい整数であり、
    前記隣接するN個フレームの画像の視線方向に基づいて、Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定するように構成されることを特徴とする
    請求項23から25のうちいずれか一項に記載の装置。
  27. 前記検出ユニットは具体的には、前記隣接するN個フレームの画像の視線方向の平均和に基づいて、前記Nフレーム目の画像の視線方向が前記第1検出視線方向であると判定するように構成されることを特徴とする
    請求項26に記載の装置。
  28. 前記第1決定ユニットは、
    第2カメラ座標系での前記瞳孔基準点の座標を決定するように構成される第1決定サブユニットと、
    前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第1カメラ座標系での前記瞳孔基準点の座標に基づいて、前記第1カメラ座標系での前記瞳孔基準点の第1座標を決定するように構成される第2決定サブユニットと、を備えることを特徴とする
    請求項25から27のうちいずれか一項に記載の装置。
  29. 前記第1決定サブユニットは具体的には、前記瞳孔基準点の前記第1画像における座標を決定し、前記瞳孔基準点の前記第1画像における座標、及び前記第2カメラの焦点距離及び主点位置に基づいて、前記第2カメラ座標系での前記瞳孔基準点の座標を決定するように構成されることを特徴とする
    請求項28に記載の装置。
  30. 前記第1決定ユニットは、
    前記第2カメラ座標系での、前記第1画像における角膜上の反射点の座標を決定するように構成される第3決定サブユニットであって、前記反射点は、光源が前記角膜上に結像される位置である、第3決定サブユニットと、
    前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定するように構成される第4決定サブユニットと、を備えることを特徴とする
    請求項25から29のうちいずれか一項に記載の装置。
  31. 前記第4決定サブユニットは具体的には、前記第2カメラ座標系での前記光源の座標を決定し、前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定するように構成されることを特徴とする
    請求項30に記載の装置。
  32. 前記第4決定サブユニットは具体的には、前記第2カメラ座標系での、前記光源に対応するプルキンエスポットの座標を決定し、前記第2カメラ座標系での前記プルキンエスポットの座標、前記第2カメラ座標系での前記光源の座標、前記第1カメラ座標系と前記第2カメラ座標系との関係、及び前記第2カメラ座標系での前記角膜上の反射点の座標に基づいて、前記第1カメラ座標系での前記角膜基準点の第2座標を決定するように構成されることを特徴とする
    請求項31に記載の装置。
  33. 前記第3決定サブユニットは具体的には、前記第1画像における前記反射点の座標を決定し、
    前記第1画像における前記反射点の座標、前記第2カメラの焦点距離及び主点位置に基づいて、反射点の前記第二カメラ座標系での座標を決定するように構成されることを特徴とする
    請求項30から32のうちいずれか一項に記載の装置。
  34. 前記第4決定サブユニットは具体的には、ワールド座標系での前記光源の座標を決定し、前記ワールド座標系と前記第2カメラ座標系との関係に基づいて、前記第2カメラ座標系での前記光源の座標を決定するように構成されることを特徴とする
    請求項31から33のうちいずれか一項に記載の装置。
  35. 前記光源は赤外光源又は近赤外光源を含み、前記光源の数は少なくとも2つであり、前記反射点の数は、前記光源の数に対応することを特徴とする
    請求項30から34のうちいずれか一項に記載の装置。
  36. 視線検出装置であって、
    ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成される顔検出ユニットと
    検出された前記第2画像における顔領域に対してキーポイント位置決めを行い、前記顔領域における眼部領域を決定するように構成される第1決定ユニットと、
    前記第2画像における前記眼部領域画像を切り取るように構成される切取ユニットと、
    前記眼部領域画像を予め訓練されたニューラルネットワークに入力し、前記眼部領域画像の視線方向を出力するように構成される入力出力ユニットと、を備える、前記装置。
  37. 前記装置は、
    前記眼部領域画像の視線方向及び前記第2画像の少なくとも1つの隣接するフレームの画像の視線方向に基づいて、前記第2画像の視線方向を決定するように構成される第2決定ユニットを更に備えることを特徴とする
    請求項36に記載の装置。
  38. 前記顔検出ユニットは具体的には、トリガ命令を受信した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成され、
    又は、前記顔検出ユニットは具体的には、車両運転中に、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成され、
    又は、前記顔検出ユニットは具体的には、車両の運転速度が基準速度に達した場合、前記ビデオストリームデータに含まれる第2画像に対して顔検出を行うように構成されることを特徴とする
    請求項36又は37に記載の装置。
  39. 前記ビデオストリームデータは、車載カメラによる車両の運転領域のビデオストリームであり、
    前記眼部領域画像の視線方向は、前記車両の運転領域における運転者の視線方向であることを特徴とする
    請求項38に記載の装置。
  40. 前記装置は、
    前記眼部領域画像の視線方向に基づいて、前記運転者の関心領域を決定し、前記運転者の関心領域に基づいて前記運転者の運転行為を決定するように構成される第3決定ユニットを更に備え、前記運転行為には前記運転者が注意力散漫運転を行っているかどうかが含まれることを特徴とする
    請求項39に記載の装置。
  41. 前記装置は、
    前記運転者が注意力散漫運転を行っている場合、早期警告リマインド情報を出力するように構成される出力ユニットを更に備えることを特徴とする
    請求項40に記載の装置。
  42. 前記出力ユニットは具体的には、運転者の注意力散漫運転の回数が基準回数に達した場合、前記早期警告リマインド情報を出力するように構成され、
    又は、前記出力ユニットは具体的には、前記運転者の注意力散漫運転時間が基準時間に達した場合、前記早期警告リマインド情報を出力するように構成され、
    又は、前記出力ユニットは具体的には、前記運転者の注意力散漫運転時間が前記基準時間に達して且つ回数が前記基準回数に達した場合、前記早期警告リマインド情報を出力するように構成され、
    又は、前記出力ユニットは具体的には、前記運転者が注意力散漫運転を行っている場合、前記車両に接続される端末にリマインド情報を送信するように構成されることを特徴とする
    請求項41に記載の装置。
  43. 前記装置は、
    前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を記憶するように構成される記憶ユニット、
    又は、前記運転者が注意力散漫運転を行っている場合、前記眼部領域画像及び前記眼部領域画像の前後の所定数のフレームの画像のうちの1つ又は複数を前記車両に接続される端末に送信するように構成される送信ユニットを更に備えることを特徴とする
    請求項41又は42に記載の装置。
  44. 前記装置は、
    少なくとも眼部画像を含んでいる第1カメラ座標系での、第1画像における瞳孔基準点の第1座標を決定し、前記第1カメラ座標系での、前記第1画像における角膜基準点の第2座標を決定するように構成され、また、前記第1座標及び前記第2座標に基づいて前記第1画像の第1視線方向を決定するように構成される第4決定ユニットと、
    ニューラルネットワークにより前記第1画像に対して視線方向を検出し、第1検出視線方向を得るように構成される検出ユニットと、
    前記第1視線方向及び前記第1検出視線方向に基づいて、前記ニューラルネットワークを訓練するように構成される訓練ユニットと、を更に備えることを特徴とする
    請求項36から43のうちいずれか一項に記載の装置。
  45. 電子機器であって、プロセッサとメモリとを備え、前記プロセッサと前記メモリは、回路により相互接続され、前記メモリは、プログラム命令を記憶するように構成され、前記プログラム命令が前記プロセッサにより実行される時、前記プロセッサに請求項1から13のうちいずれか一項に記載の方法を実行させる、前記電子機器。
  46. 電子機器であって、プロセッサとメモリとを備え、前記プロセッサと前記メモリは、回路により相互接続され、前記メモリは、プログラム命令を記憶するように構成され、前記プログラム命令が前記プロセッサにより実行される時、前記プロセッサに請求項14から22のうちいずれか一項に記載の方法を実行させる、前記電子機器。
  47. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムは、プログラム命令を含み、前記プログラム命令がプロセッサにより実行される時、前記プロセッサに請求項1から13のうちいずれか一項に記載の方法を実行させ、及び/又は、前記プロセッサに請求項14から22のうちいずれか一項に記載の方法を実行させる、前記コンピュータ可読記憶媒体。
JP2021524087A 2018-09-29 2019-06-28 ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器 Pending JP2021531601A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811155648.0 2018-09-29
CN201811155648.0A CN110969061A (zh) 2018-09-29 2018-09-29 神经网络训练、视线检测方法和装置及电子设备
PCT/CN2019/093907 WO2020063000A1 (zh) 2018-09-29 2019-06-28 神经网络训练、视线检测方法和装置及电子设备

Publications (1)

Publication Number Publication Date
JP2021531601A true JP2021531601A (ja) 2021-11-18

Family

ID=69950206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021524087A Pending JP2021531601A (ja) 2018-09-29 2019-06-28 ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器

Country Status (4)

Country Link
US (1) US20210165993A1 (ja)
JP (1) JP2021531601A (ja)
CN (1) CN110969061A (ja)
WO (1) WO2020063000A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7164047B2 (ja) * 2019-07-10 2022-11-01 日本電気株式会社 注視点検出装置及び注視点検出方法
CN111723716B (zh) * 2020-06-11 2024-03-08 深圳地平线机器人科技有限公司 确定目标对象朝向的方法、装置、系统、介质及电子设备
CN112308932B (zh) * 2020-11-04 2023-12-08 中国科学院上海微系统与信息技术研究所 一种注视检测方法、装置、设备及存储介质
CN112401887B (zh) * 2020-11-10 2023-12-12 恒大新能源汽车投资控股集团有限公司 一种驾驶员注意力监测方法、装置及电子设备
CN112766097B (zh) * 2021-01-06 2024-02-13 中国科学院上海微系统与信息技术研究所 视线识别模型的训练方法、视线识别方法、装置及设备
CN113011286B (zh) * 2021-03-02 2022-09-09 重庆邮电大学 基于视频的深度神经网络回归模型的斜视判别方法及系统
CN113052064B (zh) * 2021-03-23 2024-04-02 北京思图场景数据科技服务有限公司 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102902A (ja) * 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2017076180A (ja) * 2015-10-13 2017-04-20 いすゞ自動車株式会社 状態判定装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265367A (ja) * 2006-03-30 2007-10-11 Fujifilm Corp 視線検出方法および装置ならびにプログラム
JP4893507B2 (ja) * 2007-07-04 2012-03-07 オムロン株式会社 脇見検出装置および方法、並びに、プログラム
CN102520796B (zh) * 2011-12-08 2014-10-08 华南理工大学 一种基于逐步回归分析映射模型的视线跟踪方法
JP6304999B2 (ja) * 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
CN103839055B (zh) * 2014-03-19 2017-08-29 中国科学技术大学 一种驾驶员视线方向的检测方法
CN104978548B (zh) * 2014-04-02 2018-09-25 汉王科技股份有限公司 一种基于三维主动形状模型的视线估计方法与装置
US9704038B2 (en) * 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
KR101745140B1 (ko) * 2015-09-21 2017-06-08 현대자동차주식회사 시선 추적 장치 및 방법
CN105426827B (zh) * 2015-11-09 2019-03-08 北京市商汤科技开发有限公司 活体验证方法、装置和系统
CN108229284B (zh) * 2017-05-26 2021-04-09 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、系统、电子设备和存储介质
CN108171152A (zh) * 2017-12-26 2018-06-15 深圳大学 深度学习人眼视线估计方法、设备、系统及可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102902A (ja) * 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2017076180A (ja) * 2015-10-13 2017-04-20 いすゞ自動車株式会社 状態判定装置

Also Published As

Publication number Publication date
CN110969061A (zh) 2020-04-07
WO2020063000A1 (zh) 2020-04-02
US20210165993A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
JP2021531601A (ja) ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器
US20210133469A1 (en) Neural network training method and apparatus, gaze tracking method and apparatus, and electronic device
CN109690553A (zh) 执行眼睛注视跟踪的系统和方法
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和系统
US10564716B2 (en) 3D gazing point detection by binocular homography mapping
CN113808160B (zh) 视线方向追踪方法和装置
TW202121251A (zh) 活體檢測方法及裝置、儲存介質
EP3644826A1 (en) A wearable eye tracking system with slippage detection and correction
US11181978B2 (en) System and method for gaze estimation
García et al. Driver monitoring based on low-cost 3-D sensors
CN113366491B (zh) 眼球追踪方法、装置及存储介质
US10254831B2 (en) System and method for detecting a gaze of a viewer
JPWO2008007781A1 (ja) 視線方向検出装置および視線方向検出方法
WO2022032911A1 (zh) 一种视线追踪方法及装置
CN111854620A (zh) 基于单目相机的实际瞳距测定方法、装置以及设备
WO2020228224A1 (zh) 一种人脸部位测距方法、装置及车载终端
CN113642425A (zh) 基于多模态的图像检测方法、装置、电子设备及存储介质
TWI499999B (zh) The 3D ring car image system based on probability calculation and its obtaining method
CN117372657A (zh) 关键点旋转模型的训练方法及装置、电子设备和存储介质
JP4011426B2 (ja) 顔検出装置、顔検出方法および顔検出プログラム
EP3278271A1 (en) Method and apparatus for identifying a person by measuring body part distances of the person
CN112330726B (zh) 一种图像处理方法及装置
JP2012227830A (ja) 情報処理装置、その処理方法、プログラム及び撮像装置
Zhao et al. Estimating a driver's gaze point by a remote spherical camera
CN110530336B (zh) 对称高度差测量方法、装置、系统、电子设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230213