JP6479272B1 - 視線方向較正装置、視線方向較正方法および視線方向較正プログラム - Google Patents

視線方向較正装置、視線方向較正方法および視線方向較正プログラム Download PDF

Info

Publication number
JP6479272B1
JP6479272B1 JP2018529196A JP2018529196A JP6479272B1 JP 6479272 B1 JP6479272 B1 JP 6479272B1 JP 2018529196 A JP2018529196 A JP 2018529196A JP 2018529196 A JP2018529196 A JP 2018529196A JP 6479272 B1 JP6479272 B1 JP 6479272B1
Authority
JP
Japan
Prior art keywords
calibration
gaze
user
line
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018529196A
Other languages
English (en)
Other versions
JPWO2019135281A1 (ja
Inventor
飛仙 平田
飛仙 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6479272B1 publication Critical patent/JP6479272B1/ja
Publication of JPWO2019135281A1 publication Critical patent/JPWO2019135281A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/22Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring angles or tapers; for testing the alignment of axes

Abstract

少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得する較正情報取得部(101)と、ユーザの視線方向を示した複数のサンプルを取得するサンプル取得部(102)と、各較正用注視対象の位置を示す3次元座標と各較正用注視対象を注視している状態のユーザの視線方向を示したサンプルとに基づいて、ユーザの位置の候補となる3次元座標を示す複数の較正モデルを生成する較正モデル生成部(103)と、生成された較正モデルに基づいて、較正パラメータを算出する較正パラメータ算出部(104)を備える。

Description

この発明は、計測された人の視線方向を較正する技術に関するものである。
近年、様々な分野において、計測された人の視線方向の利用が期待されている。例えば、車両の運転者への運転支援への利用として、計測された運転者の視線方向に基づいて、歩行者等への注意度合もしくはわき見運転等の運転者の周囲認知状況を判定する、または当該視線方向に支援情報を表示させる等が挙げられる。
一般に、計測された視線方向には計測誤差が含まれる。そのため、計測された視線方向を利用する場合には、計測された視線方向に含まれた計測誤差を較正する技術が合わせて用いられる。
特許文献1には、2つのカメラで撮影した画像から、運転者の両目のそれぞれ角膜反射像を抽出し、2つの角膜反射像の座標と、対応するカメラの焦点とを結ぶ2つの直線の交点を眼球中心とする眼球位置を検出すると共に、カメラの撮影方向に対する眼球の回転角度を検出し、検出された眼球位置および眼球の回転角度に基づいて視線方向を算出する視線方向計測装置が記載されている。この特許文献1に記載された視線方向計測装置は、乗員によってナビゲーション装置等の特定の機器が操作された場合に、キャリブレーション動作を開始し、上述のように算出した運転者の視線方向を、眼球中心と特定の機器とを通る直線に一致させる補正係数を算出する。
特開平9−238905号公報
しかし、上述した特許文献1に記載された視線方向計測装置では、特定の機器に向けられた視線に対して計測される視線方向の補正係数のみが、計測誤差を較正する較正量として算出される。そのため、特定の機器以外の、任意の点に向けられた視線に対しては、較正量を算出することができないという課題があった。
この発明は、上記のような課題を解決するためになされたもので、任意の点に向けられた視線に対して計測された視線方向に含まれる計測誤差を較正するための較正量を算出することを目的とする。
この発明に係る視線方向較正装置は、少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す既知の座標系を基準とした3次元座標を取得する較正情報取得部と、当該座標系との対応関係が未知の座標系を基準としたユーザの視線方向を示した複数のサンプルを取得するサンプル取得部と、前記較正情報取得部が取得した3次元座標と、前記サンプル取得部が取得した前記各較正用注視対象を注視している状態の前記ユーザの視線方向を示した前記サンプルと、前記既知の座標系と前記未知の座標系との対応関係を表すパラメータである未知のパラメータと、に基づいて、前記ユーザの位置の候補となる、3次元座標を示す複数の較正モデルを生成する較正モデル生成部と、前記較正モデル生成部が生成した前記較正モデルに基づいて、前記未知のパラメータと、前記ユーザの位置と、を較正パラメータとして算出する較正パラメータ算出部とを備える。
この発明によれば、任意の点に向けられた視線に対して計測された視線方向に含まれる計測誤差を較正するための較正量を算出することができる。
実施の形態1に係る視線方向較正装置の構成を示すブロック図である。 図2Aおよび図2Bは、実施の形態1に係る視線方向較正装置のハードウェア構成例を示す図である。 実施の形態1に係る視線方向較正装置において使用される3次元座標を示す図である。 実施の形態1に係る視線方向較正装置の較正モデル生成部の処理を示す説明図である。 実施の形態1に係る視線方向較正装置の較正モデル生成部の処理を示す説明図である。 実施の形態1に係る視線方向較正装置の較正値算出部の算出例を示す説明図である。 実施の形態1に係る視線方向較正装置の較正パラメータ算出処理の動作を示すフローチャートである。 実施の形態1に係る視線方向較正装置の視線方向の較正処理および視線方向の判定処理の動作を示すフローチャートである。 実施の形態1に係る視線方向較正装置の較正処理の結果を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る視線方向較正装置100の構成を示すブロック図である。
視線方向較正装置100は、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105、較正パラメータ蓄積部106a、視線方向蓄積部106bおよび視線方向判定部107を備える。
また、視線方向較正装置100は、視線計測装置201および入力装置202と接続される。
視線方向較正装置100は、車両内の乗員の計測された視線方向の較正、または、机上のディスプレイもしくはユーザの頭部に固定されたディスプレイ等を視認するユーザに対して計測された視線方向の較正等、較正用注視対象とユーザの相対位置が固定的であると見做される場合に広く適用可能である。
較正情報取得部101は、後述する較正モデルを生成する際にユーザが注視すべき予め設定された注視対象(以下、較正用注視対象と記載する)の3次元座標を取得する。ここで、ユーザとは、視線計測の対象となる人物である。較正情報取得部101は、較正用注視対象の3次元座標を内部の記憶装置から取得する。または、較正情報取得部101は、較正用注視対象の位置を示す3次元座標を入力装置を介して外部のプログラムから取得する。
較正用注視対象は、少なくとも較正の自由度を満たし得る任意の数を設定する。例えば、視線方向較正装置100が車両に適用され、車両の運転者の視線方向を較正する場合において、視線方向計測の基準方向と較正用の基準方向とのなす角を示す回転パラメータ(後述する式(1)におけるρ)が事前に把握されており、また運転席の左右方向の位置(式(1)におけるxtargetのx成分)が固定的であり事前に把握されていると仮定する。この場合、較正の自由度はユーザ位置の前後方向と上下方向の2自由度(式(1)におけるxtargetのy,z成分)であり、さらに、視線計測装置201が視線のヨー方向とピッチ方向を提供すると仮定すれば2自由度の計測値が得られるため、較正用注視対象は少なくとも1つあればよい。以下の説明では回転パラメータ(ρ)は未知であり、較正用注視対象が複数である場合を一例として説明する。なお、一般的には較正用注視対象の数が増えるに従って、算出される較正パラメータの精度が向上する。
視線方向較正装置100が較正パラメータの算出を行っている場合、サンプル取得部102は、各較正用注視対象を注視している状態のユーザの視線方向を示した複数のサンプルを取得する。サンプル取得部102は、1つの較正用注視対象を注視している状態のユーザについて、複数の視線方向を取得する。また、サンプル取得部102は、複数の較正用注視対象それぞれを注視している状態のユーザについて視線方向を取得する。
なお、視線方向の基準、即ち視線計測装置201のゼロ点における真の視線方向は、最も簡単にはユーザの正面方向に平行な方向であることが望ましい。ただし、視線方向の基準を較正対象に含める構成においては、視線方向の基準は未知であってもよい。この場合は、後述の較正処理により、任意に指定した方位、例えば後述するY軸を基準として較正後の視線方向が算出される。サンプル取得部102は、取得したサンプルを、較正モデル生成部103に出力する。
一方、 視線方向較正装置100が較正パラメータを用いて視線方向の較正処理および視線方向の判定処理を行っている場合、サンプル取得部102は、現在のユーザの視線方向を示したサンプルを取得する。サンプル取得部102は、取得したサンプルを較正値算出部105に出力する。
較正モデル生成部103は、較正情報取得部101が取得した較正用注視対象の3次元座標と、サンプル取得部102が取得したサンプルとを対応付けて、ユーザ位置の候補となる3次元座標を示す複数の較正モデルを生成する。なお、較正モデル生成部103は、外部のプログラムと連携して、較正用注視対象を示す情報と紐付けされて記憶された複数のサンプルを取得する構成としてもよい。ユーザ位置は、例えば、ユーザの頭部の中心位置、眼球の中心位置、または眉間の中心位置が相当する。較正モデル生成部103は、生成した較正モデルを較正パラメータ算出部104に出力する。なお、較正モデル生成部103の詳細な処理内容については後述する。
較正パラメータ算出部104は、較正モデル生成部103が生成した較正モデルに基づいて、較正パラメータを算出する。較正パラメータ算出部104は、較正パラメータを、較正パラメータ蓄積部106aに蓄積する。なお、較正パラメータ算出部104の詳細な処理内容については後述する。
較正値算出部105は、較正パラメータ算出部104が算出した較正パラメータに基づいて、較正された視線方向を算出する。例えば、較正値算出部105は、入力装置202を介して、外部のプログラムから任意の注視対象(以下、判定用注視対象という)をユーザが視認しているか否かを判定する要求を受け付ける。較正値算出部105は、要求を受け付けると、サンプル取得部102から、現在の視線方向を示したサンプルを取得する。較正値算出部105は、較正パラメータ蓄積部106aに蓄積された較正パラメータを用いて、視線方向を較正する。較正値算出部105は、較正後の視線方向を視線方向判定部107に出力する。
また、較正値算出部105は、較正後の視線方向を常時視線方向蓄積部106bに蓄積するものとしてもよい。この場合、視線方向較正装置100は、ユーザが判定用注視対象を視認しているか否かの判定を希望する外部のプログラムに対して、判定用注視対象の3次元座標を較正後の視線方向に変換した値、例えば後述の判定処理におけるθtargetを返す。当該外部のプログラムは、随時視線方向蓄積部106bを参照して、較正後の視線方向と比較することで独自に判定処理を行う。なお、視線方向蓄積部106bに蓄積する較正値と外部のプログラムに提供する較正パラメータの組み合わせは一例であり、判定処理の構成に合わせて適宜変更可能である。
視線方向判定部107は、較正パラメータ蓄積部106aに蓄積された較正パラメータ、および較正値算出部105が較正した較正後の視線方向に基づいて、ユーザが判定用注視対象を視認しているか否か判定を行う。
視線方向判定部107は、例えば、較正後の視線方向と、判定用注視対象の方向とが近似している場合に、ユーザが判定用注視対象を視認していると判定する。視線方向判定部107は、較正後の視線方向と、判定用注視対象の方向とが近似しているか否かを、予め設定された閾値に基づいて設定する。当該閾値は、現在のユーザの視線方向と、周囲の状況を示す情報とに基づいて設定される。例えば、閾値は、ユーザが視認している対象がユーザに近い位置に存在していると判断される場合には大きく設定され、ユーザが視認している対象がユーザから遠い位置に存在していると判断される場合には小さく設定される。
次に、視線方向較正装置100のハードウェア構成例を説明する。
図2Aおよび図2Bは、実施の形態1に係る視線方向較正装置100のハードウェア構成例を示す図である。
視線方向較正装置100における、較正パラメータ蓄積部106aおよび視線方向蓄積部106bは、ストレージ100aにより実現される。視線方向較正装置100における較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各機能は、処理回路により実現される。即ち、視線方向較正装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100bであってもよいし、図2Bに示すようにメモリ100dに格納されているプログラムを実行するプロセッサ100cであってもよい。
図2Aに示すように、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107が専用のハードウェアである場合、処理回路100bは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図2Bに示すように、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107がプロセッサ100cである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100dに格納される。プロセッサ100cは、メモリ100dに記憶されたプログラムを読み出して実行することにより、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各機能を実現する。即ち、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107は、プロセッサ100cにより実行されるときに、後述する図7および図8に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100dを備える。また、これらのプログラムは、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100cとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)等のことである。
メモリ100dは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、視線方向較正装置100における処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、較正モデル生成部103および較正パラメータ算出部104の詳細について説明する。まず、視線方向較正装置100において使用される較正用の基準となる3次元座標の座標系について説明する。
図3は、実施の形態1に係る視線方向較正装置100において使用される3次元座標を示す図である。図3では、一例として、視線方向較正装置100が車両の運転者の視線方向を較正する場合について説明する。
座標軸は、車両300の車幅方向をX軸とし、車両300の進行方向をY軸とし、車両300が走行する路面に対して垂直方向をZ軸とする。X軸は、車両の進行方向に向かって右側に向かう方向を正とし、Y軸は、車両の進行方向に向かう方向を正としている。Z軸は、路面の上方に向かう方向を正としている。3次元座標の原点Oは、車両300に搭載された視線計測装置201の中心位置である。図3では、視線計測装置201における計測の基準方向を、X−Y平面に投影した場合の方向をX−Y平面上のR軸で示している。なお、上述の通り、ここでは、回転パラメータ(ρ)は未知としているため、視線計測装置201の基準方向も未知である。
なお、図3で示した座標軸の設定は一例であり、座標軸の原点の設定、および座標軸の向き等は適宜変更可能である。
車両300の運転席301には、運転者302が着座している。車両300の右サイドミラー303、左サイドミラー304およびバックミラー305が較正用注視対象である。例えば、運転開始前に、視線方向較正装置100が有する図示しない制御部により、「左サイドミラーを見てください」等の注視指示が行われると、運転者302は、左サイドミラー304を注視する。注視指示の後に運転者302の視線方向が一定値に滞留した状態を、運転者302が較正用注視対象を注視している状態とする。この際、視線方向と較正用注視対象の紐付を容易にするため、注視対象を提示する順序を、上下または左右に視線の動きが大きくなるように選択することが望ましい。これにより、視線の動きが大きい区間を、較正用注視対象間を視線方向が移動した区間として検出することが容易となる。例えば、右サイドミラー303、左サイドミラー304、バックミラー305の順に提示する方が、右サイドミラー303、バックミラー305、左サイドミラー304の順に提示した場合より較正用注視対象の注視判定における弁別性が高まる。
また、他の方法として、運転者302が、車両300の走行時に安全確認等のために頻繁に注視している点などから左サイドミラー304等を注視している状態を推定することで、運転者302が較正用注視対象を注視している状態としてもよい。
次に、図3で示した3次元座標における、較正モデル生成部103および較正パラメータ算出部104の処理について図4および図5を参照しながら説明を行う。
図4および図5は、実施の形態1に係る視線方向較正装置100の較正モデル生成部103の処理を示す説明図である。
較正情報取得部101は、較正用注視対象である右サイドミラー303の中心点の3次元座標(R,R,R)、左サイドミラー304の中心点の3次元座標(L,L,L)およびバックミラー305の中心点の3次元座標(F,F,F)を取得し、較正モデル生成部103に出力する。
図4および図5では、運転者302が左サイドミラー304を注視している状態を例に、較正モデルの生成について説明を行うと共に、較正パラメータの算出について説明を行う。
図4は、運転者302が、左サイドミラー304を注視した場合の、較正モデル生成部103の処理を示す図である。図4の例では、較正モデル生成部103が、ユーザ位置としてユーザの左目の眼球の中心位置の候補となる3次元座標を示す較正モデルを生成するものとして説明する。
較正モデル生成部103は、以下の式(1)および式(2)に基づいて、運転者302が左サイドミラー304を注視している際の、ユーザ位置の候補となる3次元座標を示す較正モデルを生成する。
Figure 0006479272
Figure 0006479272
式(2)は、式(1)における視線方向ベクトルvpovの成分表示である。式(2)におけるθは、視線計測装置201から出力された、視線方向の計測値を示す角度である。θyawは、X−Y平面方向の視線方向の計測値である。θpitchは、Y−Z平面の視線方向の計測値を示す角度である。
また、式(2)におけるρは、回転パラメータであり、視線計測装置201における計測の基準方向と、較正後の視線の基準方向(ここではY軸)とのなす角の角度である。ρyawは、視線計測装置201における計測の基準方向とY軸とのなす角の角度であって、Z軸を中心とした回転角度を示す。ρpitchは、Y−Z平面に投影した場合の視線計測装置201における計測の基準方向とY軸とのなす角の角度である。
図4の例では、θyawおよびρyawを示している。
なお、上述した式(1)の較正処理の定式化は、説明のための一例である。
図5は、視線方向ベクトルvpovのx成分を説明する図である。図5において、θyawは、R軸を起点に原点Oを中心として時計回りの方向が正の値となるように定める。従って、図5におけるθyawは、θyaw<0である。また、ρyawは、R軸を起点に原点Oを中心として時計回りの方向が正の値となるように定める。従って、図5におけるρyawは、ρyaw>0である。θyawおよびρyawの符号を上記のように定め、さらに、視線方向ベクトルvpovのy成分を「1」と定めれば、x成分は、図5で示したように、tan(θyaw−ρyaw)で表わされる。なお、上記の定義は、ユーザ位置が視線計測装置201に対して左右中央いずれの位置にあっても適用可能である。
図示していないが、視線方向ベクトルvpovのz成分も同様に、θpitchおよびρpitchを用いて表される。
Figure 0006479272
Figure 0006479272
Figure 0006479272
Figure 0006479272
以上の処理により、視線方向較正装置100は、各較正用注視対象の3次元座標と、運転者302が各較正用注視対象を注視している状態における視線方向とから、視線方向の較正に必要なパラメータを得ることができる。
図6は、実施の形態1に係る視線方向較正装置100の較正値算出部105および視線方向判定部107の処理例を示す説明図である。
較正値算出部105は、サンプル取得部102から入力された視線方向θに対して較正後の視線方向θ´=(θ−ρ)を算出する。較正値算出部105は、算出した較正後の視線方向θ´を、視線方向蓄積部106に蓄積するか、または、視線方向判定部107に出力する。
Figure 0006479272
また、較正値算出部105および視線方向判定部107は、次のように処理を行ってもよい。
Figure 0006479272
target=xhead−svpov (1a)
このxtarget
は、計測された視線方向θと較正用パラメータとに基づく、較正後の視線方向を示す直線を表している。較正値算出部105は、取得した直線xtargetを視線方向判定部107に出力する。
視線方向判定部107は、判定用注視対象Pの3次元座標(Px,Py,Pz)から直線xtargetまでの距離を算出する。視線方向判定部107は算出した距離が閾値以内である場合、ユーザは判定用注視対象Pを見ていたと判定する。
なお、視線方向判定部107が、ユーザが判定用注視対象Pの方向を視認しているか否かを判定する際の閾値は、判定用注視対象Pと運転者302との距離に基づいて設定してもよい。例えば、閾値は、判定用注視対象Pと運転者302との距離が短くなるほど閾値が大きくなり、判定用注視対象Pと運転者302との距離が長くなるほど閾値が小さくなるように連続的に設定される。また、閾値は判定用注視対象Pと運転者302との距離に応じて連続的に変化させて設定することなく、判定用注視対象Pと運転者302との距離が予め設定した距離以内であれば閾値を小さく設定し、判定用注視対象Pと運転者302との距離が予め設定した距離よりも離れている場合には閾値を大きく設定する構成としてもよい。
このように、判定用注視対象Pと運転者302との距離に応じて閾値を設定することにより、視線方向判定部107は、運転者302が自身から近い地点を視認している際の視線方向のずれと、運転者302が自身から遠い地点を視認している際の視線方向のずれとを考慮し、視線方向を判定することができる。
なお、上記では、ユーザが判定用注視対象を視認しているか否かを判定する際の閾値を、判定用注視対象Pと運転者302との距離に基づいて設定する場合を例に示したが、その他の条件に基づいて閾値を設定してもよい。
次に、視線方向較正装置100の動作について説明する。
以下では、視線方向較正装置100の動作を、較正パラメータ算出処理を行う動作と、視線方向の較正処理および視線方向の判定処理を行う動作とに分けて説明する。
まず、較正パラメータ算出処理について、図7のフローチャートを参照しながら説明する。
図7は、実施の形態1に係る視線方向較正装置100による較正パラメータ算出処理の動作を示すフローチャートである。
較正情報取得部101は、較正用注視対象の3次元座標を取得する(ステップST1)。較正情報取得部101は、取得した較正用注視対象の3次元座標を較正モデル生成部103に出力する。ここで、ユーザに対して、何れの較正用注視対象を注視するかを指示する情報がスピーカ(図示しない)またはディスプレイ(図示しない)等から出力される。ユーザが指定された較正用注視対象を注視すると、サンプル取得部102は、視線計測装置201から当該較正用注視対象を注視したユーザの視線方向を示したサンプルを取得し、較正モデル生成部103に出力する(ステップST2)。
較正モデル生成部103は、ステップST1で取得された較正用注視対象の3次元座標と、サンプル取得部102が取得したサンプルに対応する較正用注視対象とを紐付けて取得する(ステップST3)。較正モデル生成部103は、上述した式(1)および(2)に基づいて、ステップST3で取得した較正用注視対象の3次元座標と、ステップST2で取得されたサンプルとから、ユーザ位置の候補となる3次元座標を示す複数の較正モデルを生成する(ステップST4)。較正モデル生成部103は、ステップST4で生成した較正モデルを較正パラメータ算出部104に出力する。
Figure 0006479272
次に、視線方向の較正処理および視線方向の判定処理について、図8のフローチャートを参照しながら説明する。
図8は、実施の形態1に係る視線方向較正装置100の視線方向の較正処理および視線方向の判定処理の動作を示すフローチャートである。
較正値算出部105は、入力装置202を介して判定用注視対象を注視しているかの判定要求が入力されると(ステップST21)、サンプル取得部102が取得したサンプルの視線方向に対して較正後の視線方向を算出する(ステップST22)。較正値算出部105は、算出した較正後の視線方向を視線方向判定部107に出力する。視線方向判定部107は、判定用注視対象の方向を算出する(ステップST23)。視線方向判定部107は、ステップST22で算出された較正後の視線方向と、ステップST23で算出した判定用注視対象の方向とに基づいて、ユーザが判定用注視対象を視認しているか否か判定を行う(ステップST24)。
ユーザが判定用注視対象を視認している場合(ステップST24;YES)、視線方向判定部107は、ユーザが判定用注視対象を視認しているとの結果を出力し(ステップST25)、処理を終了する。
一方、ユーザが判定用注視対象を視認していない場合(ステップST24;NO)、視線方向判定部107は、ユーザが判定用注視対象を視認していないとの判定結果を出力し(ステップST26)、処理を終了する。
図9は、実施の形態1に係る視線方向較正装置100の較正処理の結果を示す図である。
図9は、車両内の装備品を較正用注視対象として、上述した視線方向の較正処理を行った結果を示している。車両の装備品として、図9では、視線計測装置201、バックミラー305、右サイドミラー303および左サイドミラー304を注視対象とした場合を示している。
図9において、横軸は車両の車幅方向の視線方向の位置を示し、縦軸は車両が走行する路面に対して垂直方向の視線方向の位置を示している。また、矩形領域401は、ユーザの正面位置を示す。矩形領域402から矩形領域405は、車両の各装備品を較正用注視対象とした場合の較正後の視線方向の位置を示している。結果412から結果415は較正用注視対象である車両の各装備品を注視した際のユーザの視線方向の位置を示している。図9は、視線方向較正装置100による較正処理により、較正後の視線方向の位置を表す矩形領域が、それぞれに対応する結果へと収束する様子を示している。
なお、図9において、結果412は視線計測装置201を注視した際のユーザの視線ベクトルのプロットを示している。同様に、結果413はバックミラー305、結果414は右サイドミラー303、結果415は左サイドミラー304を注視した際のユーザの視線ベクトルのプロットを示している。
運転者は、車両の走行中にバックミラーまたはサイドミラー等の車両の装備品を頻繁に視認する。そこで、車両の装備品を較正用注視対象とすることにより、運転者が車両の運転中に車両の装備品を見るといった無意識な行動、または必然的な挙動によって視線方向の較正処理を行うことができる。
車両の走行中に運転者が車両の装備品を見る行動により、視線方向の基準を設定し、視線方向検出のキャリブレーションを行う技術が、例えば以下の参考文献1等に開示されている。
・参考文献1
特開2010−30361号公報
以上のように、この実施の形態1に係る視線方向較正装置100は、少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得する較正情報取得部101と、ユーザの視線方向を示した複数のサンプルを取得するサンプル取得部102と、取得された3次元座標と、取得された各較正用注視対象を注視している状態のユーザの視線方向を示したサンプルとに基づいて、ユーザ位置の候補となる3次元座標を示す複数の較正モデルを生成する較正モデル生成部103と、生成された較正モデルに基づいて、較正パラメータを算出する較正パラメータ算出部104とを備えるように構成した。
これにより、任意の点に向けられた視線に対して計測された視線方向に含まれる計測誤差を較正することができる。また、視線方向と較正用注視対象の情報のみから較正パラメータを算出することができる。このため、例えば1つの撮像手段に基づく視線方向計測値のみを用いた構成においても較正パラメータを算出することができるので、ユーザ位置を把握するための距離計を用いる技術や複数の撮像手段を用いる技術と比較して、構成が簡易となり、且つ、コストを抑制することができる。
また、この実施の形態1に係る視線方向較正装置100は、サンプル取得部102が取得したユーザの視線方向を、較正パラメータ算出部104が算出した較正パラメータに基づいて較正し、較正された視線方向を算出する較正値算出部105と、算出された較正された視線方向と、較正パラメータ算出部104が算出した較正パラメータとに基づいて、ユーザが判定用注視対象を視認しているか否か判定する視線方向判定部107とを備えるように構成した。
これにより、任意の点に向けられたユーザの視線方向を判定することができる。
なお、上述した実施の形態1に係る視線方向較正装置100において、視線計測装置201の計測特性についても較正対象とする場合には、上述した式(2)を、以下の式(2a)に変形することにより、対応可能である。

Figure 0006479272
式(2a)では、式(2)におけるθをf(α,θ)に置き換えている。式(2a)において、関数fにおける変数αについても最適化対象とすることにより、視線計測装置201の計測特性を較正対象とすることができる。
ユーザの個人差、または視線計測装置201の個体差等により、3次元座標のX,Y,Z方向でサンプル取得部102の感度が変化する場合においては、式(2a)におけるf(α,θ)をαθとする。これにより、視線計測装置201の計測特性の感度についても同時に較正することができる。なお、式(2a)におけるαは、αyawとαpitchとで個別に設定する。
Figure 0006479272
また、視線計測装置201の計測特性の他の例として、同一の大きさを持つ較正用注視対象がユーザ位置に近い距離にある場合には遠い位置にある場合と比較して視角が大きくなるために、較正用注視対象の中心座標からのズレが大きくなることで視線方向の計測値にバラつきが大きくなることが想定される。視線方向の計測値にバラつきが大きい場合には、較正モデルがユーザ位置を適切に反映しない可能性が高まるために較正パラメータの推定精度が低下するという問題が発生する。そのため、例えば、同一の較正用注視対象を注視している場合の視線方向の標準偏差をσとしてw=exp(−σ)による重み係数を付加するなどにより、視線方向のバラつきが大きいほど重み係数を小さくすることが望ましい。
Figure 0006479272
なお、上述した説明では視線方向の標準偏差σを基準に連続的に重みを付す場合を示したが、SVM(Support Vector Machine)におけるソフトマージンのように、不連続的に較正モデルの重みを付してもよい。
なお、上述した説明では、視線方向較正装置100が3次元空間内の任意の点について、較正された視線方向を算出する場合を示した。しかし、視線方向較正装置100は、3次元空間の特殊な場合である2次元空間内の任意の点について、較正された視線方向を算出する構成としてもよい。
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
この発明に係る視線方向較正装置は、車載機器およびテレビ等のディスプレイを備えた装置等において、ユーザの視線方向を精度よく判定し、ユーザの視認対象を正確に把握することが要求されるシステム等に適用可能である。
100 視線方向較正装置、101 較正情報取得部、102 サンプル取得部、103 較正モデル生成部、104 較正パラメータ算出部、105 較正値算出部、106a 較正パラメータ蓄積部、106b 視線方向蓄積部、107 視線方向判定部。

Claims (9)

  1. 少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す既知の座標系を基準とした3次元座標を取得する較正情報取得部と、
    当該座標系との対応関係が未知の座標系を基準としたユーザの視線方向を示した複数のサンプルを取得するサンプル取得部と、
    前記較正情報取得部が取得した3次元座標と、前記サンプル取得部が取得した前記各較正用注視対象を注視している状態の前記ユーザの視線方向を示した前記サンプルと、前記既知の座標系と前記未知の座標系との対応関係を表すパラメータである未知のパラメータと、に基づいて、前記ユーザの位置の候補となる、3次元座標を示す複数の較正モデルを生成する較正モデル生成部と、
    前記較正モデル生成部が生成した前記較正モデルに基づいて、前記未知のパラメータと、前記ユーザの位置と、を較正パラメータとして算出する較正パラメータ算出部とを備えた視線方向較正装置。
  2. 前記サンプル取得部が取得した前記ユーザの視線方向を、前記較正パラメータ算出部が算出した前記較正パラメータに基づいて較正し、較正された視線方向を算出する較正値算出部と、
    前記較正値算出部が算出した前記較正された視線方向と、前記較正パラメータ算出部が算出した前記較正パラメータとに基づいて、前記ユーザが判定用注視対象を視認しているか否か判定する視線方向判定部を備えたことを特徴とする請求項1記載の視線方向較正装置。
  3. 前記視線方向判定部が前記ユーザが前記判定用注視対象を視認していると判定するための閾値は、前記ユーザと前記判定用注視対象との距離に基づいて設定されることを特徴とする請求項2記載の視線方向較正装置。
  4. 前記較正モデル生成部は、前記ユーザの視線方向を計測する計測装置の計測特性を較正対象とすることを特徴とする請求項1記載の視線方向較正装置。
  5. 前記較正パラメータ算出部は、前記ユーザの視線方向を計測する計測装置の計測範囲内の位置に応じて前記較正モデルに重みを付加することを特徴とする請求項1記載の視線方向較正装置。
  6. 前記較正パラメータ算出部は、前記較正用注視対象ごとに、前記ユーザの視線方向のバラつきの大きさに応じて前記較正モデルに重みを付加することを特徴とする請求項1記載の視線方向較正装置。
  7. 前記較正パラメータ算出部は、前記ユーザの視線方向ごとに、当該ユーザの視線方向が属する前記較正用注視対象における前記ユーザの視線方向の分布からの当該ユーザの視線方向の外れ度合いに応じて前記較正モデルに重みを付加することを特徴とする請求項1記載の視線方向較正装置。
  8. 較正情報取得部が、少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す既知の座標系を基準とした3次元座標を取得するステップと、
    サンプル取得部が、当該座標系との対応関係が未知の座標系を基準としたユーザの視線方向を示した複数のサンプルを取得するステップと、
    較正モデル生成部が、前記各較正用注視対象の位置を示す3次元座標と、前記各較正用注視対象を注視している状態の前記ユーザの視線方向を示した前記サンプルと、前記既知の座標系と前記未知の座標系との対応関係を表すパラメータである未知のパラメータと、に基づいて、前記ユーザの位置の候補となる3次元座標を示す複数の較正モデルを生成するステップと、
    較正パラメータ算出部が、前記較正モデル生成部が生成した前記較正モデルに基づいて、前記未知のパラメータと、前記ユーザの位置と、を較正パラメータとして算出するステップとを備えた視線方向較正方法。
  9. 少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す既知の座標系を基準とした3次元座標を取得する手順と、
    当該座標系との対応関係が未知の座標系を基準としたユーザの視線方向を示した複数のサンプルを取得する手順と、
    前記各較正用注視対象の位置を示す3次元座標と、前記各較正用注視対象を注視している状態の前記ユーザの視線方向を示した前記サンプルと、前記既知の座標系と前記未知の座標系との対応関係を表すパラメータである未知のパラメータと、に基づいて、前記ユーザの位置の候補となる3次元座標を示す複数の較正モデルを生成する手順と、
    前記生成された前記較正モデルに基づいて、前記未知のパラメータと、前記ユーザの位置と、を較正パラメータとして算出する手順とをコンピュータに実行させるための視線方向較正プログラム。
JP2018529196A 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム Active JP6479272B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/000091 WO2019135281A1 (ja) 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム

Publications (2)

Publication Number Publication Date
JP6479272B1 true JP6479272B1 (ja) 2019-03-06
JPWO2019135281A1 JPWO2019135281A1 (ja) 2020-01-16

Family

ID=65655825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018529196A Active JP6479272B1 (ja) 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム

Country Status (5)

Country Link
US (1) US10977488B2 (ja)
JP (1) JP6479272B1 (ja)
CN (1) CN111527374B (ja)
DE (1) DE112018006164B4 (ja)
WO (1) WO2019135281A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458104A (zh) * 2019-08-12 2019-11-15 广州小鹏汽车科技有限公司 人眼视线检测系统的人眼视线方向确定方法和系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7340882B2 (ja) * 2021-01-07 2023-09-08 株式会社ロイヤリティバンク 評価価格算定プログラム及び評価価格算定方法
JP2022171084A (ja) * 2021-04-30 2022-11-11 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
CN116027910B (zh) * 2023-03-29 2023-07-04 广州视景医疗软件有限公司 一种基于vr眼动追踪技术的眼位图生成方法及系统
CN116052264B (zh) * 2023-03-31 2023-07-04 广州视景医疗软件有限公司 一种基于非线性偏差校准的视线估计方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238905A (ja) * 1996-03-05 1997-09-16 Nissan Motor Co Ltd 視線方向計測装置
WO2016129156A1 (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016539363A (ja) * 2013-11-08 2016-12-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2925147B2 (ja) * 1988-09-16 1999-07-28 キヤノン株式会社 視線検出装置及び光学機器
JPH11276438A (ja) * 1998-03-30 1999-10-12 Isuzu Motors Ltd 視線計測装置
JP3225270B2 (ja) * 1999-04-28 2001-11-05 経済産業大臣 視線計測方法、視線計測装置
ATE357680T1 (de) * 2000-10-07 2007-04-15 David Dickerson Informationssystem und verfahren zur zurverfügungstellen von informationen unter verwendung eines holographischen elements
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP2008243031A (ja) * 2007-03-28 2008-10-09 Toyota Central R&D Labs Inc 漫然運転判定装置
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
JP2010030361A (ja) * 2008-07-25 2010-02-12 Toyota Motor Corp 運転状態監視装置
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
US20120002028A1 (en) * 2010-07-05 2012-01-05 Honda Motor Co., Ltd. Face image pick-up apparatus for vehicle
JP5664064B2 (ja) * 2010-09-22 2015-02-04 富士通株式会社 視線検出装置および補正係数算出プログラム
EP2632322A1 (en) * 2010-10-29 2013-09-04 IT-universitetet I København Method of determining reflections of light
JP5719216B2 (ja) * 2011-04-05 2015-05-13 日本放送協会 視線測定装置および視線測定プログラム
JP6014931B2 (ja) * 2012-09-06 2016-10-26 公立大学法人広島市立大学 視線計測方法
CN102878951B (zh) * 2012-09-14 2015-02-11 北京航空航天大学 一种基于图像的车辆方向盘转角检测方法及检测装置
US20140267415A1 (en) * 2013-03-12 2014-09-18 Xueming Tang Road marking illuminattion system and method
JP6181974B2 (ja) * 2013-05-23 2017-08-16 株式会社Nttドコモ 視線計測装置及び視線計測方法
DE102013019117A1 (de) * 2013-11-15 2015-05-21 Audi Ag Verfahren zum Kalibrieren einer Blickrichtungserfassungseinrichtung für ein Kraftfahrzeug, Kalibrierungseinrichtung und Kraftfahrzeug
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
WO2015125243A1 (ja) * 2014-02-19 2015-08-27 三菱電機株式会社 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法
JPWO2015136908A1 (ja) 2014-03-13 2017-04-06 パナソニックIpマネジメント株式会社 視線検出装置
DE102016210288A1 (de) * 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
JP6944138B2 (ja) * 2016-07-29 2021-10-06 ソニーグループ株式会社 画像処理装置および画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238905A (ja) * 1996-03-05 1997-09-16 Nissan Motor Co Ltd 視線方向計測装置
JP2016539363A (ja) * 2013-11-08 2016-12-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法
WO2016129156A1 (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458104A (zh) * 2019-08-12 2019-11-15 广州小鹏汽车科技有限公司 人眼视线检测系统的人眼视线方向确定方法和系统

Also Published As

Publication number Publication date
US10977488B2 (en) 2021-04-13
CN111527374A (zh) 2020-08-11
JPWO2019135281A1 (ja) 2020-01-16
WO2019135281A1 (ja) 2019-07-11
CN111527374B (zh) 2021-10-22
DE112018006164B4 (de) 2021-05-12
US20200327324A1 (en) 2020-10-15
DE112018006164T5 (de) 2020-08-27

Similar Documents

Publication Publication Date Title
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
EP3033999B1 (en) Apparatus and method for determining the state of a driver
EP3545818B1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
KR101769177B1 (ko) 시선 추적 장치 및 방법
US20100013949A1 (en) Eyeball parameter estimating device and method
US9606623B2 (en) Gaze detecting apparatus and method
JP6768390B2 (ja) 車両の乗員の視線方向を推定する方法および装置、ならびに車両の乗員に特有の頭部動作増強パラメータを決定する方法および装置
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
US11037006B2 (en) Occupant detection device
US20200105016A1 (en) Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP6669182B2 (ja) 乗員監視装置
JP2016115117A (ja) 判定装置および判定方法
JP2018128749A (ja) 視線計測装置、視線計測方法および視線計測プログラム
US11527013B2 (en) Camera parameter estimating device, camera parameter estimating method, and camera parameter estimating program
WO2018167995A1 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP2018101212A (ja) 車載器および顔正面度算出方法
JP6572538B2 (ja) 下方視判定装置および下方視判定方法
JP6759743B2 (ja) 視認方向推定装置
JP7255436B2 (ja) 眼球構造推定装置
JP2018101211A (ja) 車載器
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
JP6737212B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
CN110895675B (zh) 用于确定3d空间中的对象的特征点的坐标的方法
JP7003335B2 (ja) 操作者判定装置および操作者判定方法
JP2021056968A (ja) 物体判定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180605

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180605

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190205

R150 Certificate of patent or registration of utility model

Ref document number: 6479272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250